aboutsummaryrefslogtreecommitdiffhomepage
path: root/src/jumper/SkJumper_generated.S
diff options
context:
space:
mode:
Diffstat (limited to 'src/jumper/SkJumper_generated.S')
-rw-r--r--src/jumper/SkJumper_generated.S12925
1 files changed, 7455 insertions, 5470 deletions
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
index a6c8d12c19..5ab6ba63b3 100644
--- a/src/jumper/SkJumper_generated.S
+++ b/src/jumper/SkJumper_generated.S
@@ -116,9 +116,9 @@ _sk_seed_shader_skx:
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 98,242,125,40,124,201 // vpbroadcastd %ecx,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,88,13,166,162,3,0 // vaddps 0x3a2a6(%rip){1to8},%ymm1,%ymm1 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,241,116,56,88,13,74,184,3,0 // vaddps 0x3b84a(%rip){1to8},%ymm1,%ymm1 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,159,162,3,0 // vbroadcastss 0x3a29f(%rip),%ymm2 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,21,67,184,3,0 // vbroadcastss 0x3b843(%rip),%ymm2 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -132,16 +132,16 @@ FUNCTION(_sk_dither_skx)
_sk_dither_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 98,114,125,40,124,194 // vpbroadcastd %edx,%ymm8
- .byte 197,61,254,5,45,164,3,0 // vpaddd 0x3a42d(%rip),%ymm8,%ymm8 # 3a560 <_sk_srcover_bgra_8888_sse2_lowp+0x464>
+ .byte 197,61,254,5,205,185,3,0 // vpaddd 0x3b9cd(%rip),%ymm8,%ymm8 # 3bb00 <_sk_srcover_bgra_8888_sse2_lowp+0x460>
.byte 98,114,125,40,124,201 // vpbroadcastd %ecx,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,105,162,3,0 // vpbroadcastd 0x3a269(%rip),%ymm10 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,88,21,13,184,3,0 // vpbroadcastd 0x3b80d(%rip),%ymm10 # 3b954 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,78,162,3,0 // vpbroadcastd 0x3a24e(%rip),%ymm12 # 3a3b4 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
- .byte 196,98,125,88,45,73,162,3,0 // vpbroadcastd 0x3a249(%rip),%ymm13 # 3a3b8 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,88,37,242,183,3,0 // vpbroadcastd 0x3b7f2(%rip),%ymm12 # 3b958 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
+ .byte 196,98,125,88,45,237,183,3,0 // vpbroadcastd 0x3b7ed(%rip),%ymm13 # 3b95c <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
@@ -156,8 +156,8 @@ _sk_dither_skx:
.byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,251,161,3,0 // vbroadcastss 0x3a1fb(%rip),%ymm9 # 3a3bc <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
- .byte 98,114,61,56,168,13,245,161,3,0 // vfmadd213ps 0x3a1f5(%rip){1to8},%ymm8,%ymm9 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
+ .byte 196,98,125,24,13,159,183,3,0 // vbroadcastss 0x3b79f(%rip),%ymm9 # 3b960 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
+ .byte 98,114,61,56,168,13,153,183,3,0 // vfmadd213ps 0x3b799(%rip){1to8},%ymm8,%ymm9 # 3b964 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -190,7 +190,7 @@ HIDDEN _sk_black_color_skx
FUNCTION(_sk_black_color_skx)
_sk_black_color_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,130,161,3,0 // vbroadcastss 0x3a182(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,38,183,3,0 // vbroadcastss 0x3b726(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -201,7 +201,7 @@ HIDDEN _sk_white_color_skx
FUNCTION(_sk_white_color_skx)
_sk_white_color_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,105,161,3,0 // vbroadcastss 0x3a169(%rip),%ymm0 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,13,183,3,0 // vbroadcastss 0x3b70d(%rip),%ymm0 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -247,7 +247,7 @@ HIDDEN _sk_srcatop_skx
FUNCTION(_sk_srcatop_skx)
_sk_srcatop_skx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,8,161,3,0 // vbroadcastss 0x3a108(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,172,182,3,0 // vbroadcastss 0x3b6ac(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -263,7 +263,7 @@ HIDDEN _sk_dstatop_skx
.globl _sk_dstatop_skx
FUNCTION(_sk_dstatop_skx)
_sk_dstatop_skx:
- .byte 196,98,125,24,5,215,160,3,0 // vbroadcastss 0x3a0d7(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,123,182,3,0 // vbroadcastss 0x3b67b(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -302,7 +302,7 @@ HIDDEN _sk_srcout_skx
.globl _sk_srcout_skx
FUNCTION(_sk_srcout_skx)
_sk_srcout_skx:
- .byte 196,98,125,24,5,122,160,3,0 // vbroadcastss 0x3a07a(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,30,182,3,0 // vbroadcastss 0x3b61e(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -315,7 +315,7 @@ HIDDEN _sk_dstout_skx
.globl _sk_dstout_skx
FUNCTION(_sk_dstout_skx)
_sk_dstout_skx:
- .byte 196,226,125,24,5,89,160,3,0 // vbroadcastss 0x3a059(%rip),%ymm0 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,253,181,3,0 // vbroadcastss 0x3b5fd(%rip),%ymm0 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -328,7 +328,7 @@ HIDDEN _sk_srcover_skx
.globl _sk_srcover_skx
FUNCTION(_sk_srcover_skx)
_sk_srcover_skx:
- .byte 196,98,125,24,5,56,160,3,0 // vbroadcastss 0x3a038(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,220,181,3,0 // vbroadcastss 0x3b5dc(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -341,7 +341,7 @@ HIDDEN _sk_dstover_skx
.globl _sk_dstover_skx
FUNCTION(_sk_dstover_skx)
_sk_dstover_skx:
- .byte 196,98,125,24,5,19,160,3,0 // vbroadcastss 0x3a013(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,183,181,3,0 // vbroadcastss 0x3b5b7(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -365,7 +365,7 @@ HIDDEN _sk_multiply_skx
.globl _sk_multiply_skx
FUNCTION(_sk_multiply_skx)
_sk_multiply_skx:
- .byte 196,98,125,24,5,218,159,3,0 // vbroadcastss 0x39fda(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,126,181,3,0 // vbroadcastss 0x3b57e(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -388,7 +388,7 @@ HIDDEN _sk_plus__skx
FUNCTION(_sk_plus__skx)
_sk_plus__skx:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,137,159,3,0 // vbroadcastss 0x39f89(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,45,181,3,0 // vbroadcastss 0x3b52d(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -418,7 +418,7 @@ HIDDEN _sk_xor__skx
.globl _sk_xor__skx
FUNCTION(_sk_xor__skx)
_sk_xor__skx:
- .byte 196,98,125,24,5,52,159,3,0 // vbroadcastss 0x39f34(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,216,180,3,0 // vbroadcastss 0x3b4d8(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -452,7 +452,7 @@ _sk_darken_skx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,184,158,3,0 // vbroadcastss 0x39eb8(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,92,180,3,0 // vbroadcastss 0x3b45c(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -477,7 +477,7 @@ _sk_lighten_skx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,99,158,3,0 // vbroadcastss 0x39e63(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,7,180,3,0 // vbroadcastss 0x3b407(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -505,7 +505,7 @@ _sk_difference_skx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,2,158,3,0 // vbroadcastss 0x39e02(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,166,179,3,0 // vbroadcastss 0x3b3a6(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -527,7 +527,7 @@ _sk_exclusion_skx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,188,157,3,0 // vbroadcastss 0x39dbc(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,96,179,3,0 // vbroadcastss 0x3b360(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -539,7 +539,7 @@ FUNCTION(_sk_colorburn_skx)
_sk_colorburn_skx:
.byte 98,241,92,40,194,199,0 // vcmpeqps %ymm7,%ymm4,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 196,98,125,24,13,153,157,3,0 // vbroadcastss 0x39d99(%rip),%ymm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,61,179,3,0 // vbroadcastss 0x3b33d(%rip),%ymm9 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,36,88,228 // vaddps %ymm4,%ymm11,%ymm12
@@ -603,7 +603,7 @@ _sk_colordodge_skx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 98,209,92,40,194,192,0 // vcmpeqps %ymm8,%ymm4,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,106,156,3,0 // vbroadcastss 0x39c6a(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,14,178,3,0 // vbroadcastss 0x3b20e(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,223 // vsubps %ymm7,%ymm10,%ymm11
.byte 197,36,89,224 // vmulps %ymm0,%ymm11,%ymm12
.byte 98,241,124,40,194,195,0 // vcmpeqps %ymm3,%ymm0,%k0
@@ -660,7 +660,7 @@ HIDDEN _sk_hardlight_skx
.globl _sk_hardlight_skx
FUNCTION(_sk_hardlight_skx)
_sk_hardlight_skx:
- .byte 196,98,125,24,5,98,155,3,0 // vbroadcastss 0x39b62(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,6,177,3,0 // vbroadcastss 0x3b106(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -714,7 +714,7 @@ HIDDEN _sk_overlay_skx
.globl _sk_overlay_skx
FUNCTION(_sk_overlay_skx)
_sk_overlay_skx:
- .byte 196,98,125,24,5,126,154,3,0 // vbroadcastss 0x39a7e(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,34,176,3,0 // vbroadcastss 0x3b022(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -780,15 +780,15 @@ _sk_softlight_skx:
.byte 196,65,52,88,217 // vaddps %ymm9,%ymm9,%ymm11
.byte 196,65,36,88,235 // vaddps %ymm11,%ymm11,%ymm13
.byte 197,4,92,243 // vsubps %ymm3,%ymm15,%ymm14
- .byte 196,98,125,24,29,92,153,3,0 // vbroadcastss 0x3995c(%rip),%ymm11 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,0,175,3,0 // vbroadcastss 0x3af00(%rip),%ymm11 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,36,92,225 // vsubps %ymm9,%ymm11,%ymm12
.byte 196,98,13,168,227 // vfmadd213ps %ymm3,%ymm14,%ymm12
.byte 197,156,89,212 // vmulps %ymm4,%ymm12,%ymm2
.byte 196,66,21,168,237 // vfmadd213ps %ymm13,%ymm13,%ymm13
- .byte 98,226,125,40,24,21,87,153,3,0 // vbroadcastss 0x39957(%rip),%ymm18 # 3a3c4 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 98,226,125,40,24,21,251,174,3,0 // vbroadcastss 0x3aefb(%rip),%ymm18 # 3b968 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 98,161,52,40,88,202 // vaddps %ymm18,%ymm9,%ymm17
.byte 98,81,116,32,89,229 // vmulps %ymm13,%ymm17,%ymm12
- .byte 98,226,125,40,24,29,69,153,3,0 // vbroadcastss 0x39945(%rip),%ymm19 # 3a3c8 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
+ .byte 98,226,125,40,24,29,233,174,3,0 // vbroadcastss 0x3aee9(%rip),%ymm19 # 3b96c <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
.byte 98,50,53,40,184,227 // vfmadd231ps %ymm19,%ymm9,%ymm12
.byte 98,194,125,40,78,201 // vrsqrt14ps %ymm9,%ymm17
.byte 98,162,125,40,76,201 // vrcp14ps %ymm17,%ymm17
@@ -910,11 +910,11 @@ _sk_hue_skx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
- .byte 196,98,125,24,45,224,150,3,0 // vbroadcastss 0x396e0(%rip),%ymm13 # 3a3cc <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,219,150,3,0 // vbroadcastss 0x396db(%rip),%ymm14 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,132,172,3,0 // vbroadcastss 0x3ac84(%rip),%ymm13 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,127,172,3,0 // vbroadcastss 0x3ac7f(%rip),%ymm14 # 3b974 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
.byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
- .byte 98,226,125,40,24,5,203,150,3,0 // vbroadcastss 0x396cb(%rip),%ymm16 # 3a3d4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 98,226,125,40,24,5,111,172,3,0 // vbroadcastss 0x3ac6f(%rip),%ymm16 # 3b978 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
.byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
.byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
@@ -971,7 +971,7 @@ _sk_hue_skx:
.byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
- .byte 196,226,125,24,13,103,149,3,0 // vbroadcastss 0x39567(%rip),%ymm1 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,11,171,3,0 // vbroadcastss 0x3ab0b(%rip),%ymm1 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -1023,11 +1023,11 @@ _sk_saturation_skx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
- .byte 196,98,125,24,45,156,148,3,0 // vbroadcastss 0x3949c(%rip),%ymm13 # 3a3cc <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,151,148,3,0 // vbroadcastss 0x39497(%rip),%ymm14 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,64,170,3,0 // vbroadcastss 0x3aa40(%rip),%ymm13 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,59,170,3,0 // vbroadcastss 0x3aa3b(%rip),%ymm14 # 3b974 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
.byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
- .byte 98,226,125,40,24,5,135,148,3,0 // vbroadcastss 0x39487(%rip),%ymm16 # 3a3d4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 98,226,125,40,24,5,43,170,3,0 // vbroadcastss 0x3aa2b(%rip),%ymm16 # 3b978 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
.byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
.byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
@@ -1084,7 +1084,7 @@ _sk_saturation_skx:
.byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
- .byte 196,226,125,24,13,35,147,3,0 // vbroadcastss 0x39323(%rip),%ymm1 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,199,168,3,0 // vbroadcastss 0x3a8c7(%rip),%ymm1 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -1108,11 +1108,11 @@ _sk_color_skx:
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
.byte 197,108,89,223 // vmulps %ymm7,%ymm2,%ymm11
- .byte 196,98,125,24,37,236,146,3,0 // vbroadcastss 0x392ec(%rip),%ymm12 # 3a3cc <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,45,231,146,3,0 // vbroadcastss 0x392e7(%rip),%ymm13 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,37,144,168,3,0 // vbroadcastss 0x3a890(%rip),%ymm12 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,139,168,3,0 // vbroadcastss 0x3a88b(%rip),%ymm13 # 3b974 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,245 // vmulps %ymm13,%ymm5,%ymm14
.byte 196,66,93,184,244 // vfmadd231ps %ymm12,%ymm4,%ymm14
- .byte 196,98,125,24,61,216,146,3,0 // vbroadcastss 0x392d8(%rip),%ymm15 # 3a3d4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,124,168,3,0 // vbroadcastss 0x3a87c(%rip),%ymm15 # 3b978 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,77,184,247 // vfmadd231ps %ymm15,%ymm6,%ymm14
.byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
.byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
@@ -1170,7 +1170,7 @@ _sk_color_skx:
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
.byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
.byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
- .byte 196,98,125,24,29,105,145,3,0 // vbroadcastss 0x39169(%rip),%ymm11 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,13,167,3,0 // vbroadcastss 0x3a70d(%rip),%ymm11 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
.byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
.byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
@@ -1194,11 +1194,11 @@ _sk_luminosity_skx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,37,52,145,3,0 // vbroadcastss 0x39134(%rip),%ymm12 # 3a3cc <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,45,47,145,3,0 // vbroadcastss 0x3912f(%rip),%ymm13 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,37,216,166,3,0 // vbroadcastss 0x3a6d8(%rip),%ymm12 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,211,166,3,0 // vbroadcastss 0x3a6d3(%rip),%ymm13 # 3b974 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,116,89,245 // vmulps %ymm13,%ymm1,%ymm14
.byte 196,66,125,184,244 // vfmadd231ps %ymm12,%ymm0,%ymm14
- .byte 196,98,125,24,61,32,145,3,0 // vbroadcastss 0x39120(%rip),%ymm15 # 3a3d4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,196,166,3,0 // vbroadcastss 0x3a6c4(%rip),%ymm15 # 3b978 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,109,184,247 // vfmadd231ps %ymm15,%ymm2,%ymm14
.byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
.byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
@@ -1256,7 +1256,7 @@ _sk_luminosity_skx:
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
.byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
.byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
- .byte 196,98,125,24,29,177,143,3,0 // vbroadcastss 0x38fb1(%rip),%ymm11 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,85,165,3,0 // vbroadcastss 0x3a555(%rip),%ymm11 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
.byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
.byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
@@ -1298,9 +1298,9 @@ _sk_srcover_rgba_8888_skx:
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,9,143,3,0 // vbroadcastss 0x38f09(%rip),%ymm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,173,164,3,0 // vbroadcastss 0x3a4ad(%rip),%ymm9 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
- .byte 196,98,125,24,21,40,143,3,0 // vbroadcastss 0x38f28(%rip),%ymm10 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,204,164,3,0 // vbroadcastss 0x3a4cc(%rip),%ymm10 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
@@ -1446,9 +1446,9 @@ _sk_srcover_bgra_8888_skx:
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,180,140,3,0 // vbroadcastss 0x38cb4(%rip),%ymm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,88,162,3,0 // vbroadcastss 0x3a258(%rip),%ymm9 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
- .byte 196,98,125,24,21,211,140,3,0 // vbroadcastss 0x38cd3(%rip),%ymm10 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,119,162,3,0 // vbroadcastss 0x3a277(%rip),%ymm10 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
@@ -1588,7 +1588,7 @@ HIDDEN _sk_clamp_1_skx
.globl _sk_clamp_1_skx
FUNCTION(_sk_clamp_1_skx)
_sk_clamp_1_skx:
- .byte 196,98,125,24,5,162,138,3,0 // vbroadcastss 0x38aa2(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,70,160,3,0 // vbroadcastss 0x3a046(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -1600,7 +1600,7 @@ HIDDEN _sk_clamp_a_skx
.globl _sk_clamp_a_skx
FUNCTION(_sk_clamp_a_skx)
_sk_clamp_a_skx:
- .byte 98,241,100,56,93,29,128,138,3,0 // vminps 0x38a80(%rip){1to8},%ymm3,%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,100,56,93,29,36,160,3,0 // vminps 0x3a024(%rip){1to8},%ymm3,%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
.byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2
@@ -1611,7 +1611,7 @@ HIDDEN _sk_clamp_a_dst_skx
.globl _sk_clamp_a_dst_skx
FUNCTION(_sk_clamp_a_dst_skx)
_sk_clamp_a_dst_skx:
- .byte 98,241,68,56,93,61,102,138,3,0 // vminps 0x38a66(%rip){1to8},%ymm7,%ymm7 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,68,56,93,61,10,160,3,0 // vminps 0x3a00a(%rip){1to8},%ymm7,%ymm7 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
.byte 197,204,93,247 // vminps %ymm7,%ymm6,%ymm6
@@ -1643,7 +1643,7 @@ HIDDEN _sk_invert_skx
.globl _sk_invert_skx
FUNCTION(_sk_invert_skx)
_sk_invert_skx:
- .byte 196,98,125,24,5,38,138,3,0 // vbroadcastss 0x38a26(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,202,159,3,0 // vbroadcastss 0x39fca(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -1697,9 +1697,9 @@ HIDDEN _sk_unpremul_skx
.globl _sk_unpremul_skx
FUNCTION(_sk_unpremul_skx)
_sk_unpremul_skx:
- .byte 196,98,125,24,5,193,137,3,0 // vbroadcastss 0x389c1(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,101,159,3,0 // vbroadcastss 0x39f65(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 98,241,60,56,194,5,226,137,3,0,1 // vcmpltps 0x389e2(%rip){1to8},%ymm8,%k0 # 3a3dc <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
+ .byte 98,241,60,56,194,5,134,159,3,0,1 // vcmpltps 0x39f86(%rip){1to8},%ymm8,%k0 # 3b980 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
@@ -1709,20 +1709,36 @@ _sk_unpremul_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
+HIDDEN _sk_force_opaque_skx
+.globl _sk_force_opaque_skx
+FUNCTION(_sk_force_opaque_skx)
+_sk_force_opaque_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,42,159,3,0 // vbroadcastss 0x39f2a(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_force_opaque_dst_skx
+.globl _sk_force_opaque_dst_skx
+FUNCTION(_sk_force_opaque_dst_skx)
+_sk_force_opaque_dst_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,61,29,159,3,0 // vbroadcastss 0x39f1d(%rip),%ymm7 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 255,224 // jmpq *%rax
+
HIDDEN _sk_from_srgb_skx
.globl _sk_from_srgb_skx
FUNCTION(_sk_from_srgb_skx)
_sk_from_srgb_skx:
- .byte 196,98,125,24,5,188,137,3,0 // vbroadcastss 0x389bc(%rip),%ymm8 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,70,159,3,0 // vbroadcastss 0x39f46(%rip),%ymm8 # 3b984 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,174,137,3,0 // vbroadcastss 0x389ae(%rip),%ymm11 # 3a3e4 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,141,137,3,0 // vbroadcastss 0x3898d(%rip),%ymm12 # 3a3cc <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,56,159,3,0 // vbroadcastss 0x39f38(%rip),%ymm11 # 3b988 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,23,159,3,0 // vbroadcastss 0x39f17(%rip),%ymm12 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,150,137,3,0 // vbroadcastss 0x38996(%rip),%ymm14 # 3a3e8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,32,159,3,0 // vbroadcastss 0x39f20(%rip),%ymm14 # 3b98c <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,140,137,3,0 // vbroadcastss 0x3898c(%rip),%ymm10 # 3a3ec <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,22,159,3,0 // vbroadcastss 0x39f16(%rip),%ymm10 # 3b990 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 98,209,124,40,194,194,1 // vcmpltps %ymm10,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
@@ -1748,16 +1764,16 @@ HIDDEN _sk_from_srgb_dst_skx
.globl _sk_from_srgb_dst_skx
FUNCTION(_sk_from_srgb_dst_skx)
_sk_from_srgb_dst_skx:
- .byte 196,98,125,24,5,15,137,3,0 // vbroadcastss 0x3890f(%rip),%ymm8 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,153,158,3,0 // vbroadcastss 0x39e99(%rip),%ymm8 # 3b984 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,1,137,3,0 // vbroadcastss 0x38901(%rip),%ymm11 # 3a3e4 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,224,136,3,0 // vbroadcastss 0x388e0(%rip),%ymm12 # 3a3cc <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,139,158,3,0 // vbroadcastss 0x39e8b(%rip),%ymm11 # 3b988 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,106,158,3,0 // vbroadcastss 0x39e6a(%rip),%ymm12 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,233,136,3,0 // vbroadcastss 0x388e9(%rip),%ymm14 # 3a3e8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,115,158,3,0 // vbroadcastss 0x39e73(%rip),%ymm14 # 3b98c <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,223,136,3,0 // vbroadcastss 0x388df(%rip),%ymm10 # 3a3ec <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,105,158,3,0 // vbroadcastss 0x39e69(%rip),%ymm10 # 3b990 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 98,209,92,40,194,194,1 // vcmpltps %ymm10,%ymm4,%k0
.byte 98,242,126,40,56,224 // vpmovm2d %k0,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
@@ -1784,19 +1800,19 @@ HIDDEN _sk_to_srgb_skx
FUNCTION(_sk_to_srgb_skx)
_sk_to_srgb_skx:
.byte 98,114,125,40,78,192 // vrsqrt14ps %ymm0,%ymm8
- .byte 196,98,125,24,13,108,136,3,0 // vbroadcastss 0x3886c(%rip),%ymm9 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
+ .byte 196,98,125,24,13,246,157,3,0 // vbroadcastss 0x39df6(%rip),%ymm9 # 3b994 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
.byte 196,65,124,89,209 // vmulps %ymm9,%ymm0,%ymm10
- .byte 196,98,125,24,29,98,136,3,0 // vbroadcastss 0x38862(%rip),%ymm11 # 3a3f4 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
- .byte 196,98,125,24,37,93,136,3,0 // vbroadcastss 0x3885d(%rip),%ymm12 # 3a3f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
+ .byte 196,98,125,24,29,236,157,3,0 // vbroadcastss 0x39dec(%rip),%ymm11 # 3b998 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
+ .byte 196,98,125,24,37,231,157,3,0 // vbroadcastss 0x39de7(%rip),%ymm12 # 3b99c <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,61,168,235 // vfmadd213ps %ymm11,%ymm8,%ymm13
- .byte 196,98,125,24,53,78,136,3,0 // vbroadcastss 0x3884e(%rip),%ymm14 # 3a3fc <_sk_srcover_bgra_8888_sse2_lowp+0x300>
+ .byte 196,98,125,24,53,216,157,3,0 // vbroadcastss 0x39dd8(%rip),%ymm14 # 3b9a0 <_sk_srcover_bgra_8888_sse2_lowp+0x300>
.byte 196,66,61,168,238 // vfmadd213ps %ymm14,%ymm8,%ymm13
- .byte 196,98,125,24,61,68,136,3,0 // vbroadcastss 0x38844(%rip),%ymm15 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0x304>
+ .byte 196,98,125,24,61,206,157,3,0 // vbroadcastss 0x39dce(%rip),%ymm15 # 3b9a4 <_sk_srcover_bgra_8888_sse2_lowp+0x304>
.byte 196,65,60,88,199 // vaddps %ymm15,%ymm8,%ymm8
.byte 98,82,125,40,76,192 // vrcp14ps %ymm8,%ymm8
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,47,136,3,0 // vbroadcastss 0x3882f(%rip),%ymm13 # 3a404 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
+ .byte 196,98,125,24,45,185,157,3,0 // vbroadcastss 0x39db9(%rip),%ymm13 # 3b9a8 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
.byte 98,209,124,40,194,197,1 // vcmpltps %ymm13,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
.byte 196,195,61,74,194,0 // vblendvps %ymm0,%ymm10,%ymm8,%ymm0
@@ -1834,7 +1850,7 @@ _sk_rgb_to_hsl_skx:
.byte 197,116,93,194 // vminps %ymm2,%ymm1,%ymm8
.byte 196,65,124,93,208 // vminps %ymm8,%ymm0,%ymm10
.byte 98,193,52,40,92,194 // vsubps %ymm10,%ymm9,%ymm16
- .byte 196,98,125,24,5,32,135,3,0 // vbroadcastss 0x38720(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,170,156,3,0 // vbroadcastss 0x39caa(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 98,49,60,40,94,224 // vdivps %ymm16,%ymm8,%ymm12
.byte 98,209,52,40,194,194,0 // vcmpeqps %ymm10,%ymm9,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
@@ -1843,23 +1859,23 @@ _sk_rgb_to_hsl_skx:
.byte 197,116,92,242 // vsubps %ymm2,%ymm1,%ymm14
.byte 98,241,116,40,194,194,1 // vcmpltps %ymm2,%ymm1,%k0
.byte 98,114,126,40,56,248 // vpmovm2d %k0,%ymm15
- .byte 196,98,125,24,29,66,135,3,0 // vbroadcastss 0x38742(%rip),%ymm11 # 3a408 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,29,204,156,3,0 // vbroadcastss 0x39ccc(%rip),%ymm11 # 3b9ac <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
.byte 196,67,69,74,219,240 // vblendvps %ymm15,%ymm11,%ymm7,%ymm11
.byte 196,66,29,168,243 // vfmadd213ps %ymm11,%ymm12,%ymm14
.byte 98,241,52,40,194,193,0 // vcmpeqps %ymm1,%ymm9,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 196,98,125,24,61,29,135,3,0 // vbroadcastss 0x3871d(%rip),%ymm15 # 3a40c <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,61,167,156,3,0 // vbroadcastss 0x39ca7(%rip),%ymm15 # 3b9b0 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,194,29,168,215 // vfmadd213ps %ymm15,%ymm12,%ymm2
.byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
- .byte 98,242,29,56,168,5,14,135,3,0 // vfmadd213ps 0x3870e(%rip){1to8},%ymm12,%ymm0 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 98,242,29,56,168,5,152,156,3,0 // vfmadd213ps 0x39c98(%rip){1to8},%ymm12,%ymm0 # 3b9b4 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 196,227,125,74,194,176 // vblendvps %ymm11,%ymm2,%ymm0,%ymm0
.byte 196,195,125,74,198,208 // vblendvps %ymm13,%ymm14,%ymm0,%ymm0
.byte 196,227,125,74,199,128 // vblendvps %ymm8,%ymm7,%ymm0,%ymm0
- .byte 98,241,124,56,89,5,246,134,3,0 // vmulps 0x386f6(%rip){1to8},%ymm0,%ymm0 # 3a414 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 98,241,124,56,89,5,128,156,3,0 // vmulps 0x39c80(%rip){1to8},%ymm0,%ymm0 # 3b9b8 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,193,52,88,202 // vaddps %ymm10,%ymm9,%ymm1
- .byte 196,98,125,24,29,124,134,3,0 // vbroadcastss 0x3867c(%rip),%ymm11 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,29,6,156,3,0 // vbroadcastss 0x39c06(%rip),%ymm11 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 98,241,36,40,194,194,1 // vcmpltps %ymm2,%ymm11,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
@@ -1878,7 +1894,7 @@ FUNCTION(_sk_hsl_to_rgb_skx)
_sk_hsl_to_rgb_skx:
.byte 98,225,124,40,40,215 // vmovaps %ymm7,%ymm18
.byte 98,225,124,40,40,230 // vmovaps %ymm6,%ymm20
- .byte 98,226,125,40,24,5,46,134,3,0 // vbroadcastss 0x3862e(%rip),%ymm16 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,226,125,40,24,5,184,155,3,0 // vbroadcastss 0x39bb8(%rip),%ymm16 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 98,241,124,32,194,194,2 // vcmpleps %ymm2,%ymm16,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
.byte 197,116,89,202 // vmulps %ymm2,%ymm1,%ymm9
@@ -1886,27 +1902,27 @@ _sk_hsl_to_rgb_skx:
.byte 196,67,53,74,194,128 // vblendvps %ymm8,%ymm10,%ymm9,%ymm8
.byte 197,60,88,218 // vaddps %ymm2,%ymm8,%ymm11
.byte 196,65,124,40,203 // vmovaps %ymm11,%ymm9
- .byte 98,114,109,56,186,13,99,134,3,0 // vfmsub231ps 0x38663(%rip){1to8},%ymm2,%ymm9 # 3a40c <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 98,114,109,56,186,13,237,155,3,0 // vfmsub231ps 0x39bed(%rip){1to8},%ymm2,%ymm9 # 3b9b0 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 98,209,116,40,194,192,0 // vcmpeqps %ymm8,%ymm1,%k0
.byte 98,242,126,40,56,248 // vpmovm2d %k0,%ymm7
- .byte 98,241,124,56,88,13,83,134,3,0 // vaddps 0x38653(%rip){1to8},%ymm0,%ymm1 # 3a418 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 98,241,124,56,88,13,221,155,3,0 // vaddps 0x39bdd(%rip){1to8},%ymm0,%ymm1 # 3b9bc <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
.byte 196,99,125,8,193,1 // vroundps $0x1,%ymm1,%ymm8
.byte 196,193,116,92,200 // vsubps %ymm8,%ymm1,%ymm1
- .byte 98,226,125,40,24,29,66,134,3,0 // vbroadcastss 0x38642(%rip),%ymm19 # 3a41c <_sk_srcover_bgra_8888_sse2_lowp+0x320>
+ .byte 98,226,125,40,24,29,204,155,3,0 // vbroadcastss 0x39bcc(%rip),%ymm19 # 3b9c0 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
.byte 98,241,100,32,194,193,2 // vcmpleps %ymm1,%ymm19,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
.byte 196,65,36,92,241 // vsubps %ymm9,%ymm11,%ymm14
- .byte 196,98,125,24,61,19,134,3,0 // vbroadcastss 0x38613(%rip),%ymm15 # 3a408 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,61,157,155,3,0 // vbroadcastss 0x39b9d(%rip),%ymm15 # 3b9ac <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,65,116,89,231 // vmulps %ymm15,%ymm1,%ymm12
- .byte 98,226,125,40,24,13,12,134,3,0 // vbroadcastss 0x3860c(%rip),%ymm17 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 98,226,125,40,24,13,150,155,3,0 // vbroadcastss 0x39b96(%rip),%ymm17 # 3b9b4 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 98,81,116,32,92,212 // vsubps %ymm12,%ymm17,%ymm10
.byte 196,66,13,168,209 // vfmadd213ps %ymm9,%ymm14,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 98,241,124,32,194,193,2 // vcmpleps %ymm1,%ymm16,%k0
.byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
.byte 196,67,37,74,192,160 // vblendvps %ymm10,%ymm8,%ymm11,%ymm8
- .byte 196,98,125,24,21,227,133,3,0 // vbroadcastss 0x385e3(%rip),%ymm10 # 3a414 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,21,109,155,3,0 // vbroadcastss 0x39b6d(%rip),%ymm10 # 3b9b8 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 98,241,44,40,194,193,2 // vcmpleps %ymm1,%ymm10,%k0
.byte 98,242,126,40,56,200 // vpmovm2d %k0,%ymm1
.byte 196,66,13,168,225 // vfmadd213ps %ymm9,%ymm14,%ymm12
@@ -1928,7 +1944,7 @@ _sk_hsl_to_rgb_skx:
.byte 196,66,13,168,233 // vfmadd213ps %ymm9,%ymm14,%ymm13
.byte 196,195,21,74,200,16 // vblendvps %ymm1,%ymm8,%ymm13,%ymm1
.byte 196,227,117,74,202,112 // vblendvps %ymm7,%ymm2,%ymm1,%ymm1
- .byte 98,241,124,56,88,5,105,133,3,0 // vaddps 0x38569(%rip){1to8},%ymm0,%ymm0 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 98,241,124,56,88,5,243,154,3,0 // vaddps 0x39af3(%rip){1to8},%ymm0,%ymm0 # 3b9c4 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 98,241,100,32,194,192,2 // vcmpleps %ymm0,%ymm19,%k0
@@ -1973,12 +1989,12 @@ _sk_scale_u8_skx:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,54 // jne 1f8d <_sk_scale_u8_skx+0x48>
+ .byte 117,54 // jne 1fa7 <_sk_scale_u8_skx+0x48>
.byte 196,66,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm8
- .byte 197,57,219,5,235,141,3,0 // vpand 0x38deb(%rip),%xmm8,%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,57,219,5,113,163,3,0 // vpand 0x3a371(%rip),%xmm8,%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,171,132,3,0 // vmulps 0x384ab(%rip){1to8},%ymm8,%ymm8 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,113,60,56,89,5,53,154,3,0 // vmulps 0x39a35(%rip){1to8},%ymm8,%ymm8 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
.byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
@@ -1990,15 +2006,15 @@ _sk_scale_u8_skx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 119,193 // ja 1f5d <_sk_scale_u8_skx+0x18>
+ .byte 119,193 // ja 1f77 <_sk_scale_u8_skx+0x18>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,138,0,0,0 // lea 0x8a(%rip),%r9 # 2030 <_sk_scale_u8_skx+0xeb>
+ .byte 76,141,13,140,0,0,0 // lea 0x8c(%rip),%r9 # 204c <_sk_scale_u8_skx+0xed>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,163 // jmp 1f5d <_sk_scale_u8_skx+0x18>
+ .byte 235,163 // jmp 1f77 <_sk_scale_u8_skx+0x18>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -2006,7 +2022,7 @@ _sk_scale_u8_skx:
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,118,255,255,255 // jmpq 1f5d <_sk_scale_u8_skx+0x18>
+ .byte 233,118,255,255,255 // jmpq 1f77 <_sk_scale_u8_skx+0x18>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -2019,23 +2035,24 @@ _sk_scale_u8_skx:
.byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,45,255,255,255 // jmpq 1f5d <_sk_scale_u8_skx+0x18>
- .byte 127,255 // jg 2031 <_sk_scale_u8_skx+0xec>
+ .byte 233,45,255,255,255 // jmpq 1f77 <_sk_scale_u8_skx+0x18>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 125,255 // jge 204d <_sk_scale_u8_skx+0xee>
.byte 255 // (bad)
- .byte 255,154,255,255,255,138 // lcall *-0x75000001(%rdx)
+ .byte 255,152,255,255,255,136 // lcall *-0x77000001(%rax)
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 221,255 // (bad)
+ .byte 219,255 // (bad)
.byte 255 // (bad)
- .byte 255,210 // callq *%rdx
+ .byte 255,208 // callq *%rax
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,199 // inc %edi
+ .byte 255,197 // inc %ebp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
- .byte 183,255 // mov $0xff,%bh
+ .byte 181,255 // mov $0xff,%ch
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -2049,18 +2066,18 @@ _sk_scale_565_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,145,0,0,0 // jne 20f6 <_sk_scale_565_skx+0xaa>
+ .byte 15,133,145,0,0,0 // jne 2112 <_sk_scale_565_skx+0xaa>
.byte 196,65,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 98,113,61,56,219,13,174,131,3,0 // vpandd 0x383ae(%rip){1to8},%ymm8,%ymm9 # 3a428 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,113,61,56,219,13,54,153,3,0 // vpandd 0x39936(%rip){1to8},%ymm8,%ymm9 # 3b9cc <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 98,113,52,56,89,13,163,131,3,0 // vmulps 0x383a3(%rip){1to8},%ymm9,%ymm9 # 3a42c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,113,61,56,219,21,157,131,3,0 // vpandd 0x3839d(%rip){1to8},%ymm8,%ymm10 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,113,52,56,89,13,43,153,3,0 // vmulps 0x3992b(%rip){1to8},%ymm9,%ymm9 # 3b9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,113,61,56,219,21,37,153,3,0 // vpandd 0x39925(%rip){1to8},%ymm8,%ymm10 # 3b9d4 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 98,113,44,56,89,21,146,131,3,0 // vmulps 0x38392(%rip){1to8},%ymm10,%ymm10 # 3a434 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,113,61,56,219,5,140,131,3,0 // vpandd 0x3838c(%rip){1to8},%ymm8,%ymm8 # 3a438 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,113,44,56,89,21,26,153,3,0 // vmulps 0x3991a(%rip){1to8},%ymm10,%ymm10 # 3b9d8 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,113,61,56,219,5,20,153,3,0 // vpandd 0x39914(%rip){1to8},%ymm8,%ymm8 # 3b9dc <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,129,131,3,0 // vmulps 0x38381(%rip){1to8},%ymm8,%ymm8 # 3a43c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,113,60,56,89,5,9,153,3,0 // vmulps 0x39909(%rip){1to8},%ymm8,%ymm8 # 3b9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -2079,22 +2096,22 @@ _sk_scale_565_skx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,98,255,255,255 // ja 206b <_sk_scale_565_skx+0x1f>
+ .byte 15,135,98,255,255,255 // ja 2087 <_sk_scale_565_skx+0x1f>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,129,0,0,0 // lea 0x81(%rip),%r9 # 2194 <_sk_scale_565_skx+0x148>
+ .byte 76,141,13,129,0,0,0 // lea 0x81(%rip),%r9 # 21b0 <_sk_scale_565_skx+0x148>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,65,255,255,255 // jmpq 206b <_sk_scale_565_skx+0x1f>
+ .byte 233,65,255,255,255 // jmpq 2087 <_sk_scale_565_skx+0x1f>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,66,121,52,12,80 // vpmovzxwq (%r8,%rdx,2),%xmm9
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,23,255,255,255 // jmpq 206b <_sk_scale_565_skx+0x1f>
+ .byte 233,23,255,255,255 // jmpq 2087 <_sk_scale_565_skx+0x1f>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,65,57,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm8
@@ -2104,7 +2121,7 @@ _sk_scale_565_skx:
.byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
.byte 196,65,121,112,201,132 // vpshufd $0x84,%xmm9,%xmm9
.byte 196,65,49,109,192 // vpunpckhqdq %xmm8,%xmm9,%xmm8
- .byte 233,216,254,255,255 // jmpq 206b <_sk_scale_565_skx+0x1f>
+ .byte 233,216,254,255,255 // jmpq 2087 <_sk_scale_565_skx+0x1f>
.byte 144 // nop
.byte 136,255 // mov %bh,%bh
.byte 255 // (bad)
@@ -2151,12 +2168,12 @@ _sk_lerp_u8_skx:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,74 // jne 223b <_sk_lerp_u8_skx+0x5c>
+ .byte 117,74 // jne 2257 <_sk_lerp_u8_skx+0x5c>
.byte 196,66,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm8
- .byte 197,57,219,5,81,139,3,0 // vpand 0x38b51(%rip),%xmm8,%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,57,219,5,213,160,3,0 // vpand 0x3a0d5(%rip),%xmm8,%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,17,130,3,0 // vmulps 0x38211(%rip){1to8},%ymm8,%ymm8 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,113,60,56,89,5,153,151,3,0 // vmulps 0x39799(%rip){1to8},%ymm8,%ymm8 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
@@ -2172,15 +2189,15 @@ _sk_lerp_u8_skx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 119,173 // ja 21f7 <_sk_lerp_u8_skx+0x18>
+ .byte 119,173 // ja 2213 <_sk_lerp_u8_skx+0x18>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,140,0,0,0 // lea 0x8c(%rip),%r9 # 22e0 <_sk_lerp_u8_skx+0x101>
+ .byte 76,141,13,140,0,0,0 // lea 0x8c(%rip),%r9 # 22fc <_sk_lerp_u8_skx+0x101>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,143 // jmp 21f7 <_sk_lerp_u8_skx+0x18>
+ .byte 235,143 // jmp 2213 <_sk_lerp_u8_skx+0x18>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -2188,7 +2205,7 @@ _sk_lerp_u8_skx:
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,98,255,255,255 // jmpq 21f7 <_sk_lerp_u8_skx+0x18>
+ .byte 233,98,255,255,255 // jmpq 2213 <_sk_lerp_u8_skx+0x18>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -2201,9 +2218,9 @@ _sk_lerp_u8_skx:
.byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,25,255,255,255 // jmpq 21f7 <_sk_lerp_u8_skx+0x18>
+ .byte 233,25,255,255,255 // jmpq 2213 <_sk_lerp_u8_skx+0x18>
.byte 102,144 // xchg %ax,%ax
- .byte 125,255 // jge 22e1 <_sk_lerp_u8_skx+0x102>
+ .byte 125,255 // jge 22fd <_sk_lerp_u8_skx+0x102>
.byte 255 // (bad)
.byte 255,152,255,255,255,136 // lcall *-0x77000001(%rax)
.byte 255 // (bad)
@@ -2232,18 +2249,18 @@ _sk_lerp_565_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,165,0,0,0 // jne 23ba <_sk_lerp_565_skx+0xbe>
+ .byte 15,133,165,0,0,0 // jne 23d6 <_sk_lerp_565_skx+0xbe>
.byte 196,65,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 98,113,61,56,219,13,254,128,3,0 // vpandd 0x380fe(%rip){1to8},%ymm8,%ymm9 # 3a428 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,113,61,56,219,13,134,150,3,0 // vpandd 0x39686(%rip){1to8},%ymm8,%ymm9 # 3b9cc <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 98,113,52,56,89,13,243,128,3,0 // vmulps 0x380f3(%rip){1to8},%ymm9,%ymm9 # 3a42c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,113,61,56,219,21,237,128,3,0 // vpandd 0x380ed(%rip){1to8},%ymm8,%ymm10 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,113,52,56,89,13,123,150,3,0 // vmulps 0x3967b(%rip){1to8},%ymm9,%ymm9 # 3b9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,113,61,56,219,21,117,150,3,0 // vpandd 0x39675(%rip){1to8},%ymm8,%ymm10 # 3b9d4 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 98,113,44,56,89,21,226,128,3,0 // vmulps 0x380e2(%rip){1to8},%ymm10,%ymm10 # 3a434 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,113,61,56,219,5,220,128,3,0 // vpandd 0x380dc(%rip){1to8},%ymm8,%ymm8 # 3a438 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,113,44,56,89,21,106,150,3,0 // vmulps 0x3966a(%rip){1to8},%ymm10,%ymm10 # 3b9d8 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,113,61,56,219,5,100,150,3,0 // vpandd 0x39664(%rip){1to8},%ymm8,%ymm8 # 3b9dc <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,209,128,3,0 // vmulps 0x380d1(%rip){1to8},%ymm8,%ymm8 # 3a43c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,113,60,56,89,5,89,150,3,0 // vmulps 0x39659(%rip){1to8},%ymm8,%ymm8 # 3b9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -2266,22 +2283,22 @@ _sk_lerp_565_skx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,78,255,255,255 // ja 231b <_sk_lerp_565_skx+0x1f>
+ .byte 15,135,78,255,255,255 // ja 2337 <_sk_lerp_565_skx+0x1f>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,129,0,0,0 // lea 0x81(%rip),%r9 # 2458 <_sk_lerp_565_skx+0x15c>
+ .byte 76,141,13,129,0,0,0 // lea 0x81(%rip),%r9 # 2474 <_sk_lerp_565_skx+0x15c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,45,255,255,255 // jmpq 231b <_sk_lerp_565_skx+0x1f>
+ .byte 233,45,255,255,255 // jmpq 2337 <_sk_lerp_565_skx+0x1f>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,66,121,52,12,80 // vpmovzxwq (%r8,%rdx,2),%xmm9
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,3,255,255,255 // jmpq 231b <_sk_lerp_565_skx+0x1f>
+ .byte 233,3,255,255,255 // jmpq 2337 <_sk_lerp_565_skx+0x1f>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,65,57,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm8
@@ -2291,7 +2308,7 @@ _sk_lerp_565_skx:
.byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
.byte 196,65,121,112,201,132 // vpshufd $0x84,%xmm9,%xmm9
.byte 196,65,49,109,192 // vpunpckhqdq %xmm8,%xmm9,%xmm8
- .byte 233,196,254,255,255 // jmpq 231b <_sk_lerp_565_skx+0x1f>
+ .byte 233,196,254,255,255 // jmpq 2337 <_sk_lerp_565_skx+0x1f>
.byte 144 // nop
.byte 136,255 // mov %bh,%bh
.byte 255 // (bad)
@@ -2319,7 +2336,7 @@ _sk_load_tables_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,124 // jne 24fa <_sk_load_tables_skx+0x86>
+ .byte 117,124 // jne 2516 <_sk_load_tables_skx+0x86>
.byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
.byte 65,184,17,17,17,17 // mov $0x11111111,%r8d
.byte 196,193,123,146,200 // kmovd %r8d,%k1
@@ -2342,7 +2359,7 @@ _sk_load_tables_skx:
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,46,127,3,0 // vmulps 0x37f2e(%rip){1to8},%ymm3,%ymm3 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,100,56,89,29,182,148,3,0 // vmulps 0x394b6(%rip){1to8},%ymm3,%ymm3 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -2350,14 +2367,14 @@ _sk_load_tables_skx:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,113,255,255,255 // ja 2484 <_sk_load_tables_skx+0x10>
+ .byte 15,135,113,255,255,255 // ja 24a0 <_sk_load_tables_skx+0x10>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 25ac <_sk_load_tables_skx+0x138>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 25c8 <_sk_load_tables_skx+0x138>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,81,255,255,255 // jmpq 2484 <_sk_load_tables_skx+0x10>
+ .byte 233,81,255,255,255 // jmpq 24a0 <_sk_load_tables_skx+0x10>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 65,177,4 // mov $0x4,%r9b
.byte 196,193,123,146,201 // kmovd %r9d,%k1
@@ -2365,7 +2382,7 @@ _sk_load_tables_skx:
.byte 196,194,121,53,4,144 // vpmovzxdq (%r8,%rdx,4),%xmm0
.byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,38,255,255,255 // jmpq 2484 <_sk_load_tables_skx+0x10>
+ .byte 233,38,255,255,255 // jmpq 24a0 <_sk_load_tables_skx+0x10>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 65,177,64 // mov $0x40,%r9b
.byte 196,193,123,146,201 // kmovd %r9d,%k1
@@ -2378,8 +2395,8 @@ _sk_load_tables_skx:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,216,254,255,255 // jmpq 2484 <_sk_load_tables_skx+0x10>
- .byte 124,255 // jl 25ad <_sk_load_tables_skx+0x139>
+ .byte 233,216,254,255,255 // jmpq 24a0 <_sk_load_tables_skx+0x10>
+ .byte 124,255 // jl 25c9 <_sk_load_tables_skx+0x139>
.byte 255 // (bad)
.byte 255,156,255,255,255,135,255 // lcall *-0x780001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -2406,7 +2423,7 @@ _sk_load_tables_u16_be_skx:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,210,0,0,0 // jne 26b0 <_sk_load_tables_u16_be_skx+0xe8>
+ .byte 15,133,210,0,0,0 // jne 26cc <_sk_load_tables_u16_be_skx+0xe8>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -2421,7 +2438,7 @@ _sk_load_tables_u16_be_skx:
.byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
- .byte 197,121,111,21,37,135,3,0 // vmovdqa 0x38725(%rip),%xmm10 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,121,111,21,169,156,3,0 // vmovdqa 0x39ca9(%rip),%xmm10 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,193,113,219,194 // vpand %xmm10,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 76,139,64,8 // mov 0x8(%rax),%r8
@@ -2447,35 +2464,35 @@ _sk_load_tables_u16_be_skx:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,148,125,3,0 // vmulps 0x37d94(%rip){1to8},%ymm3,%ymm3 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 98,241,100,56,89,29,28,147,3,0 // vmulps 0x3931c(%rip){1to8},%ymm3,%ymm3 # 3b9e4 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 2716 <_sk_load_tables_u16_be_skx+0x14e>
+ .byte 116,85 // je 2732 <_sk_load_tables_u16_be_skx+0x14e>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 2716 <_sk_load_tables_u16_be_skx+0x14e>
+ .byte 114,72 // jb 2732 <_sk_load_tables_u16_be_skx+0x14e>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 2723 <_sk_load_tables_u16_be_skx+0x15b>
+ .byte 116,72 // je 273f <_sk_load_tables_u16_be_skx+0x15b>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 2723 <_sk_load_tables_u16_be_skx+0x15b>
+ .byte 114,59 // jb 273f <_sk_load_tables_u16_be_skx+0x15b>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,0,255,255,255 // je 25f9 <_sk_load_tables_u16_be_skx+0x31>
+ .byte 15,132,0,255,255,255 // je 2615 <_sk_load_tables_u16_be_skx+0x31>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,239,254,255,255 // jb 25f9 <_sk_load_tables_u16_be_skx+0x31>
+ .byte 15,130,239,254,255,255 // jb 2615 <_sk_load_tables_u16_be_skx+0x31>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,227,254,255,255 // jmpq 25f9 <_sk_load_tables_u16_be_skx+0x31>
+ .byte 233,227,254,255,255 // jmpq 2615 <_sk_load_tables_u16_be_skx+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,214,254,255,255 // jmpq 25f9 <_sk_load_tables_u16_be_skx+0x31>
+ .byte 233,214,254,255,255 // jmpq 2615 <_sk_load_tables_u16_be_skx+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,205,254,255,255 // jmpq 25f9 <_sk_load_tables_u16_be_skx+0x31>
+ .byte 233,205,254,255,255 // jmpq 2615 <_sk_load_tables_u16_be_skx+0x31>
HIDDEN _sk_load_tables_rgb_u16_be_skx
.globl _sk_load_tables_rgb_u16_be_skx
@@ -2485,7 +2502,7 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,203,0,0,0 // jne 2809 <_sk_load_tables_rgb_u16_be_skx+0xdd>
+ .byte 15,133,203,0,0,0 // jne 2825 <_sk_load_tables_rgb_u16_be_skx+0xdd>
.byte 196,1,121,16,28,72 // vmovupd (%r8,%r9,2),%xmm11
.byte 196,129,121,16,92,72,12 // vmovupd 0xc(%r8,%r9,2),%xmm3
.byte 196,129,121,16,84,72,24 // vmovupd 0x18(%r8,%r9,2),%xmm2
@@ -2504,7 +2521,7 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 197,249,105,193 // vpunpckhwd %xmm1,%xmm0,%xmm0
.byte 197,105,108,200 // vpunpcklqdq %xmm0,%xmm2,%xmm9
.byte 197,185,108,195 // vpunpcklqdq %xmm3,%xmm8,%xmm0
- .byte 197,121,111,21,174,133,3,0 // vmovdqa 0x385ae(%rip),%xmm10 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,121,111,21,50,155,3,0 // vmovdqa 0x39b32(%rip),%xmm10 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,193,121,219,194 // vpand %xmm10,%xmm0,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 76,139,64,8 // mov 0x8(%rax),%r8
@@ -2525,69 +2542,69 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 196,226,29,146,20,152 // vgatherdps %ymm12,(%rax,%ymm3,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,165,123,3,0 // vbroadcastss 0x37ba5(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,45,145,3,0 // vbroadcastss 0x3912d(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 2841 <_sk_load_tables_rgb_u16_be_skx+0x115>
+ .byte 117,31 // jne 285d <_sk_load_tables_rgb_u16_be_skx+0x115>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,47,255,255,255 // jmpq 2770 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,47,255,255,255 // jmpq 278c <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 288b <_sk_load_tables_rgb_u16_be_skx+0x15f>
+ .byte 114,48 // jb 28a7 <_sk_load_tables_rgb_u16_be_skx+0x15f>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 28a5 <_sk_load_tables_rgb_u16_be_skx+0x179>
+ .byte 117,48 // jne 28c1 <_sk_load_tables_rgb_u16_be_skx+0x179>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,229,254,255,255 // jmpq 2770 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,229,254,255,255 // jmpq 278c <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,203,254,255,255 // jmpq 2770 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,203,254,255,255 // jmpq 278c <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 28e6 <_sk_load_tables_rgb_u16_be_skx+0x1ba>
+ .byte 114,39 // jb 2902 <_sk_load_tables_rgb_u16_be_skx+0x1ba>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 28f7 <_sk_load_tables_rgb_u16_be_skx+0x1cb>
+ .byte 117,30 // jne 2913 <_sk_load_tables_rgb_u16_be_skx+0x1cb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,138,254,255,255 // jmpq 2770 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,138,254,255,255 // jmpq 278c <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,121,254,255,255 // jmpq 2770 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,121,254,255,255 // jmpq 278c <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 292a <_sk_load_tables_rgb_u16_be_skx+0x1fe>
+ .byte 114,25 // jb 2946 <_sk_load_tables_rgb_u16_be_skx+0x1fe>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,70,254,255,255 // jmpq 2770 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,70,254,255,255 // jmpq 278c <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,61,254,255,255 // jmpq 2770 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,61,254,255,255 // jmpq 278c <_sk_load_tables_rgb_u16_be_skx+0x44>
HIDDEN _sk_byte_tables_skx
.globl _sk_byte_tables_skx
@@ -2596,9 +2613,9 @@ _sk_byte_tables_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,29,101,122,3,0 // vbroadcastss 0x37a65(%rip),%ymm11 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,237,143,3,0 // vbroadcastss 0x38fed(%rip),%ymm11 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,211 // vminps %ymm11,%ymm9,%ymm10
- .byte 196,98,125,24,13,131,122,3,0 // vbroadcastss 0x37a83(%rip),%ymm9 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,11,144,3,0 // vbroadcastss 0x3900b(%rip),%ymm9 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,44,89,209 // vmulps %ymm9,%ymm10,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,65,249,126,208 // vmovq %xmm10,%r8
@@ -2734,7 +2751,7 @@ _sk_byte_tables_skx:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,57,120,3,0 // vbroadcastss 0x37839(%rip),%ymm8 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,193,141,3,0 // vbroadcastss 0x38dc1(%rip),%ymm8 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -2760,7 +2777,7 @@ _sk_byte_tables_rgb_skx:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,52,95,208 // vmaxps %ymm0,%ymm9,%ymm10
- .byte 196,98,125,24,29,97,119,3,0 // vbroadcastss 0x37761(%rip),%ymm11 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,233,140,3,0 // vbroadcastss 0x38ce9(%rip),%ymm11 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,44,93,211 // vminps %ymm11,%ymm10,%ymm10
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
@@ -2863,7 +2880,7 @@ _sk_byte_tables_rgb_skx:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,229,117,3,0 // vbroadcastss 0x375e5(%rip),%ymm8 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,109,139,3,0 // vbroadcastss 0x38b6d(%rip),%ymm8 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -2887,7 +2904,7 @@ _sk_table_r_skx:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,25,117,3,0 // vminps 0x37519(%rip){1to8},%ymm0,%ymm0 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,161,138,3,0 // vminps 0x38aa1(%rip){1to8},%ymm0,%ymm0 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
@@ -2908,7 +2925,7 @@ _sk_table_g_skx:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 98,241,116,56,93,13,212,116,3,0 // vminps 0x374d4(%rip){1to8},%ymm1,%ymm1 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,93,13,92,138,3,0 // vminps 0x38a5c(%rip){1to8},%ymm1,%ymm1 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
@@ -2929,7 +2946,7 @@ _sk_table_b_skx:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 98,241,108,56,93,21,143,116,3,0 // vminps 0x3748f(%rip){1to8},%ymm2,%ymm2 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,108,56,93,21,23,138,3,0 // vminps 0x38a17(%rip){1to8},%ymm2,%ymm2 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
@@ -2950,7 +2967,7 @@ _sk_table_a_skx:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
- .byte 98,241,100,56,93,29,74,116,3,0 // vminps 0x3744a(%rip){1to8},%ymm3,%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,100,56,93,29,210,137,3,0 // vminps 0x389d2(%rip){1to8},%ymm3,%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
@@ -2975,33 +2992,33 @@ _sk_parametric_r_skx:
.byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
.byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
.byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,119,116,3,0 // vbroadcastss 0x37477(%rip),%ymm14 # 3a444 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,117,116,3,0 // vfmadd213ps 0x37475(%rip){1to8},%ymm13,%ymm14 # 3a44c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,103,116,3,0 // vandps 0x37467(%rip){1to8},%ymm10,%ymm10 # 3a448 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,189,115,3,0 // vorps 0x373bd(%rip){1to8},%ymm10,%ymm10 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,91,116,3,0 // vfnmadd231ps 0x3745b(%rip){1to8},%ymm10,%ymm14 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,85,116,3,0 // vaddps 0x37455(%rip){1to8},%ymm10,%ymm10 # 3a454 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,80,116,3,0 // vbroadcastss 0x37450(%rip),%ymm13 # 3a458 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,255,137,3,0 // vbroadcastss 0x389ff(%rip),%ymm14 # 3b9e8 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,21,56,168,53,253,137,3,0 // vfmadd213ps 0x389fd(%rip){1to8},%ymm13,%ymm14 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,239,137,3,0 // vandps 0x389ef(%rip){1to8},%ymm10,%ymm10 # 3b9ec <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,69,137,3,0 // vorps 0x38945(%rip){1to8},%ymm10,%ymm10 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,53,227,137,3,0 // vfnmadd231ps 0x389e3(%rip){1to8},%ymm10,%ymm14 # 3b9f4 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,221,137,3,0 // vaddps 0x389dd(%rip){1to8},%ymm10,%ymm10 # 3b9f8 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,216,137,3,0 // vbroadcastss 0x389d8(%rip),%ymm13 # 3b9fc <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,241,124,56,88,5,48,116,3,0 // vaddps 0x37430(%rip){1to8},%ymm0,%ymm0 # 3a45c <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,5,42,116,3,0 // vfnmadd231ps 0x3742a(%rip){1to8},%ymm10,%ymm0 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,37,116,3,0 // vbroadcastss 0x37425(%rip),%ymm13 # 3a464 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,124,56,88,5,184,137,3,0 // vaddps 0x389b8(%rip){1to8},%ymm0,%ymm0 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,5,178,137,3,0 // vfnmadd231ps 0x389b2(%rip){1to8},%ymm10,%ymm0 # 3ba04 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,173,137,3,0 // vbroadcastss 0x389ad(%rip),%ymm13 # 3ba08 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,27,116,3,0 // vbroadcastss 0x3741b(%rip),%ymm13 # 3a468 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,163,137,3,0 // vbroadcastss 0x389a3(%rip),%ymm13 # 3ba0c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 98,241,124,56,89,5,11,116,3,0 // vmulps 0x3740b(%rip){1to8},%ymm0,%ymm0 # 3a46c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,124,56,89,5,147,137,3,0 // vmulps 0x38993(%rip){1to8},%ymm0,%ymm0 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,195,125,74,195,192 // vblendvps %ymm12,%ymm11,%ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,193,124,95,195 // vmaxps %ymm11,%ymm0,%ymm0
- .byte 98,241,124,56,93,5,33,115,3,0 // vminps 0x37321(%rip){1to8},%ymm0,%ymm0 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,169,136,3,0 // vminps 0x388a9(%rip){1to8},%ymm0,%ymm0 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3021,33 +3038,33 @@ _sk_parametric_g_skx:
.byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
.byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
.byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,102,115,3,0 // vbroadcastss 0x37366(%rip),%ymm14 # 3a444 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,100,115,3,0 // vfmadd213ps 0x37364(%rip){1to8},%ymm13,%ymm14 # 3a44c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,86,115,3,0 // vandps 0x37356(%rip){1to8},%ymm10,%ymm10 # 3a448 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,172,114,3,0 // vorps 0x372ac(%rip){1to8},%ymm10,%ymm10 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,74,115,3,0 // vfnmadd231ps 0x3734a(%rip){1to8},%ymm10,%ymm14 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,68,115,3,0 // vaddps 0x37344(%rip){1to8},%ymm10,%ymm10 # 3a454 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,63,115,3,0 // vbroadcastss 0x3733f(%rip),%ymm13 # 3a458 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,238,136,3,0 // vbroadcastss 0x388ee(%rip),%ymm14 # 3b9e8 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,21,56,168,53,236,136,3,0 // vfmadd213ps 0x388ec(%rip){1to8},%ymm13,%ymm14 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,222,136,3,0 // vandps 0x388de(%rip){1to8},%ymm10,%ymm10 # 3b9ec <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,52,136,3,0 // vorps 0x38834(%rip){1to8},%ymm10,%ymm10 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,53,210,136,3,0 // vfnmadd231ps 0x388d2(%rip){1to8},%ymm10,%ymm14 # 3b9f4 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,204,136,3,0 // vaddps 0x388cc(%rip){1to8},%ymm10,%ymm10 # 3b9f8 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,199,136,3,0 // vbroadcastss 0x388c7(%rip),%ymm13 # 3b9fc <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 98,241,116,56,88,13,31,115,3,0 // vaddps 0x3731f(%rip){1to8},%ymm1,%ymm1 # 3a45c <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,13,25,115,3,0 // vfnmadd231ps 0x37319(%rip){1to8},%ymm10,%ymm1 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,20,115,3,0 // vbroadcastss 0x37314(%rip),%ymm13 # 3a464 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,116,56,88,13,167,136,3,0 // vaddps 0x388a7(%rip){1to8},%ymm1,%ymm1 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,13,161,136,3,0 // vfnmadd231ps 0x388a1(%rip){1to8},%ymm10,%ymm1 # 3ba04 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,156,136,3,0 // vbroadcastss 0x3889c(%rip),%ymm13 # 3ba08 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,10,115,3,0 // vbroadcastss 0x3730a(%rip),%ymm13 # 3a468 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,146,136,3,0 // vbroadcastss 0x38892(%rip),%ymm13 # 3ba0c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 98,241,116,56,89,13,250,114,3,0 // vmulps 0x372fa(%rip){1to8},%ymm1,%ymm1 # 3a46c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,116,56,89,13,130,136,3,0 // vmulps 0x38882(%rip){1to8},%ymm1,%ymm1 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,193,116,95,203 // vmaxps %ymm11,%ymm1,%ymm1
- .byte 98,241,116,56,93,13,16,114,3,0 // vminps 0x37210(%rip){1to8},%ymm1,%ymm1 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,93,13,152,135,3,0 // vminps 0x38798(%rip){1to8},%ymm1,%ymm1 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3067,33 +3084,33 @@ _sk_parametric_b_skx:
.byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
.byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
.byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,85,114,3,0 // vbroadcastss 0x37255(%rip),%ymm14 # 3a444 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,83,114,3,0 // vfmadd213ps 0x37253(%rip){1to8},%ymm13,%ymm14 # 3a44c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,69,114,3,0 // vandps 0x37245(%rip){1to8},%ymm10,%ymm10 # 3a448 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,155,113,3,0 // vorps 0x3719b(%rip){1to8},%ymm10,%ymm10 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,57,114,3,0 // vfnmadd231ps 0x37239(%rip){1to8},%ymm10,%ymm14 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,51,114,3,0 // vaddps 0x37233(%rip){1to8},%ymm10,%ymm10 # 3a454 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,46,114,3,0 // vbroadcastss 0x3722e(%rip),%ymm13 # 3a458 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,221,135,3,0 // vbroadcastss 0x387dd(%rip),%ymm14 # 3b9e8 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,21,56,168,53,219,135,3,0 // vfmadd213ps 0x387db(%rip){1to8},%ymm13,%ymm14 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,205,135,3,0 // vandps 0x387cd(%rip){1to8},%ymm10,%ymm10 # 3b9ec <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,35,135,3,0 // vorps 0x38723(%rip){1to8},%ymm10,%ymm10 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,53,193,135,3,0 // vfnmadd231ps 0x387c1(%rip){1to8},%ymm10,%ymm14 # 3b9f4 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,187,135,3,0 // vaddps 0x387bb(%rip){1to8},%ymm10,%ymm10 # 3b9f8 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,182,135,3,0 // vbroadcastss 0x387b6(%rip),%ymm13 # 3b9fc <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 98,241,108,56,88,21,14,114,3,0 // vaddps 0x3720e(%rip){1to8},%ymm2,%ymm2 # 3a45c <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,21,8,114,3,0 // vfnmadd231ps 0x37208(%rip){1to8},%ymm10,%ymm2 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,3,114,3,0 // vbroadcastss 0x37203(%rip),%ymm13 # 3a464 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,108,56,88,21,150,135,3,0 // vaddps 0x38796(%rip){1to8},%ymm2,%ymm2 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,21,144,135,3,0 // vfnmadd231ps 0x38790(%rip){1to8},%ymm10,%ymm2 # 3ba04 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,139,135,3,0 // vbroadcastss 0x3878b(%rip),%ymm13 # 3ba08 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,249,113,3,0 // vbroadcastss 0x371f9(%rip),%ymm13 # 3a468 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,129,135,3,0 // vbroadcastss 0x38781(%rip),%ymm13 # 3ba0c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 98,241,108,56,89,21,233,113,3,0 // vmulps 0x371e9(%rip){1to8},%ymm2,%ymm2 # 3a46c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,108,56,89,21,113,135,3,0 // vmulps 0x38771(%rip){1to8},%ymm2,%ymm2 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,195,109,74,211,192 // vblendvps %ymm12,%ymm11,%ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,211 // vmaxps %ymm11,%ymm2,%ymm2
- .byte 98,241,108,56,93,21,255,112,3,0 // vminps 0x370ff(%rip){1to8},%ymm2,%ymm2 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,108,56,93,21,135,134,3,0 // vminps 0x38687(%rip){1to8},%ymm2,%ymm2 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3113,33 +3130,33 @@ _sk_parametric_a_skx:
.byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
.byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
.byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,68,113,3,0 // vbroadcastss 0x37144(%rip),%ymm14 # 3a444 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,66,113,3,0 // vfmadd213ps 0x37142(%rip){1to8},%ymm13,%ymm14 # 3a44c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,52,113,3,0 // vandps 0x37134(%rip){1to8},%ymm10,%ymm10 # 3a448 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,138,112,3,0 // vorps 0x3708a(%rip){1to8},%ymm10,%ymm10 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,40,113,3,0 // vfnmadd231ps 0x37128(%rip){1to8},%ymm10,%ymm14 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,34,113,3,0 // vaddps 0x37122(%rip){1to8},%ymm10,%ymm10 # 3a454 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,29,113,3,0 // vbroadcastss 0x3711d(%rip),%ymm13 # 3a458 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,204,134,3,0 // vbroadcastss 0x386cc(%rip),%ymm14 # 3b9e8 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,21,56,168,53,202,134,3,0 // vfmadd213ps 0x386ca(%rip){1to8},%ymm13,%ymm14 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,188,134,3,0 // vandps 0x386bc(%rip){1to8},%ymm10,%ymm10 # 3b9ec <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,18,134,3,0 // vorps 0x38612(%rip){1to8},%ymm10,%ymm10 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,53,176,134,3,0 // vfnmadd231ps 0x386b0(%rip){1to8},%ymm10,%ymm14 # 3b9f4 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,170,134,3,0 // vaddps 0x386aa(%rip){1to8},%ymm10,%ymm10 # 3b9f8 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,165,134,3,0 // vbroadcastss 0x386a5(%rip),%ymm13 # 3b9fc <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 98,241,100,56,88,29,253,112,3,0 // vaddps 0x370fd(%rip){1to8},%ymm3,%ymm3 # 3a45c <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,29,247,112,3,0 // vfnmadd231ps 0x370f7(%rip){1to8},%ymm10,%ymm3 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,242,112,3,0 // vbroadcastss 0x370f2(%rip),%ymm13 # 3a464 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,100,56,88,29,133,134,3,0 // vaddps 0x38685(%rip){1to8},%ymm3,%ymm3 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,29,127,134,3,0 // vfnmadd231ps 0x3867f(%rip){1to8},%ymm10,%ymm3 # 3ba04 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,122,134,3,0 // vbroadcastss 0x3867a(%rip),%ymm13 # 3ba08 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,232,112,3,0 // vbroadcastss 0x370e8(%rip),%ymm13 # 3a468 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,112,134,3,0 // vbroadcastss 0x38670(%rip),%ymm13 # 3ba0c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 98,241,100,56,89,29,216,112,3,0 // vmulps 0x370d8(%rip){1to8},%ymm3,%ymm3 # 3a46c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,100,56,89,29,96,134,3,0 // vmulps 0x38660(%rip){1to8},%ymm3,%ymm3 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,195,101,74,219,192 // vblendvps %ymm12,%ymm11,%ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,193,100,95,219 // vmaxps %ymm11,%ymm3,%ymm3
- .byte 98,241,100,56,93,29,238,111,3,0 // vminps 0x36fee(%rip){1to8},%ymm3,%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,100,56,93,29,118,133,3,0 // vminps 0x38576(%rip){1to8},%ymm3,%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3153,34 +3170,34 @@ _sk_gamma_skx:
.byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
.byte 98,241,124,40,194,199,0 // vcmpeqps %ymm7,%ymm0,%k0
.byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 196,98,125,24,29,92,112,3,0 // vbroadcastss 0x3705c(%rip),%ymm11 # 3a444 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,37,87,112,3,0 // vbroadcastss 0x37057(%rip),%ymm12 # 3a448 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,29,228,133,3,0 // vbroadcastss 0x385e4(%rip),%ymm11 # 3b9e8 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,37,223,133,3,0 // vbroadcastss 0x385df(%rip),%ymm12 # 3b9ec <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,193,124,84,196 // vandps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,45,169,111,3,0 // vbroadcastss 0x36fa9(%rip),%ymm13 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,45,49,133,3,0 // vbroadcastss 0x38531(%rip),%ymm13 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,124,86,197 // vorps %ymm13,%ymm0,%ymm0
- .byte 196,98,125,24,53,63,112,3,0 // vbroadcastss 0x3703f(%rip),%ymm14 # 3a44c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,199,133,3,0 // vbroadcastss 0x385c7(%rip),%ymm14 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm10
- .byte 196,98,125,24,61,53,112,3,0 // vbroadcastss 0x37035(%rip),%ymm15 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,61,189,133,3,0 // vbroadcastss 0x385bd(%rip),%ymm15 # 3b9f4 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,125,188,215 // vfnmadd231ps %ymm15,%ymm0,%ymm10
- .byte 98,226,125,40,24,5,42,112,3,0 // vbroadcastss 0x3702a(%rip),%ymm16 # 3a454 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 98,226,125,40,24,5,178,133,3,0 // vbroadcastss 0x385b2(%rip),%ymm16 # 3b9f8 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 98,177,124,40,88,192 // vaddps %ymm16,%ymm0,%ymm0
- .byte 98,226,125,40,24,13,30,112,3,0 // vbroadcastss 0x3701e(%rip),%ymm17 # 3a458 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 98,226,125,40,24,13,166,133,3,0 // vbroadcastss 0x385a6(%rip),%ymm17 # 3b9fc <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 98,241,116,32,94,192 // vdivps %ymm0,%ymm17,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
.byte 98,177,124,40,89,194 // vmulps %ymm18,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,226,125,40,24,29,247,111,3,0 // vbroadcastss 0x36ff7(%rip),%ymm19 # 3a45c <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,226,125,40,24,29,127,133,3,0 // vbroadcastss 0x3857f(%rip),%ymm19 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 98,177,124,40,88,195 // vaddps %ymm19,%ymm0,%ymm0
- .byte 98,226,125,40,24,37,235,111,3,0 // vbroadcastss 0x36feb(%rip),%ymm20 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 98,226,125,40,24,37,115,133,3,0 // vbroadcastss 0x38573(%rip),%ymm20 # 3ba04 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 98,178,45,40,188,196 // vfnmadd231ps %ymm20,%ymm10,%ymm0
- .byte 98,226,125,40,24,45,223,111,3,0 // vbroadcastss 0x36fdf(%rip),%ymm21 # 3a464 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,226,125,40,24,45,103,133,3,0 // vbroadcastss 0x38567(%rip),%ymm21 # 3ba08 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 98,81,84,32,92,210 // vsubps %ymm10,%ymm21,%ymm10
- .byte 98,226,125,40,24,53,211,111,3,0 // vbroadcastss 0x36fd3(%rip),%ymm22 # 3a468 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 98,226,125,40,24,53,91,133,3,0 // vbroadcastss 0x3855b(%rip),%ymm22 # 3ba0c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 98,81,76,32,94,210 // vdivps %ymm10,%ymm22,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,195,111,3,0 // vbroadcastss 0x36fc3(%rip),%ymm10 # 3a46c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,21,75,133,3,0 // vbroadcastss 0x3854b(%rip),%ymm10 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,227,125,74,199,144 // vblendvps %ymm9,%ymm7,%ymm0,%ymm0
@@ -3240,34 +3257,34 @@ _sk_gamma_dst_skx:
.byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
.byte 98,241,92,40,194,199,0 // vcmpeqps %ymm7,%ymm4,%k0
.byte 197,124,91,212 // vcvtdq2ps %ymm4,%ymm10
- .byte 196,98,125,24,29,114,110,3,0 // vbroadcastss 0x36e72(%rip),%ymm11 # 3a444 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,37,109,110,3,0 // vbroadcastss 0x36e6d(%rip),%ymm12 # 3a448 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,29,250,131,3,0 // vbroadcastss 0x383fa(%rip),%ymm11 # 3b9e8 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,37,245,131,3,0 // vbroadcastss 0x383f5(%rip),%ymm12 # 3b9ec <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,193,92,84,228 // vandps %ymm12,%ymm4,%ymm4
- .byte 196,98,125,24,45,191,109,3,0 // vbroadcastss 0x36dbf(%rip),%ymm13 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,45,71,131,3,0 // vbroadcastss 0x38347(%rip),%ymm13 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,92,86,229 // vorps %ymm13,%ymm4,%ymm4
- .byte 196,98,125,24,53,85,110,3,0 // vbroadcastss 0x36e55(%rip),%ymm14 # 3a44c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,221,131,3,0 // vbroadcastss 0x383dd(%rip),%ymm14 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm10
- .byte 196,98,125,24,61,75,110,3,0 // vbroadcastss 0x36e4b(%rip),%ymm15 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,61,211,131,3,0 // vbroadcastss 0x383d3(%rip),%ymm15 # 3b9f4 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,93,188,215 // vfnmadd231ps %ymm15,%ymm4,%ymm10
- .byte 98,226,125,40,24,5,64,110,3,0 // vbroadcastss 0x36e40(%rip),%ymm16 # 3a454 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 98,226,125,40,24,5,200,131,3,0 // vbroadcastss 0x383c8(%rip),%ymm16 # 3b9f8 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 98,177,92,40,88,224 // vaddps %ymm16,%ymm4,%ymm4
- .byte 98,226,125,40,24,13,52,110,3,0 // vbroadcastss 0x36e34(%rip),%ymm17 # 3a458 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 98,226,125,40,24,13,188,131,3,0 // vbroadcastss 0x383bc(%rip),%ymm17 # 3b9fc <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 98,241,116,32,94,228 // vdivps %ymm4,%ymm17,%ymm4
.byte 197,172,92,228 // vsubps %ymm4,%ymm10,%ymm4
.byte 98,177,92,40,89,226 // vmulps %ymm18,%ymm4,%ymm4
.byte 196,99,125,8,212,1 // vroundps $0x1,%ymm4,%ymm10
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
.byte 196,65,92,92,210 // vsubps %ymm10,%ymm4,%ymm10
- .byte 98,226,125,40,24,29,13,110,3,0 // vbroadcastss 0x36e0d(%rip),%ymm19 # 3a45c <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,226,125,40,24,29,149,131,3,0 // vbroadcastss 0x38395(%rip),%ymm19 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 98,177,92,40,88,227 // vaddps %ymm19,%ymm4,%ymm4
- .byte 98,226,125,40,24,37,1,110,3,0 // vbroadcastss 0x36e01(%rip),%ymm20 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 98,226,125,40,24,37,137,131,3,0 // vbroadcastss 0x38389(%rip),%ymm20 # 3ba04 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 98,178,45,40,188,228 // vfnmadd231ps %ymm20,%ymm10,%ymm4
- .byte 98,226,125,40,24,45,245,109,3,0 // vbroadcastss 0x36df5(%rip),%ymm21 # 3a464 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,226,125,40,24,45,125,131,3,0 // vbroadcastss 0x3837d(%rip),%ymm21 # 3ba08 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 98,81,84,32,92,210 // vsubps %ymm10,%ymm21,%ymm10
- .byte 98,226,125,40,24,53,233,109,3,0 // vbroadcastss 0x36de9(%rip),%ymm22 # 3a468 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 98,226,125,40,24,53,113,131,3,0 // vbroadcastss 0x38371(%rip),%ymm22 # 3ba0c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 98,81,76,32,94,210 // vdivps %ymm10,%ymm22,%ymm10
.byte 196,193,92,88,226 // vaddps %ymm10,%ymm4,%ymm4
- .byte 196,98,125,24,21,217,109,3,0 // vbroadcastss 0x36dd9(%rip),%ymm10 # 3a46c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,21,97,131,3,0 // vbroadcastss 0x38361(%rip),%ymm10 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,193,92,89,226 // vmulps %ymm10,%ymm4,%ymm4
.byte 197,253,91,228 // vcvtps2dq %ymm4,%ymm4
.byte 196,227,93,74,231,144 // vblendvps %ymm9,%ymm7,%ymm4,%ymm4
@@ -3321,23 +3338,23 @@ HIDDEN _sk_lab_to_xyz_skx
.globl _sk_lab_to_xyz_skx
FUNCTION(_sk_lab_to_xyz_skx)
_sk_lab_to_xyz_skx:
- .byte 196,98,125,24,5,209,108,3,0 // vbroadcastss 0x36cd1(%rip),%ymm8 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0x374>
- .byte 196,98,125,24,13,48,108,3,0 // vbroadcastss 0x36c30(%rip),%ymm9 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,125,24,21,195,108,3,0 // vbroadcastss 0x36cc3(%rip),%ymm10 # 3a474 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
+ .byte 196,98,125,24,5,89,130,3,0 // vbroadcastss 0x38259(%rip),%ymm8 # 3ba14 <_sk_srcover_bgra_8888_sse2_lowp+0x374>
+ .byte 196,98,125,24,13,184,129,3,0 // vbroadcastss 0x381b8(%rip),%ymm9 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,75,130,3,0 // vbroadcastss 0x3824b(%rip),%ymm10 # 3ba18 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 98,114,125,56,168,5,179,108,3,0 // vfmadd213ps 0x36cb3(%rip){1to8},%ymm0,%ymm8 # 3a478 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
- .byte 98,241,60,56,89,5,173,108,3,0 // vmulps 0x36cad(%rip){1to8},%ymm8,%ymm0 # 3a47c <_sk_srcover_bgra_8888_sse2_lowp+0x380>
- .byte 98,242,125,56,152,13,167,108,3,0 // vfmadd132ps 0x36ca7(%rip){1to8},%ymm0,%ymm1 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0x384>
- .byte 98,242,125,56,156,21,161,108,3,0 // vfnmadd132ps 0x36ca1(%rip){1to8},%ymm0,%ymm2 # 3a484 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
+ .byte 98,114,125,56,168,5,59,130,3,0 // vfmadd213ps 0x3823b(%rip){1to8},%ymm0,%ymm8 # 3ba1c <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
+ .byte 98,241,60,56,89,5,53,130,3,0 // vmulps 0x38235(%rip){1to8},%ymm8,%ymm0 # 3ba20 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
+ .byte 98,242,125,56,152,13,47,130,3,0 // vfmadd132ps 0x3822f(%rip){1to8},%ymm0,%ymm1 # 3ba24 <_sk_srcover_bgra_8888_sse2_lowp+0x384>
+ .byte 98,242,125,56,156,21,41,130,3,0 // vfnmadd132ps 0x38229(%rip){1to8},%ymm0,%ymm2 # 3ba28 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,147,108,3,0 // vbroadcastss 0x36c93(%rip),%ymm9 # 3a488 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
+ .byte 196,98,125,24,13,27,130,3,0 // vbroadcastss 0x3821b(%rip),%ymm9 # 3ba2c <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
.byte 98,209,52,40,194,192,1 // vcmpltps %ymm8,%ymm9,%k0
.byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
- .byte 196,98,125,24,29,129,108,3,0 // vbroadcastss 0x36c81(%rip),%ymm11 # 3a48c <_sk_srcover_bgra_8888_sse2_lowp+0x390>
+ .byte 196,98,125,24,29,9,130,3,0 // vbroadcastss 0x38209(%rip),%ymm11 # 3ba30 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,119,108,3,0 // vbroadcastss 0x36c77(%rip),%ymm12 # 3a490 <_sk_srcover_bgra_8888_sse2_lowp+0x394>
+ .byte 196,98,125,24,37,255,129,3,0 // vbroadcastss 0x381ff(%rip),%ymm12 # 3ba34 <_sk_srcover_bgra_8888_sse2_lowp+0x394>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -3354,8 +3371,8 @@ _sk_lab_to_xyz_skx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 98,241,60,56,89,5,28,108,3,0 // vmulps 0x36c1c(%rip){1to8},%ymm8,%ymm0 # 3a494 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
- .byte 98,241,108,56,89,21,22,108,3,0 // vmulps 0x36c16(%rip){1to8},%ymm2,%ymm2 # 3a498 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
+ .byte 98,241,60,56,89,5,164,129,3,0 // vmulps 0x381a4(%rip){1to8},%ymm8,%ymm0 # 3ba38 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
+ .byte 98,241,108,56,89,21,158,129,3,0 // vmulps 0x3819e(%rip){1to8},%ymm2,%ymm2 # 3ba3c <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3368,12 +3385,12 @@ _sk_load_a8_skx:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 38c9 <_sk_load_a8_skx+0x43>
+ .byte 117,49 // jne 38e5 <_sk_load_a8_skx+0x43>
.byte 196,194,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm0
- .byte 197,249,219,5,170,116,3,0 // vpand 0x374aa(%rip),%xmm0,%xmm0 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,249,219,5,46,138,3,0 // vpand 0x38a2e(%rip),%xmm0,%xmm0 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,29,107,107,3,0 // vmulps 0x36b6b(%rip){1to8},%ymm0,%ymm3 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,29,243,128,3,0 // vmulps 0x380f3(%rip){1to8},%ymm0,%ymm3 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -3384,15 +3401,15 @@ _sk_load_a8_skx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 119,199 // ja 389e <_sk_load_a8_skx+0x18>
+ .byte 119,199 // ja 38ba <_sk_load_a8_skx+0x18>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 3964 <_sk_load_a8_skx+0xde>
+ .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 3980 <_sk_load_a8_skx+0xde>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,169 // jmp 389e <_sk_load_a8_skx+0x18>
+ .byte 235,169 // jmp 38ba <_sk_load_a8_skx+0x18>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -3400,7 +3417,7 @@ _sk_load_a8_skx:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,130 // jmp 389e <_sk_load_a8_skx+0x18>
+ .byte 235,130 // jmp 38ba <_sk_load_a8_skx+0x18>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -3413,7 +3430,7 @@ _sk_load_a8_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,61,255,255,255 // jmpq 389e <_sk_load_a8_skx+0x18>
+ .byte 233,61,255,255,255 // jmpq 38ba <_sk_load_a8_skx+0x18>
.byte 15,31,0 // nopl (%rax)
.byte 134,255 // xchg %bh,%bh
.byte 255 // (bad)
@@ -3444,12 +3461,12 @@ _sk_load_a8_dst_skx:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 39c3 <_sk_load_a8_dst_skx+0x43>
+ .byte 117,49 // jne 39df <_sk_load_a8_dst_skx+0x43>
.byte 196,194,121,48,36,16 // vpmovzxbw (%r8,%rdx,1),%xmm4
- .byte 197,217,219,37,176,115,3,0 // vpand 0x373b0(%rip),%xmm4,%xmm4 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,217,219,37,52,137,3,0 // vpand 0x38934(%rip),%xmm4,%xmm4 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,61,113,106,3,0 // vmulps 0x36a71(%rip){1to8},%ymm4,%ymm7 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,92,56,89,61,249,127,3,0 // vmulps 0x37ff9(%rip){1to8},%ymm4,%ymm7 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -3460,15 +3477,15 @@ _sk_load_a8_dst_skx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 119,199 // ja 3998 <_sk_load_a8_dst_skx+0x18>
+ .byte 119,199 // ja 39b4 <_sk_load_a8_dst_skx+0x18>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,129,0,0,0 // lea 0x81(%rip),%r9 # 3a5c <_sk_load_a8_dst_skx+0xdc>
+ .byte 76,141,13,129,0,0,0 // lea 0x81(%rip),%r9 # 3a78 <_sk_load_a8_dst_skx+0xdc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,169 // jmp 3998 <_sk_load_a8_dst_skx+0x18>
+ .byte 235,169 // jmp 39b4 <_sk_load_a8_dst_skx+0x18>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -3476,7 +3493,7 @@ _sk_load_a8_dst_skx:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,130 // jmp 3998 <_sk_load_a8_dst_skx+0x18>
+ .byte 235,130 // jmp 39b4 <_sk_load_a8_dst_skx+0x18>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -3489,7 +3506,7 @@ _sk_load_a8_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,61,255,255,255 // jmpq 3998 <_sk_load_a8_dst_skx+0x18>
+ .byte 233,61,255,255,255 // jmpq 39b4 <_sk_load_a8_dst_skx+0x18>
.byte 144 // nop
.byte 136,255 // mov %bh,%bh
.byte 255 // (bad)
@@ -3566,7 +3583,7 @@ _sk_gather_a8_skx:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,29,190,104,3,0 // vmulps 0x368be(%rip){1to8},%ymm0,%ymm3 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,29,70,126,3,0 // vmulps 0x37e46(%rip){1to8},%ymm0,%ymm3 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -3587,14 +3604,14 @@ _sk_store_a8_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 98,113,60,56,93,5,15,104,3,0 // vminps 0x3680f(%rip){1to8},%ymm8,%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 98,113,60,56,89,5,49,104,3,0 // vmulps 0x36831(%rip){1to8},%ymm8,%ymm8 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 98,113,60,56,93,5,151,125,3,0 // vminps 0x37d97(%rip){1to8},%ymm8,%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,113,60,56,89,5,185,125,3,0 // vmulps 0x37db9(%rip){1to8},%ymm8,%ymm8 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 3bca <_sk_store_a8_skx+0x4d>
+ .byte 117,10 // jne 3be6 <_sk_store_a8_skx+0x4d>
.byte 196,65,121,214,4,16 // vmovq %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3602,25 +3619,25 @@ _sk_store_a8_skx:
.byte 36,7 // and $0x7,%al
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 3bc6 <_sk_store_a8_skx+0x49>
+ .byte 119,242 // ja 3be2 <_sk_store_a8_skx+0x49>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,81,0,0,0 // lea 0x51(%rip),%r9 # 3c34 <_sk_store_a8_skx+0xb7>
+ .byte 76,141,13,81,0,0,0 // lea 0x51(%rip),%r9 # 3c50 <_sk_store_a8_skx+0xb7>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,20,4,16,0 // vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,209 // jmp 3bc6 <_sk_store_a8_skx+0x49>
+ .byte 235,209 // jmp 3be2 <_sk_store_a8_skx+0x49>
.byte 196,67,121,20,68,16,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%rdx,1)
.byte 196,66,121,49,192 // vpmovzxbd %xmm8,%xmm8
.byte 98,82,126,8,50,4,16 // vpmovqb %xmm8,(%r8,%rdx,1)
- .byte 235,187 // jmp 3bc6 <_sk_store_a8_skx+0x49>
+ .byte 235,187 // jmp 3be2 <_sk_store_a8_skx+0x49>
.byte 196,67,121,20,68,16,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%rdx,1)
.byte 196,67,121,20,68,16,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%rdx,1)
.byte 196,67,121,20,68,16,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%rdx,1)
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 98,82,126,8,49,4,16 // vpmovdb %xmm8,(%r8,%rdx,1)
- .byte 235,149 // jmp 3bc6 <_sk_store_a8_skx+0x49>
+ .byte 235,149 // jmp 3be2 <_sk_store_a8_skx+0x49>
.byte 15,31,0 // nopl (%rax)
.byte 184,255,255,255,201 // mov $0xc9ffffff,%eax
.byte 255 // (bad)
@@ -3652,14 +3669,14 @@ _sk_load_g8_skx:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,54 // jne 3c98 <_sk_load_g8_skx+0x48>
+ .byte 117,54 // jne 3cb4 <_sk_load_g8_skx+0x48>
.byte 196,194,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm0
- .byte 197,249,219,5,224,112,3,0 // vpand 0x370e0(%rip),%xmm0,%xmm0 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,249,219,5,100,134,3,0 // vpand 0x38664(%rip),%xmm0,%xmm0 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,161,103,3,0 // vmulps 0x367a1(%rip){1to8},%ymm0,%ymm0 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,5,41,125,3,0 // vmulps 0x37d29(%rip){1to8},%ymm0,%ymm0 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,30,103,3,0 // vbroadcastss 0x3671e(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,166,124,3,0 // vbroadcastss 0x37ca6(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -3668,15 +3685,15 @@ _sk_load_g8_skx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 119,194 // ja 3c68 <_sk_load_g8_skx+0x18>
+ .byte 119,194 // ja 3c84 <_sk_load_g8_skx+0x18>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,0,0,0 // lea 0x84(%rip),%r9 # 3d34 <_sk_load_g8_skx+0xe4>
+ .byte 76,141,13,132,0,0,0 // lea 0x84(%rip),%r9 # 3d50 <_sk_load_g8_skx+0xe4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,164 // jmp 3c68 <_sk_load_g8_skx+0x18>
+ .byte 235,164 // jmp 3c84 <_sk_load_g8_skx+0x18>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -3684,7 +3701,7 @@ _sk_load_g8_skx:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,122,255,255,255 // jmpq 3c68 <_sk_load_g8_skx+0x18>
+ .byte 233,122,255,255,255 // jmpq 3c84 <_sk_load_g8_skx+0x18>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -3697,7 +3714,7 @@ _sk_load_g8_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,53,255,255,255 // jmpq 3c68 <_sk_load_g8_skx+0x18>
+ .byte 233,53,255,255,255 // jmpq 3c84 <_sk_load_g8_skx+0x18>
.byte 144 // nop
.byte 133,255 // test %edi,%edi
.byte 255 // (bad)
@@ -3728,14 +3745,14 @@ _sk_load_g8_dst_skx:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,54 // jne 3d98 <_sk_load_g8_dst_skx+0x48>
+ .byte 117,54 // jne 3db4 <_sk_load_g8_dst_skx+0x48>
.byte 196,194,121,48,36,16 // vpmovzxbw (%r8,%rdx,1),%xmm4
- .byte 197,217,219,37,224,111,3,0 // vpand 0x36fe0(%rip),%xmm4,%xmm4 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,217,219,37,100,133,3,0 // vpand 0x38564(%rip),%xmm4,%xmm4 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,161,102,3,0 // vmulps 0x366a1(%rip){1to8},%ymm4,%ymm4 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,92,56,89,37,41,124,3,0 // vmulps 0x37c29(%rip){1to8},%ymm4,%ymm4 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,30,102,3,0 // vbroadcastss 0x3661e(%rip),%ymm7 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,166,123,3,0 // vbroadcastss 0x37ba6(%rip),%ymm7 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -3744,15 +3761,15 @@ _sk_load_g8_dst_skx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 119,194 // ja 3d68 <_sk_load_g8_dst_skx+0x18>
+ .byte 119,194 // ja 3d84 <_sk_load_g8_dst_skx+0x18>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,0,0,0 // lea 0x84(%rip),%r9 # 3e34 <_sk_load_g8_dst_skx+0xe4>
+ .byte 76,141,13,132,0,0,0 // lea 0x84(%rip),%r9 # 3e50 <_sk_load_g8_dst_skx+0xe4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,164 // jmp 3d68 <_sk_load_g8_dst_skx+0x18>
+ .byte 235,164 // jmp 3d84 <_sk_load_g8_dst_skx+0x18>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -3760,7 +3777,7 @@ _sk_load_g8_dst_skx:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,122,255,255,255 // jmpq 3d68 <_sk_load_g8_dst_skx+0x18>
+ .byte 233,122,255,255,255 // jmpq 3d84 <_sk_load_g8_dst_skx+0x18>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -3773,7 +3790,7 @@ _sk_load_g8_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,53,255,255,255 // jmpq 3d68 <_sk_load_g8_dst_skx+0x18>
+ .byte 233,53,255,255,255 // jmpq 3d84 <_sk_load_g8_dst_skx+0x18>
.byte 144 // nop
.byte 133,255 // test %edi,%edi
.byte 255 // (bad)
@@ -3850,9 +3867,9 @@ _sk_gather_g8_skx:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,230,100,3,0 // vmulps 0x364e6(%rip){1to8},%ymm0,%ymm0 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,5,110,122,3,0 // vmulps 0x37a6e(%rip){1to8},%ymm0,%ymm0 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,99,100,3,0 // vbroadcastss 0x36463(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,235,121,3,0 // vbroadcastss 0x379eb(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -3871,42 +3888,42 @@ _sk_load_565_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,96 // jne 3fcf <_sk_load_565_skx+0x75>
+ .byte 117,96 // jne 3feb <_sk_load_565_skx+0x75>
.byte 196,193,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 98,241,109,56,219,5,164,100,3,0 // vpandd 0x364a4(%rip){1to8},%ymm2,%ymm0 # 3a428 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,241,109,56,219,5,44,122,3,0 // vpandd 0x37a2c(%rip){1to8},%ymm2,%ymm0 # 3b9cc <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,154,100,3,0 // vmulps 0x3649a(%rip){1to8},%ymm0,%ymm0 # 3a42c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,241,109,56,219,13,148,100,3,0 // vpandd 0x36494(%rip){1to8},%ymm2,%ymm1 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,241,124,56,89,5,34,122,3,0 // vmulps 0x37a22(%rip){1to8},%ymm0,%ymm0 # 3b9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,241,109,56,219,13,28,122,3,0 // vpandd 0x37a1c(%rip){1to8},%ymm2,%ymm1 # 3b9d4 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,138,100,3,0 // vmulps 0x3648a(%rip){1to8},%ymm1,%ymm1 # 3a434 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,241,109,56,219,21,132,100,3,0 // vpandd 0x36484(%rip){1to8},%ymm2,%ymm2 # 3a438 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,241,116,56,89,13,18,122,3,0 // vmulps 0x37a12(%rip){1to8},%ymm1,%ymm1 # 3b9d8 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,241,109,56,219,21,12,122,3,0 // vpandd 0x37a0c(%rip){1to8},%ymm2,%ymm2 # 3b9dc <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,122,100,3,0 // vmulps 0x3647a(%rip){1to8},%ymm2,%ymm2 # 3a43c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,241,108,56,89,21,2,122,3,0 // vmulps 0x37a02(%rip){1to8},%ymm2,%ymm2 # 3b9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,223,99,3,0 // vbroadcastss 0x363df(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,103,121,3,0 // vbroadcastss 0x37967(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,7 // and $0x7,%al
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 119,152 // ja 3f75 <_sk_load_565_skx+0x1b>
+ .byte 119,152 // ja 3f91 <_sk_load_565_skx+0x1b>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,121,0,0,0 // lea 0x79(%rip),%r9 # 4060 <_sk_load_565_skx+0x106>
+ .byte 76,141,13,121,0,0,0 // lea 0x79(%rip),%r9 # 407c <_sk_load_565_skx+0x106>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,119,255,255,255 // jmpq 3f75 <_sk_load_565_skx+0x1b>
+ .byte 233,119,255,255,255 // jmpq 3f91 <_sk_load_565_skx+0x1b>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,194,121,52,12,80 // vpmovzxwq (%r8,%rdx,2),%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,80,255,255,255 // jmpq 3f75 <_sk_load_565_skx+0x1b>
+ .byte 233,80,255,255,255 // jmpq 3f91 <_sk_load_565_skx+0x1b>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,193,121,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm0
@@ -3916,7 +3933,7 @@ _sk_load_565_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,132 // vpshufd $0x84,%xmm1,%xmm1
.byte 197,241,109,192 // vpunpckhqdq %xmm0,%xmm1,%xmm0
- .byte 233,22,255,255,255 // jmpq 3f75 <_sk_load_565_skx+0x1b>
+ .byte 233,22,255,255,255 // jmpq 3f91 <_sk_load_565_skx+0x1b>
.byte 144 // nop
.byte 144 // nop
.byte 255 // (bad)
@@ -3948,42 +3965,42 @@ _sk_load_565_dst_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,96 // jne 40f1 <_sk_load_565_dst_skx+0x75>
+ .byte 117,96 // jne 410d <_sk_load_565_dst_skx+0x75>
.byte 196,193,122,111,36,80 // vmovdqu (%r8,%rdx,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 98,241,77,56,219,37,130,99,3,0 // vpandd 0x36382(%rip){1to8},%ymm6,%ymm4 # 3a428 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,241,77,56,219,37,10,121,3,0 // vpandd 0x3790a(%rip){1to8},%ymm6,%ymm4 # 3b9cc <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,120,99,3,0 // vmulps 0x36378(%rip){1to8},%ymm4,%ymm4 # 3a42c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,241,77,56,219,45,114,99,3,0 // vpandd 0x36372(%rip){1to8},%ymm6,%ymm5 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,241,92,56,89,37,0,121,3,0 // vmulps 0x37900(%rip){1to8},%ymm4,%ymm4 # 3b9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,241,77,56,219,45,250,120,3,0 // vpandd 0x378fa(%rip){1to8},%ymm6,%ymm5 # 3b9d4 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 98,241,84,56,89,45,104,99,3,0 // vmulps 0x36368(%rip){1to8},%ymm5,%ymm5 # 3a434 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,241,77,56,219,53,98,99,3,0 // vpandd 0x36362(%rip){1to8},%ymm6,%ymm6 # 3a438 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,241,84,56,89,45,240,120,3,0 // vmulps 0x378f0(%rip){1to8},%ymm5,%ymm5 # 3b9d8 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,241,77,56,219,53,234,120,3,0 // vpandd 0x378ea(%rip){1to8},%ymm6,%ymm6 # 3b9dc <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 98,241,76,56,89,53,88,99,3,0 // vmulps 0x36358(%rip){1to8},%ymm6,%ymm6 # 3a43c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,241,76,56,89,53,224,120,3,0 // vmulps 0x378e0(%rip){1to8},%ymm6,%ymm6 # 3b9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,189,98,3,0 // vbroadcastss 0x362bd(%rip),%ymm7 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,69,120,3,0 // vbroadcastss 0x37845(%rip),%ymm7 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,7 // and $0x7,%al
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 119,152 // ja 4097 <_sk_load_565_dst_skx+0x1b>
+ .byte 119,152 // ja 40b3 <_sk_load_565_dst_skx+0x1b>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,123,0,0,0 // lea 0x7b(%rip),%r9 # 4184 <_sk_load_565_dst_skx+0x108>
+ .byte 76,141,13,123,0,0,0 // lea 0x7b(%rip),%r9 # 41a0 <_sk_load_565_dst_skx+0x108>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,119,255,255,255 // jmpq 4097 <_sk_load_565_dst_skx+0x1b>
+ .byte 233,119,255,255,255 // jmpq 40b3 <_sk_load_565_dst_skx+0x1b>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,194,121,52,44,80 // vpmovzxwq (%r8,%rdx,2),%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,80,255,255,255 // jmpq 4097 <_sk_load_565_dst_skx+0x1b>
+ .byte 233,80,255,255,255 // jmpq 40b3 <_sk_load_565_dst_skx+0x1b>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,193,89,196,100,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm4
@@ -3993,7 +4010,7 @@ _sk_load_565_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,132 // vpshufd $0x84,%xmm5,%xmm5
.byte 197,209,109,228 // vpunpckhqdq %xmm4,%xmm5,%xmm4
- .byte 233,22,255,255,255 // jmpq 4097 <_sk_load_565_dst_skx+0x1b>
+ .byte 233,22,255,255,255 // jmpq 40b3 <_sk_load_565_dst_skx+0x1b>
.byte 15,31,0 // nopl (%rax)
.byte 142,255 // mov %edi,%?
.byte 255 // (bad)
@@ -4068,17 +4085,17 @@ _sk_gather_565_skx:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 98,241,109,56,219,5,163,97,3,0 // vpandd 0x361a3(%rip){1to8},%ymm2,%ymm0 # 3a428 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,241,109,56,219,5,43,119,3,0 // vpandd 0x3772b(%rip){1to8},%ymm2,%ymm0 # 3b9cc <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,153,97,3,0 // vmulps 0x36199(%rip){1to8},%ymm0,%ymm0 # 3a42c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,241,109,56,219,13,147,97,3,0 // vpandd 0x36193(%rip){1to8},%ymm2,%ymm1 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,241,124,56,89,5,33,119,3,0 // vmulps 0x37721(%rip){1to8},%ymm0,%ymm0 # 3b9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,241,109,56,219,13,27,119,3,0 // vpandd 0x3771b(%rip){1to8},%ymm2,%ymm1 # 3b9d4 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,137,97,3,0 // vmulps 0x36189(%rip){1to8},%ymm1,%ymm1 # 3a434 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,241,109,56,219,21,131,97,3,0 // vpandd 0x36183(%rip){1to8},%ymm2,%ymm2 # 3a438 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,241,116,56,89,13,17,119,3,0 // vmulps 0x37711(%rip){1to8},%ymm1,%ymm1 # 3b9d8 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,241,109,56,219,21,11,119,3,0 // vpandd 0x3770b(%rip){1to8},%ymm2,%ymm2 # 3b9dc <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,121,97,3,0 // vmulps 0x36179(%rip){1to8},%ymm2,%ymm2 # 3a43c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,241,108,56,89,21,1,119,3,0 // vmulps 0x37701(%rip){1to8},%ymm2,%ymm2 # 3b9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,222,96,3,0 // vbroadcastss 0x360de(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,102,118,3,0 // vbroadcastss 0x37666(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -4096,15 +4113,15 @@ _sk_store_565_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,179,96,3,0 // vbroadcastss 0x360b3(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,59,118,3,0 // vbroadcastss 0x3763b(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,149,97,3,0 // vbroadcastss 0x36195(%rip),%ymm11 # 3a49c <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
+ .byte 196,98,125,24,29,29,119,3,0 // vbroadcastss 0x3771d(%rip),%ymm11 # 3ba40 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
.byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 98,113,28,56,89,37,118,97,3,0 // vmulps 0x36176(%rip){1to8},%ymm12,%ymm12 # 3a4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
+ .byte 98,113,28,56,89,37,254,118,3,0 // vmulps 0x376fe(%rip){1to8},%ymm12,%ymm12 # 3ba44 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
.byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
.byte 196,193,29,114,244,5 // vpslld $0x5,%ymm12,%ymm12
.byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
@@ -4116,7 +4133,7 @@ _sk_store_565_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 436c <_sk_store_565_skx+0x95>
+ .byte 117,10 // jne 4388 <_sk_store_565_skx+0x95>
.byte 196,65,122,127,4,80 // vmovdqu %xmm8,(%r8,%rdx,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -4124,24 +4141,24 @@ _sk_store_565_skx:
.byte 36,7 // and $0x7,%al
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 4368 <_sk_store_565_skx+0x91>
+ .byte 119,242 // ja 4384 <_sk_store_565_skx+0x91>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,80,0,0,0 // lea 0x50(%rip),%r9 # 43d0 <_sk_store_565_skx+0xf9>
+ .byte 76,141,13,80,0,0,0 // lea 0x50(%rip),%r9 # 43ec <_sk_store_565_skx+0xf9>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,214 // jmp 4368 <_sk_store_565_skx+0x91>
+ .byte 235,214 // jmp 4384 <_sk_store_565_skx+0x91>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,66,121,52,192 // vpmovzxwq %xmm8,%xmm8
.byte 98,82,126,8,52,4,80 // vpmovqw %xmm8,(%r8,%rdx,2)
- .byte 235,192 // jmp 4368 <_sk_store_565_skx+0x91>
+ .byte 235,192 // jmp 4384 <_sk_store_565_skx+0x91>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 98,82,126,8,51,4,80 // vpmovdw %xmm8,(%r8,%rdx,2)
- .byte 235,154 // jmp 4368 <_sk_store_565_skx+0x91>
+ .byte 235,154 // jmp 4384 <_sk_store_565_skx+0x91>
.byte 102,144 // xchg %ax,%ax
.byte 185,255,255,255,202 // mov $0xcaffffff,%ecx
.byte 255 // (bad)
@@ -4153,7 +4170,7 @@ _sk_store_565_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe10043e4 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fca2e8>
+ .byte 232,255,255,255,224 // callq ffffffffe1004400 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fc8d60>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -4171,21 +4188,21 @@ _sk_load_4444_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 4470 <_sk_load_4444_skx+0x84>
+ .byte 117,111 // jne 448c <_sk_load_4444_skx+0x84>
.byte 196,193,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 98,241,101,56,219,5,142,96,3,0 // vpandd 0x3608e(%rip){1to8},%ymm3,%ymm0 # 3a4a4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 98,241,101,56,219,5,22,118,3,0 // vpandd 0x37616(%rip){1to8},%ymm3,%ymm0 # 3ba48 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,132,96,3,0 // vmulps 0x36084(%rip){1to8},%ymm0,%ymm0 # 3a4a8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 98,241,101,56,219,13,126,96,3,0 // vpandd 0x3607e(%rip){1to8},%ymm3,%ymm1 # 3a4ac <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 98,241,124,56,89,5,12,118,3,0 // vmulps 0x3760c(%rip){1to8},%ymm0,%ymm0 # 3ba4c <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 98,241,101,56,219,13,6,118,3,0 // vpandd 0x37606(%rip){1to8},%ymm3,%ymm1 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,116,96,3,0 // vmulps 0x36074(%rip){1to8},%ymm1,%ymm1 # 3a4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 98,241,101,56,219,21,110,96,3,0 // vpandd 0x3606e(%rip){1to8},%ymm3,%ymm2 # 3a4b4 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 98,241,116,56,89,13,252,117,3,0 // vmulps 0x375fc(%rip){1to8},%ymm1,%ymm1 # 3ba54 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 98,241,101,56,219,21,246,117,3,0 // vpandd 0x375f6(%rip){1to8},%ymm3,%ymm2 # 3ba58 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,100,96,3,0 // vmulps 0x36064(%rip){1to8},%ymm2,%ymm2 # 3a4b8 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 98,241,101,56,219,29,94,96,3,0 // vpandd 0x3605e(%rip){1to8},%ymm3,%ymm3 # 3a4bc <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 98,241,108,56,89,21,236,117,3,0 // vmulps 0x375ec(%rip){1to8},%ymm2,%ymm2 # 3ba5c <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 98,241,101,56,219,29,230,117,3,0 // vpandd 0x375e6(%rip){1to8},%ymm3,%ymm3 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,84,96,3,0 // vmulps 0x36054(%rip){1to8},%ymm3,%ymm3 # 3a4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 98,241,100,56,89,29,220,117,3,0 // vmulps 0x375dc(%rip){1to8},%ymm3,%ymm3 # 3ba64 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
@@ -4193,22 +4210,22 @@ _sk_load_4444_skx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 119,137 // ja 4407 <_sk_load_4444_skx+0x1b>
+ .byte 119,137 // ja 4423 <_sk_load_4444_skx+0x1b>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,120,0,0,0 // lea 0x78(%rip),%r9 # 4500 <_sk_load_4444_skx+0x114>
+ .byte 76,141,13,120,0,0,0 // lea 0x78(%rip),%r9 # 451c <_sk_load_4444_skx+0x114>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,104,255,255,255 // jmpq 4407 <_sk_load_4444_skx+0x1b>
+ .byte 233,104,255,255,255 // jmpq 4423 <_sk_load_4444_skx+0x1b>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,194,121,52,12,80 // vpmovzxwq (%r8,%rdx,2),%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,65,255,255,255 // jmpq 4407 <_sk_load_4444_skx+0x1b>
+ .byte 233,65,255,255,255 // jmpq 4423 <_sk_load_4444_skx+0x1b>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,193,121,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm0
@@ -4218,7 +4235,7 @@ _sk_load_4444_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,132 // vpshufd $0x84,%xmm1,%xmm1
.byte 197,241,109,192 // vpunpckhqdq %xmm0,%xmm1,%xmm0
- .byte 233,7,255,255,255 // jmpq 4407 <_sk_load_4444_skx+0x1b>
+ .byte 233,7,255,255,255 // jmpq 4423 <_sk_load_4444_skx+0x1b>
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
.byte 255 // (bad)
@@ -4249,21 +4266,21 @@ _sk_load_4444_dst_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 45a0 <_sk_load_4444_dst_skx+0x84>
+ .byte 117,111 // jne 45bc <_sk_load_4444_dst_skx+0x84>
.byte 196,193,122,111,36,80 // vmovdqu (%r8,%rdx,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 98,241,69,56,219,37,94,95,3,0 // vpandd 0x35f5e(%rip){1to8},%ymm7,%ymm4 # 3a4a4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 98,241,69,56,219,37,230,116,3,0 // vpandd 0x374e6(%rip){1to8},%ymm7,%ymm4 # 3ba48 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,84,95,3,0 // vmulps 0x35f54(%rip){1to8},%ymm4,%ymm4 # 3a4a8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 98,241,69,56,219,45,78,95,3,0 // vpandd 0x35f4e(%rip){1to8},%ymm7,%ymm5 # 3a4ac <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 98,241,92,56,89,37,220,116,3,0 // vmulps 0x374dc(%rip){1to8},%ymm4,%ymm4 # 3ba4c <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 98,241,69,56,219,45,214,116,3,0 // vpandd 0x374d6(%rip){1to8},%ymm7,%ymm5 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 98,241,84,56,89,45,68,95,3,0 // vmulps 0x35f44(%rip){1to8},%ymm5,%ymm5 # 3a4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 98,241,69,56,219,53,62,95,3,0 // vpandd 0x35f3e(%rip){1to8},%ymm7,%ymm6 # 3a4b4 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 98,241,84,56,89,45,204,116,3,0 // vmulps 0x374cc(%rip){1to8},%ymm5,%ymm5 # 3ba54 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 98,241,69,56,219,53,198,116,3,0 // vpandd 0x374c6(%rip){1to8},%ymm7,%ymm6 # 3ba58 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 98,241,76,56,89,53,52,95,3,0 // vmulps 0x35f34(%rip){1to8},%ymm6,%ymm6 # 3a4b8 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 98,241,69,56,219,61,46,95,3,0 // vpandd 0x35f2e(%rip){1to8},%ymm7,%ymm7 # 3a4bc <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 98,241,76,56,89,53,188,116,3,0 // vmulps 0x374bc(%rip){1to8},%ymm6,%ymm6 # 3ba5c <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 98,241,69,56,219,61,182,116,3,0 // vpandd 0x374b6(%rip){1to8},%ymm7,%ymm7 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 98,241,68,56,89,61,36,95,3,0 // vmulps 0x35f24(%rip){1to8},%ymm7,%ymm7 # 3a4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 98,241,68,56,89,61,172,116,3,0 // vmulps 0x374ac(%rip){1to8},%ymm7,%ymm7 # 3ba64 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
@@ -4271,22 +4288,22 @@ _sk_load_4444_dst_skx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 119,137 // ja 4537 <_sk_load_4444_dst_skx+0x1b>
+ .byte 119,137 // ja 4553 <_sk_load_4444_dst_skx+0x1b>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,120,0,0,0 // lea 0x78(%rip),%r9 # 4630 <_sk_load_4444_dst_skx+0x114>
+ .byte 76,141,13,120,0,0,0 // lea 0x78(%rip),%r9 # 464c <_sk_load_4444_dst_skx+0x114>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,104,255,255,255 // jmpq 4537 <_sk_load_4444_dst_skx+0x1b>
+ .byte 233,104,255,255,255 // jmpq 4553 <_sk_load_4444_dst_skx+0x1b>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,194,121,52,44,80 // vpmovzxwq (%r8,%rdx,2),%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,65,255,255,255 // jmpq 4537 <_sk_load_4444_dst_skx+0x1b>
+ .byte 233,65,255,255,255 // jmpq 4553 <_sk_load_4444_dst_skx+0x1b>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,193,89,196,100,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm4
@@ -4296,7 +4313,7 @@ _sk_load_4444_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,132 // vpshufd $0x84,%xmm5,%xmm5
.byte 197,209,109,228 // vpunpckhqdq %xmm4,%xmm5,%xmm4
- .byte 233,7,255,255,255 // jmpq 4537 <_sk_load_4444_dst_skx+0x1b>
+ .byte 233,7,255,255,255 // jmpq 4553 <_sk_load_4444_dst_skx+0x1b>
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
.byte 255 // (bad)
@@ -4371,18 +4388,18 @@ _sk_gather_4444_skx:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 98,241,101,56,219,5,115,93,3,0 // vpandd 0x35d73(%rip){1to8},%ymm3,%ymm0 # 3a4a4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 98,241,101,56,219,5,251,114,3,0 // vpandd 0x372fb(%rip){1to8},%ymm3,%ymm0 # 3ba48 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,105,93,3,0 // vmulps 0x35d69(%rip){1to8},%ymm0,%ymm0 # 3a4a8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 98,241,101,56,219,13,99,93,3,0 // vpandd 0x35d63(%rip){1to8},%ymm3,%ymm1 # 3a4ac <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 98,241,124,56,89,5,241,114,3,0 // vmulps 0x372f1(%rip){1to8},%ymm0,%ymm0 # 3ba4c <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 98,241,101,56,219,13,235,114,3,0 // vpandd 0x372eb(%rip){1to8},%ymm3,%ymm1 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,89,93,3,0 // vmulps 0x35d59(%rip){1to8},%ymm1,%ymm1 # 3a4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 98,241,101,56,219,21,83,93,3,0 // vpandd 0x35d53(%rip){1to8},%ymm3,%ymm2 # 3a4b4 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 98,241,116,56,89,13,225,114,3,0 // vmulps 0x372e1(%rip){1to8},%ymm1,%ymm1 # 3ba54 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 98,241,101,56,219,21,219,114,3,0 // vpandd 0x372db(%rip){1to8},%ymm3,%ymm2 # 3ba58 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,73,93,3,0 // vmulps 0x35d49(%rip){1to8},%ymm2,%ymm2 # 3a4b8 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 98,241,101,56,219,29,67,93,3,0 // vpandd 0x35d43(%rip){1to8},%ymm3,%ymm3 # 3a4bc <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 98,241,108,56,89,21,209,114,3,0 // vmulps 0x372d1(%rip){1to8},%ymm2,%ymm2 # 3ba5c <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 98,241,101,56,219,29,203,114,3,0 // vpandd 0x372cb(%rip){1to8},%ymm3,%ymm3 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,57,93,3,0 // vmulps 0x35d39(%rip){1to8},%ymm3,%ymm3 # 3a4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 98,241,100,56,89,29,193,114,3,0 // vmulps 0x372c1(%rip){1to8},%ymm3,%ymm3 # 3ba64 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -4401,9 +4418,9 @@ _sk_store_4444_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,248,91,3,0 // vbroadcastss 0x35bf8(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,128,113,3,0 // vbroadcastss 0x37180(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,2,93,3,0 // vbroadcastss 0x35d02(%rip),%ymm11 # 3a4c4 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
+ .byte 196,98,125,24,29,138,114,3,0 // vbroadcastss 0x3728a(%rip),%ymm11 # 3ba68 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
@@ -4427,7 +4444,7 @@ _sk_store_4444_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 4840 <_sk_store_4444_skx+0xae>
+ .byte 117,10 // jne 485c <_sk_store_4444_skx+0xae>
.byte 196,65,122,127,4,80 // vmovdqu %xmm8,(%r8,%rdx,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -4435,24 +4452,24 @@ _sk_store_4444_skx:
.byte 36,7 // and $0x7,%al
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 483c <_sk_store_4444_skx+0xaa>
+ .byte 119,242 // ja 4858 <_sk_store_4444_skx+0xaa>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,80,0,0,0 // lea 0x50(%rip),%r9 # 48a4 <_sk_store_4444_skx+0x112>
+ .byte 76,141,13,80,0,0,0 // lea 0x50(%rip),%r9 # 48c0 <_sk_store_4444_skx+0x112>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,214 // jmp 483c <_sk_store_4444_skx+0xaa>
+ .byte 235,214 // jmp 4858 <_sk_store_4444_skx+0xaa>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,66,121,52,192 // vpmovzxwq %xmm8,%xmm8
.byte 98,82,126,8,52,4,80 // vpmovqw %xmm8,(%r8,%rdx,2)
- .byte 235,192 // jmp 483c <_sk_store_4444_skx+0xaa>
+ .byte 235,192 // jmp 4858 <_sk_store_4444_skx+0xaa>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 98,82,126,8,51,4,80 // vpmovdw %xmm8,(%r8,%rdx,2)
- .byte 235,154 // jmp 483c <_sk_store_4444_skx+0xaa>
+ .byte 235,154 // jmp 4858 <_sk_store_4444_skx+0xaa>
.byte 102,144 // xchg %ax,%ax
.byte 185,255,255,255,202 // mov $0xcaffffff,%ecx
.byte 255 // (bad)
@@ -4464,7 +4481,7 @@ _sk_store_4444_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe10048b8 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fca7bc>
+ .byte 232,255,255,255,224 // callq ffffffffe10048d4 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fc9234>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -4482,13 +4499,13 @@ _sk_load_8888_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4937 <_sk_load_8888_skx+0x77>
+ .byte 117,97 // jne 4953 <_sk_load_8888_skx+0x77>
.byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,44,91,3,0 // vbroadcastss 0x35b2c(%rip),%ymm8 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,180,112,3,0 // vbroadcastss 0x370b4(%rip),%ymm8 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,245,114,211,8 // vpsrld $0x8,%ymm3,%ymm1
.byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
@@ -4508,14 +4525,14 @@ _sk_load_8888_skx:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 119,151 // ja 48dc <_sk_load_8888_skx+0x1c>
+ .byte 119,151 // ja 48f8 <_sk_load_8888_skx+0x1c>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,137,0,0,0 // lea 0x89(%rip),%r9 # 49d8 <_sk_load_8888_skx+0x118>
+ .byte 76,141,13,137,0,0,0 // lea 0x89(%rip),%r9 # 49f4 <_sk_load_8888_skx+0x118>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,121,255,255,255 // jmpq 48dc <_sk_load_8888_skx+0x1c>
+ .byte 233,121,255,255,255 // jmpq 48f8 <_sk_load_8888_skx+0x1c>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4523,7 +4540,7 @@ _sk_load_8888_skx:
.byte 196,194,121,53,4,144 // vpmovzxdq (%r8,%rdx,4),%xmm0
.byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,80,255,255,255 // jmpq 48dc <_sk_load_8888_skx+0x1c>
+ .byte 233,80,255,255,255 // jmpq 48f8 <_sk_load_8888_skx+0x1c>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4536,7 +4553,7 @@ _sk_load_8888_skx:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,4,255,255,255 // jmpq 48dc <_sk_load_8888_skx+0x1c>
+ .byte 233,4,255,255,255 // jmpq 48f8 <_sk_load_8888_skx+0x1c>
.byte 128,255,255 // cmp $0xff,%bh
.byte 255,158,255,255,255,139 // lcall *-0x74000001(%rsi)
.byte 255 // (bad)
@@ -4566,13 +4583,13 @@ _sk_load_8888_dst_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4a6b <_sk_load_8888_dst_skx+0x77>
+ .byte 117,97 // jne 4a87 <_sk_load_8888_dst_skx+0x77>
.byte 196,193,126,111,60,144 // vmovdqu (%r8,%rdx,4),%ymm7
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,248,89,3,0 // vbroadcastss 0x359f8(%rip),%ymm8 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,128,111,3,0 // vbroadcastss 0x36f80(%rip),%ymm8 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,213,114,215,8 // vpsrld $0x8,%ymm7,%ymm5
.byte 98,241,127,169,111,237 // vmovdqu8 %ymm5,%ymm5{%k1}{z}
@@ -4592,14 +4609,14 @@ _sk_load_8888_dst_skx:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 119,151 // ja 4a10 <_sk_load_8888_dst_skx+0x1c>
+ .byte 119,151 // ja 4a2c <_sk_load_8888_dst_skx+0x1c>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,137,0,0,0 // lea 0x89(%rip),%r9 # 4b0c <_sk_load_8888_dst_skx+0x118>
+ .byte 76,141,13,137,0,0,0 // lea 0x89(%rip),%r9 # 4b28 <_sk_load_8888_dst_skx+0x118>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,60,144 // vmovd (%r8,%rdx,4),%xmm7
- .byte 233,121,255,255,255 // jmpq 4a10 <_sk_load_8888_dst_skx+0x1c>
+ .byte 233,121,255,255,255 // jmpq 4a2c <_sk_load_8888_dst_skx+0x1c>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4607,7 +4624,7 @@ _sk_load_8888_dst_skx:
.byte 196,194,121,53,36,144 // vpmovzxdq (%r8,%rdx,4),%xmm4
.byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,80,255,255,255 // jmpq 4a10 <_sk_load_8888_dst_skx+0x1c>
+ .byte 233,80,255,255,255 // jmpq 4a2c <_sk_load_8888_dst_skx+0x1c>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4620,7 +4637,7 @@ _sk_load_8888_dst_skx:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,193,122,111,36,144 // vmovdqu (%r8,%rdx,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,4,255,255,255 // jmpq 4a10 <_sk_load_8888_dst_skx+0x1c>
+ .byte 233,4,255,255,255 // jmpq 4a2c <_sk_load_8888_dst_skx+0x1c>
.byte 128,255,255 // cmp $0xff,%bh
.byte 255,158,255,255,255,139 // lcall *-0x74000001(%rsi)
.byte 255 // (bad)
@@ -4665,7 +4682,7 @@ _sk_gather_8888_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,149,88,3,0 // vbroadcastss 0x35895(%rip),%ymm3 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,29,110,3,0 // vbroadcastss 0x36e1d(%rip),%ymm3 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
.byte 196,193,117,114,208,8 // vpsrld $0x8,%ymm8,%ymm1
.byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
@@ -4692,9 +4709,9 @@ _sk_store_8888_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,187,87,3,0 // vbroadcastss 0x357bb(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,67,109,3,0 // vbroadcastss 0x36d43(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,217,87,3,0 // vbroadcastss 0x357d9(%rip),%ymm11 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,97,109,3,0 // vbroadcastss 0x36d61(%rip),%ymm11 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
@@ -4716,7 +4733,7 @@ _sk_store_8888_skx:
.byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 4c72 <_sk_store_8888_skx+0xa4>
+ .byte 117,10 // jne 4c8e <_sk_store_8888_skx+0xa4>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -4724,18 +4741,18 @@ _sk_store_8888_skx:
.byte 36,7 // and $0x7,%al
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 4c6e <_sk_store_8888_skx+0xa0>
+ .byte 119,242 // ja 4c8a <_sk_store_8888_skx+0xa0>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,90,0,0,0 // lea 0x5a(%rip),%r9 # 4ce0 <_sk_store_8888_skx+0x112>
+ .byte 76,141,13,90,0,0,0 // lea 0x5a(%rip),%r9 # 4cfc <_sk_store_8888_skx+0x112>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp 4c6e <_sk_store_8888_skx+0xa0>
+ .byte 235,215 // jmp 4c8a <_sk_store_8888_skx+0xa0>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
.byte 98,82,126,8,53,4,144 // vpmovqd %xmm8,(%r8,%rdx,4)
- .byte 235,193 // jmp 4c6e <_sk_store_8888_skx+0xa0>
+ .byte 235,193 // jmp 4c8a <_sk_store_8888_skx+0xa0>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -4743,7 +4760,7 @@ _sk_store_8888_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,144 // jmp 4c6e <_sk_store_8888_skx+0xa0>
+ .byte 235,144 // jmp 4c8a <_sk_store_8888_skx+0xa0>
.byte 102,144 // xchg %ax,%ax
.byte 175 // scas %es:(%rdi),%eax
.byte 255 // (bad)
@@ -4756,7 +4773,7 @@ _sk_store_8888_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc004cf4 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfcabf8>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc004d10 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfc9670>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -4774,13 +4791,13 @@ _sk_load_bgra_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4d73 <_sk_load_bgra_skx+0x77>
+ .byte 117,97 // jne 4d8f <_sk_load_bgra_skx+0x77>
.byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,240,86,3,0 // vbroadcastss 0x356f0(%rip),%ymm8 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,120,108,3,0 // vbroadcastss 0x36c78(%rip),%ymm8 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
.byte 197,253,114,211,8 // vpsrld $0x8,%ymm3,%ymm0
.byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
@@ -4800,14 +4817,14 @@ _sk_load_bgra_skx:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 119,151 // ja 4d18 <_sk_load_bgra_skx+0x1c>
+ .byte 119,151 // ja 4d34 <_sk_load_bgra_skx+0x1c>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,137,0,0,0 // lea 0x89(%rip),%r9 # 4e14 <_sk_load_bgra_skx+0x118>
+ .byte 76,141,13,137,0,0,0 // lea 0x89(%rip),%r9 # 4e30 <_sk_load_bgra_skx+0x118>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,121,255,255,255 // jmpq 4d18 <_sk_load_bgra_skx+0x1c>
+ .byte 233,121,255,255,255 // jmpq 4d34 <_sk_load_bgra_skx+0x1c>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4815,7 +4832,7 @@ _sk_load_bgra_skx:
.byte 196,194,121,53,4,144 // vpmovzxdq (%r8,%rdx,4),%xmm0
.byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,80,255,255,255 // jmpq 4d18 <_sk_load_bgra_skx+0x1c>
+ .byte 233,80,255,255,255 // jmpq 4d34 <_sk_load_bgra_skx+0x1c>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4828,7 +4845,7 @@ _sk_load_bgra_skx:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,4,255,255,255 // jmpq 4d18 <_sk_load_bgra_skx+0x1c>
+ .byte 233,4,255,255,255 // jmpq 4d34 <_sk_load_bgra_skx+0x1c>
.byte 128,255,255 // cmp $0xff,%bh
.byte 255,158,255,255,255,139 // lcall *-0x74000001(%rsi)
.byte 255 // (bad)
@@ -4858,13 +4875,13 @@ _sk_load_bgra_dst_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4ea7 <_sk_load_bgra_dst_skx+0x77>
+ .byte 117,97 // jne 4ec3 <_sk_load_bgra_dst_skx+0x77>
.byte 196,193,126,111,60,144 // vmovdqu (%r8,%rdx,4),%ymm7
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,188,85,3,0 // vbroadcastss 0x355bc(%rip),%ymm8 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,68,107,3,0 // vbroadcastss 0x36b44(%rip),%ymm8 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
.byte 197,221,114,215,8 // vpsrld $0x8,%ymm7,%ymm4
.byte 98,241,127,169,111,228 // vmovdqu8 %ymm4,%ymm4{%k1}{z}
@@ -4884,14 +4901,14 @@ _sk_load_bgra_dst_skx:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 119,151 // ja 4e4c <_sk_load_bgra_dst_skx+0x1c>
+ .byte 119,151 // ja 4e68 <_sk_load_bgra_dst_skx+0x1c>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,137,0,0,0 // lea 0x89(%rip),%r9 # 4f48 <_sk_load_bgra_dst_skx+0x118>
+ .byte 76,141,13,137,0,0,0 // lea 0x89(%rip),%r9 # 4f64 <_sk_load_bgra_dst_skx+0x118>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,60,144 // vmovd (%r8,%rdx,4),%xmm7
- .byte 233,121,255,255,255 // jmpq 4e4c <_sk_load_bgra_dst_skx+0x1c>
+ .byte 233,121,255,255,255 // jmpq 4e68 <_sk_load_bgra_dst_skx+0x1c>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4899,7 +4916,7 @@ _sk_load_bgra_dst_skx:
.byte 196,194,121,53,36,144 // vpmovzxdq (%r8,%rdx,4),%xmm4
.byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,80,255,255,255 // jmpq 4e4c <_sk_load_bgra_dst_skx+0x1c>
+ .byte 233,80,255,255,255 // jmpq 4e68 <_sk_load_bgra_dst_skx+0x1c>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4912,7 +4929,7 @@ _sk_load_bgra_dst_skx:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,193,122,111,36,144 // vmovdqu (%r8,%rdx,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,4,255,255,255 // jmpq 4e4c <_sk_load_bgra_dst_skx+0x1c>
+ .byte 233,4,255,255,255 // jmpq 4e68 <_sk_load_bgra_dst_skx+0x1c>
.byte 128,255,255 // cmp $0xff,%bh
.byte 255,158,255,255,255,139 // lcall *-0x74000001(%rsi)
.byte 255 // (bad)
@@ -4957,7 +4974,7 @@ _sk_gather_bgra_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,89,84,3,0 // vbroadcastss 0x35459(%rip),%ymm3 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,225,105,3,0 // vbroadcastss 0x369e1(%rip),%ymm3 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
.byte 196,193,125,114,208,8 // vpsrld $0x8,%ymm8,%ymm0
.byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
@@ -4984,9 +5001,9 @@ _sk_store_bgra_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9
- .byte 196,98,125,24,21,127,83,3,0 // vbroadcastss 0x3537f(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,7,105,3,0 // vbroadcastss 0x36907(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,157,83,3,0 // vbroadcastss 0x3539d(%rip),%ymm11 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,37,105,3,0 // vbroadcastss 0x36925(%rip),%ymm11 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
@@ -5008,7 +5025,7 @@ _sk_store_bgra_skx:
.byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 50ae <_sk_store_bgra_skx+0xa4>
+ .byte 117,10 // jne 50ca <_sk_store_bgra_skx+0xa4>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -5016,18 +5033,18 @@ _sk_store_bgra_skx:
.byte 36,7 // and $0x7,%al
.byte 4,255 // add $0xff,%al
.byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 50aa <_sk_store_bgra_skx+0xa0>
+ .byte 119,242 // ja 50c6 <_sk_store_bgra_skx+0xa0>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,90,0,0,0 // lea 0x5a(%rip),%r9 # 511c <_sk_store_bgra_skx+0x112>
+ .byte 76,141,13,90,0,0,0 // lea 0x5a(%rip),%r9 # 5138 <_sk_store_bgra_skx+0x112>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp 50aa <_sk_store_bgra_skx+0xa0>
+ .byte 235,215 // jmp 50c6 <_sk_store_bgra_skx+0xa0>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
.byte 98,82,126,8,53,4,144 // vpmovqd %xmm8,(%r8,%rdx,4)
- .byte 235,193 // jmp 50aa <_sk_store_bgra_skx+0xa0>
+ .byte 235,193 // jmp 50c6 <_sk_store_bgra_skx+0xa0>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -5035,7 +5052,7 @@ _sk_store_bgra_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,144 // jmp 50aa <_sk_store_bgra_skx+0xa0>
+ .byte 235,144 // jmp 50c6 <_sk_store_bgra_skx+0xa0>
.byte 102,144 // xchg %ax,%ax
.byte 175 // scas %es:(%rdi),%eax
.byte 255 // (bad)
@@ -5048,7 +5065,300 @@ _sk_store_bgra_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc005130 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfcb034>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc00514c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfc9aac>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,205 // dec %ebp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_load_1010102_skx
+.globl _sk_load_1010102_skx
+FUNCTION(_sk_load_1010102_skx)
+_sk_load_1010102_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,64,8 // movslq 0x8(%rax),%r8
+ .byte 76,15,175,193 // imul %rcx,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,96 // jne 51ca <_sk_load_1010102_skx+0x76>
+ .byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
+ .byte 196,226,125,88,21,243,104,3,0 // vpbroadcastd 0x368f3(%rip),%ymm2 # 3ba6c <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 197,229,219,194 // vpand %ymm2,%ymm3,%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,98,125,24,5,230,104,3,0 // vbroadcastss 0x368e6(%rip),%ymm8 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
+ .byte 197,245,114,211,10 // vpsrld $0xa,%ymm3,%ymm1
+ .byte 197,245,219,202 // vpand %ymm2,%ymm1,%ymm1
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
+ .byte 197,181,114,211,20 // vpsrld $0x14,%ymm3,%ymm9
+ .byte 197,181,219,210 // vpand %ymm2,%ymm9,%ymm2
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
+ .byte 197,229,114,211,30 // vpsrld $0x1e,%ymm3,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 98,241,100,56,89,29,246,103,3,0 // vmulps 0x367f6(%rip){1to8},%ymm3,%ymm3 # 3b9bc <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 137,248 // mov %edi,%eax
+ .byte 36,7 // and $0x7,%al
+ .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
+ .byte 4,255 // add $0xff,%al
+ .byte 60,6 // cmp $0x6,%al
+ .byte 119,152 // ja 5170 <_sk_load_1010102_skx+0x1c>
+ .byte 15,182,192 // movzbl %al,%eax
+ .byte 76,141,13,138,0,0,0 // lea 0x8a(%rip),%r9 # 526c <_sk_load_1010102_skx+0x118>
+ .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
+ .byte 76,1,200 // add %r9,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
+ .byte 233,122,255,255,255 // jmpq 5170 <_sk_load_1010102_skx+0x1c>
+ .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
+ .byte 176,4 // mov $0x4,%al
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,242,125,169,137,216 // vpexpandd %ymm0,%ymm3{%k1}{z}
+ .byte 196,194,121,53,4,144 // vpmovzxdq (%r8,%rdx,4),%xmm0
+ .byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
+ .byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
+ .byte 233,81,255,255,255 // jmpq 5170 <_sk_load_1010102_skx+0x1c>
+ .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
+ .byte 176,64 // mov $0x40,%al
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,242,125,169,137,216 // vpexpandd %ymm0,%ymm3{%k1}{z}
+ .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
+ .byte 196,195,121,34,68,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
+ .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
+ .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
+ .byte 196,195,121,34,68,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
+ .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
+ .byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
+ .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
+ .byte 233,5,255,255,255 // jmpq 5170 <_sk_load_1010102_skx+0x1c>
+ .byte 144 // nop
+ .byte 127,255 // jg 526d <_sk_load_1010102_skx+0x119>
+ .byte 255 // (bad)
+ .byte 255,157,255,255,255,138 // lcall *-0x75000001(%rbp)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 238 // out %al,(%dx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 218,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,198 // inc %esi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+ .byte 179,255 // mov $0xff,%bl
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_load_1010102_dst_skx
+.globl _sk_load_1010102_dst_skx
+FUNCTION(_sk_load_1010102_dst_skx)
+_sk_load_1010102_dst_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,64,8 // movslq 0x8(%rax),%r8
+ .byte 76,15,175,193 // imul %rcx,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,96 // jne 52fe <_sk_load_1010102_dst_skx+0x76>
+ .byte 196,193,126,111,60,144 // vmovdqu (%r8,%rdx,4),%ymm7
+ .byte 196,226,125,88,53,191,103,3,0 // vpbroadcastd 0x367bf(%rip),%ymm6 # 3ba6c <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 197,197,219,230 // vpand %ymm6,%ymm7,%ymm4
+ .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
+ .byte 196,98,125,24,5,178,103,3,0 // vbroadcastss 0x367b2(%rip),%ymm8 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
+ .byte 197,213,114,215,10 // vpsrld $0xa,%ymm7,%ymm5
+ .byte 197,213,219,238 // vpand %ymm6,%ymm5,%ymm5
+ .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
+ .byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
+ .byte 197,181,114,215,20 // vpsrld $0x14,%ymm7,%ymm9
+ .byte 197,181,219,246 // vpand %ymm6,%ymm9,%ymm6
+ .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
+ .byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
+ .byte 197,197,114,215,30 // vpsrld $0x1e,%ymm7,%ymm7
+ .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
+ .byte 98,241,68,56,89,61,194,102,3,0 // vmulps 0x366c2(%rip){1to8},%ymm7,%ymm7 # 3b9bc <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 137,248 // mov %edi,%eax
+ .byte 36,7 // and $0x7,%al
+ .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
+ .byte 4,255 // add $0xff,%al
+ .byte 60,6 // cmp $0x6,%al
+ .byte 119,152 // ja 52a4 <_sk_load_1010102_dst_skx+0x1c>
+ .byte 15,182,192 // movzbl %al,%eax
+ .byte 76,141,13,138,0,0,0 // lea 0x8a(%rip),%r9 # 53a0 <_sk_load_1010102_dst_skx+0x118>
+ .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
+ .byte 76,1,200 // add %r9,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,193,121,110,60,144 // vmovd (%r8,%rdx,4),%xmm7
+ .byte 233,122,255,255,255 // jmpq 52a4 <_sk_load_1010102_dst_skx+0x1c>
+ .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
+ .byte 176,4 // mov $0x4,%al
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,242,125,169,137,252 // vpexpandd %ymm4,%ymm7{%k1}{z}
+ .byte 196,194,121,53,36,144 // vpmovzxdq (%r8,%rdx,4),%xmm4
+ .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
+ .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
+ .byte 233,81,255,255,255 // jmpq 52a4 <_sk_load_1010102_dst_skx+0x1c>
+ .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
+ .byte 176,64 // mov $0x40,%al
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,242,125,169,137,252 // vpexpandd %ymm4,%ymm7{%k1}{z}
+ .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
+ .byte 196,195,89,34,100,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
+ .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
+ .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
+ .byte 196,195,89,34,100,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
+ .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
+ .byte 196,193,122,111,36,144 // vmovdqu (%r8,%rdx,4),%xmm4
+ .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
+ .byte 233,5,255,255,255 // jmpq 52a4 <_sk_load_1010102_dst_skx+0x1c>
+ .byte 144 // nop
+ .byte 127,255 // jg 53a1 <_sk_load_1010102_dst_skx+0x119>
+ .byte 255 // (bad)
+ .byte 255,157,255,255,255,138 // lcall *-0x75000001(%rbp)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 238 // out %al,(%dx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 218,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,198 // inc %esi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+ .byte 179,255 // mov $0xff,%bl
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_gather_1010102_skx
+.globl _sk_gather_1010102_skx
+FUNCTION(_sk_gather_1010102_skx)
+_sk_gather_1010102_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
+ .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
+ .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
+ .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
+ .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
+ .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
+ .byte 98,242,117,56,64,72,2 // vpmulld 0x8(%rax){1to8},%ymm1,%ymm1
+ .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
+ .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
+ .byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
+ .byte 196,226,125,88,21,92,102,3,0 // vpbroadcastd 0x3665c(%rip),%ymm2 # 3ba6c <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 197,189,219,194 // vpand %ymm2,%ymm8,%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,226,125,24,29,79,102,3,0 // vbroadcastss 0x3664f(%rip),%ymm3 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
+ .byte 196,193,117,114,208,10 // vpsrld $0xa,%ymm8,%ymm1
+ .byte 197,245,219,202 // vpand %ymm2,%ymm1,%ymm1
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
+ .byte 196,193,53,114,208,20 // vpsrld $0x14,%ymm8,%ymm9
+ .byte 197,181,219,210 // vpand %ymm2,%ymm9,%ymm2
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
+ .byte 196,193,101,114,208,30 // vpsrld $0x1e,%ymm8,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 98,241,100,56,89,29,95,101,3,0 // vmulps 0x3655f(%rip){1to8},%ymm3,%ymm3 # 3b9bc <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_store_1010102_skx
+.globl _sk_store_1010102_skx
+FUNCTION(_sk_store_1010102_skx)
+_sk_store_1010102_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,64,8 // movslq 0x8(%rax),%r8
+ .byte 76,15,175,193 // imul %rcx,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,21,204,100,3,0 // vbroadcastss 0x364cc(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,98,125,24,29,226,101,3,0 // vbroadcastss 0x365e2(%rip),%ymm11 # 3ba74 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
+ .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
+ .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
+ .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,29,114,244,10 // vpslld $0xa,%ymm12,%ymm12
+ .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
+ .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
+ .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
+ .byte 196,193,37,114,243,20 // vpslld $0x14,%ymm11,%ymm11
+ .byte 196,65,53,235,203 // vpor %ymm11,%ymm9,%ymm9
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 98,113,60,56,89,5,141,101,3,0 // vmulps 0x3658d(%rip){1to8},%ymm8,%ymm8 # 3ba78 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
+ .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
+ .byte 196,193,61,114,240,30 // vpslld $0x1e,%ymm8,%ymm8
+ .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,10 // jne 550a <_sk_store_1010102_skx+0xa9>
+ .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 137,248 // mov %edi,%eax
+ .byte 36,7 // and $0x7,%al
+ .byte 4,255 // add $0xff,%al
+ .byte 60,6 // cmp $0x6,%al
+ .byte 119,242 // ja 5506 <_sk_store_1010102_skx+0xa5>
+ .byte 15,182,192 // movzbl %al,%eax
+ .byte 76,141,13,90,0,0,0 // lea 0x5a(%rip),%r9 # 5578 <_sk_store_1010102_skx+0x117>
+ .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
+ .byte 76,1,200 // add %r9,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
+ .byte 235,215 // jmp 5506 <_sk_store_1010102_skx+0xa5>
+ .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
+ .byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
+ .byte 98,82,126,8,53,4,144 // vpmovqd %xmm8,(%r8,%rdx,4)
+ .byte 235,193 // jmp 5506 <_sk_store_1010102_skx+0xa5>
+ .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
+ .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
+ .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
+ .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
+ .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
+ .byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
+ .byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
+ .byte 235,144 // jmp 5506 <_sk_store_1010102_skx+0xa5>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 175 // scas %es:(%rdi),%eax
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 191,255,255,255,183 // mov $0xb7ffffff,%edi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,246 // push %rsi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 233,255,255,255,219 // jmpq ffffffffdc00558c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfc9eec>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -5066,7 +5376,7 @@ _sk_load_f16_skx:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne 51b3 <_sk_load_f16_skx+0x7b>
+ .byte 117,101 // jne 560f <_sk_load_f16_skx+0x7b>
.byte 196,65,121,16,4,208 // vmovupd (%r8,%rdx,8),%xmm8
.byte 196,193,121,16,84,208,16 // vmovupd 0x10(%r8,%rdx,8),%xmm2
.byte 196,193,121,16,76,208,32 // vmovupd 0x20(%r8,%rdx,8),%xmm1
@@ -5092,29 +5402,29 @@ _sk_load_f16_skx:
.byte 196,65,123,16,4,208 // vmovsd (%r8,%rdx,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 5219 <_sk_load_f16_skx+0xe1>
+ .byte 116,85 // je 5675 <_sk_load_f16_skx+0xe1>
.byte 196,65,57,22,68,208,8 // vmovhpd 0x8(%r8,%rdx,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 5219 <_sk_load_f16_skx+0xe1>
+ .byte 114,72 // jb 5675 <_sk_load_f16_skx+0xe1>
.byte 196,193,123,16,84,208,16 // vmovsd 0x10(%r8,%rdx,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 5226 <_sk_load_f16_skx+0xee>
+ .byte 116,72 // je 5682 <_sk_load_f16_skx+0xee>
.byte 196,193,105,22,84,208,24 // vmovhpd 0x18(%r8,%rdx,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 5226 <_sk_load_f16_skx+0xee>
+ .byte 114,59 // jb 5682 <_sk_load_f16_skx+0xee>
.byte 196,193,123,16,76,208,32 // vmovsd 0x20(%r8,%rdx,8),%xmm1
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je 5169 <_sk_load_f16_skx+0x31>
+ .byte 15,132,109,255,255,255 // je 55c5 <_sk_load_f16_skx+0x31>
.byte 196,193,113,22,76,208,40 // vmovhpd 0x28(%r8,%rdx,8),%xmm1,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb 5169 <_sk_load_f16_skx+0x31>
+ .byte 15,130,92,255,255,255 // jb 55c5 <_sk_load_f16_skx+0x31>
.byte 196,65,122,126,76,208,48 // vmovq 0x30(%r8,%rdx,8),%xmm9
- .byte 233,80,255,255,255 // jmpq 5169 <_sk_load_f16_skx+0x31>
+ .byte 233,80,255,255,255 // jmpq 55c5 <_sk_load_f16_skx+0x31>
.byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,67,255,255,255 // jmpq 5169 <_sk_load_f16_skx+0x31>
+ .byte 233,67,255,255,255 // jmpq 55c5 <_sk_load_f16_skx+0x31>
.byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
- .byte 233,58,255,255,255 // jmpq 5169 <_sk_load_f16_skx+0x31>
+ .byte 233,58,255,255,255 // jmpq 55c5 <_sk_load_f16_skx+0x31>
HIDDEN _sk_load_f16_dst_skx
.globl _sk_load_f16_dst_skx
@@ -5126,7 +5436,7 @@ _sk_load_f16_dst_skx:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne 52aa <_sk_load_f16_dst_skx+0x7b>
+ .byte 117,101 // jne 5706 <_sk_load_f16_dst_skx+0x7b>
.byte 196,65,121,16,4,208 // vmovupd (%r8,%rdx,8),%xmm8
.byte 196,193,121,16,116,208,16 // vmovupd 0x10(%r8,%rdx,8),%xmm6
.byte 196,193,121,16,108,208,32 // vmovupd 0x20(%r8,%rdx,8),%xmm5
@@ -5152,29 +5462,29 @@ _sk_load_f16_dst_skx:
.byte 196,65,123,16,4,208 // vmovsd (%r8,%rdx,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 5310 <_sk_load_f16_dst_skx+0xe1>
+ .byte 116,85 // je 576c <_sk_load_f16_dst_skx+0xe1>
.byte 196,65,57,22,68,208,8 // vmovhpd 0x8(%r8,%rdx,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 5310 <_sk_load_f16_dst_skx+0xe1>
+ .byte 114,72 // jb 576c <_sk_load_f16_dst_skx+0xe1>
.byte 196,193,123,16,116,208,16 // vmovsd 0x10(%r8,%rdx,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 531d <_sk_load_f16_dst_skx+0xee>
+ .byte 116,72 // je 5779 <_sk_load_f16_dst_skx+0xee>
.byte 196,193,73,22,116,208,24 // vmovhpd 0x18(%r8,%rdx,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 531d <_sk_load_f16_dst_skx+0xee>
+ .byte 114,59 // jb 5779 <_sk_load_f16_dst_skx+0xee>
.byte 196,193,123,16,108,208,32 // vmovsd 0x20(%r8,%rdx,8),%xmm5
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je 5260 <_sk_load_f16_dst_skx+0x31>
+ .byte 15,132,109,255,255,255 // je 56bc <_sk_load_f16_dst_skx+0x31>
.byte 196,193,81,22,108,208,40 // vmovhpd 0x28(%r8,%rdx,8),%xmm5,%xmm5
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb 5260 <_sk_load_f16_dst_skx+0x31>
+ .byte 15,130,92,255,255,255 // jb 56bc <_sk_load_f16_dst_skx+0x31>
.byte 196,65,122,126,76,208,48 // vmovq 0x30(%r8,%rdx,8),%xmm9
- .byte 233,80,255,255,255 // jmpq 5260 <_sk_load_f16_dst_skx+0x31>
+ .byte 233,80,255,255,255 // jmpq 56bc <_sk_load_f16_dst_skx+0x31>
.byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,67,255,255,255 // jmpq 5260 <_sk_load_f16_dst_skx+0x31>
+ .byte 233,67,255,255,255 // jmpq 56bc <_sk_load_f16_dst_skx+0x31>
.byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5
- .byte 233,58,255,255,255 // jmpq 5260 <_sk_load_f16_dst_skx+0x31>
+ .byte 233,58,255,255,255 // jmpq 56bc <_sk_load_f16_dst_skx+0x31>
HIDDEN _sk_gather_f16_skx
.globl _sk_gather_f16_skx
@@ -5247,7 +5557,7 @@ _sk_store_f16_skx:
.byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
.byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 5465 <_sk_store_f16_skx+0x75>
+ .byte 117,31 // jne 58c1 <_sk_store_f16_skx+0x75>
.byte 196,65,122,127,28,208 // vmovdqu %xmm11,(%r8,%rdx,8)
.byte 196,65,122,127,84,208,16 // vmovdqu %xmm10,0x10(%r8,%rdx,8)
.byte 196,65,122,127,76,208,32 // vmovdqu %xmm9,0x20(%r8,%rdx,8)
@@ -5256,22 +5566,22 @@ _sk_store_f16_skx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,208 // vmovq %xmm11,(%r8,%rdx,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 5461 <_sk_store_f16_skx+0x71>
+ .byte 116,240 // je 58bd <_sk_store_f16_skx+0x71>
.byte 196,65,121,23,92,208,8 // vmovhpd %xmm11,0x8(%r8,%rdx,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 5461 <_sk_store_f16_skx+0x71>
+ .byte 114,227 // jb 58bd <_sk_store_f16_skx+0x71>
.byte 196,65,121,214,84,208,16 // vmovq %xmm10,0x10(%r8,%rdx,8)
- .byte 116,218 // je 5461 <_sk_store_f16_skx+0x71>
+ .byte 116,218 // je 58bd <_sk_store_f16_skx+0x71>
.byte 196,65,121,23,84,208,24 // vmovhpd %xmm10,0x18(%r8,%rdx,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 5461 <_sk_store_f16_skx+0x71>
+ .byte 114,205 // jb 58bd <_sk_store_f16_skx+0x71>
.byte 196,65,121,214,76,208,32 // vmovq %xmm9,0x20(%r8,%rdx,8)
- .byte 116,196 // je 5461 <_sk_store_f16_skx+0x71>
+ .byte 116,196 // je 58bd <_sk_store_f16_skx+0x71>
.byte 196,65,121,23,76,208,40 // vmovhpd %xmm9,0x28(%r8,%rdx,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 5461 <_sk_store_f16_skx+0x71>
+ .byte 114,183 // jb 58bd <_sk_store_f16_skx+0x71>
.byte 196,65,121,214,68,208,48 // vmovq %xmm8,0x30(%r8,%rdx,8)
- .byte 235,174 // jmp 5461 <_sk_store_f16_skx+0x71>
+ .byte 235,174 // jmp 58bd <_sk_store_f16_skx+0x71>
HIDDEN _sk_load_u16_be_skx
.globl _sk_load_u16_be_skx
@@ -5284,7 +5594,7 @@ _sk_load_u16_be_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,204,0,0,0 // jne 55a0 <_sk_load_u16_be_skx+0xed>
+ .byte 15,133,204,0,0,0 // jne 59fc <_sk_load_u16_be_skx+0xed>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -5303,7 +5613,7 @@ _sk_load_u16_be_skx:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,11,79,3,0 // vbroadcastss 0x34f0b(%rip),%ymm10 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,21,83,96,3,0 // vbroadcastss 0x36053(%rip),%ymm10 # 3b9e4 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -5331,29 +5641,29 @@ _sk_load_u16_be_skx:
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 5606 <_sk_load_u16_be_skx+0x153>
+ .byte 116,85 // je 5a62 <_sk_load_u16_be_skx+0x153>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 5606 <_sk_load_u16_be_skx+0x153>
+ .byte 114,72 // jb 5a62 <_sk_load_u16_be_skx+0x153>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 5613 <_sk_load_u16_be_skx+0x160>
+ .byte 116,72 // je 5a6f <_sk_load_u16_be_skx+0x160>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 5613 <_sk_load_u16_be_skx+0x160>
+ .byte 114,59 // jb 5a6f <_sk_load_u16_be_skx+0x160>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,6,255,255,255 // je 54ef <_sk_load_u16_be_skx+0x3c>
+ .byte 15,132,6,255,255,255 // je 594b <_sk_load_u16_be_skx+0x3c>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,245,254,255,255 // jb 54ef <_sk_load_u16_be_skx+0x3c>
+ .byte 15,130,245,254,255,255 // jb 594b <_sk_load_u16_be_skx+0x3c>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,233,254,255,255 // jmpq 54ef <_sk_load_u16_be_skx+0x3c>
+ .byte 233,233,254,255,255 // jmpq 594b <_sk_load_u16_be_skx+0x3c>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,220,254,255,255 // jmpq 54ef <_sk_load_u16_be_skx+0x3c>
+ .byte 233,220,254,255,255 // jmpq 594b <_sk_load_u16_be_skx+0x3c>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,211,254,255,255 // jmpq 54ef <_sk_load_u16_be_skx+0x3c>
+ .byte 233,211,254,255,255 // jmpq 594b <_sk_load_u16_be_skx+0x3c>
HIDDEN _sk_load_rgb_u16_be_skx
.globl _sk_load_rgb_u16_be_skx
@@ -5366,7 +5676,7 @@ _sk_load_rgb_u16_be_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,202,0,0,0 // jne 5703 <_sk_load_rgb_u16_be_skx+0xe7>
+ .byte 15,133,202,0,0,0 // jne 5b5f <_sk_load_rgb_u16_be_skx+0xe7>
.byte 196,1,121,16,28,72 // vmovupd (%r8,%r9,2),%xmm11
.byte 196,129,121,16,92,72,12 // vmovupd 0xc(%r8,%r9,2),%xmm3
.byte 196,129,121,16,84,72,24 // vmovupd 0x18(%r8,%r9,2),%xmm2
@@ -5390,7 +5700,7 @@ _sk_load_rgb_u16_be_skx:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,139,77,3,0 // vbroadcastss 0x34d8b(%rip),%ymm9 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,211,94,3,0 // vbroadcastss 0x35ed3(%rip),%ymm9 # 3b9e4 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -5406,69 +5716,69 @@ _sk_load_rgb_u16_be_skx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,171,76,3,0 // vbroadcastss 0x34cab(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,243,93,3,0 // vbroadcastss 0x35df3(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 573b <_sk_load_rgb_u16_be_skx+0x11f>
+ .byte 117,31 // jne 5b97 <_sk_load_rgb_u16_be_skx+0x11f>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,48,255,255,255 // jmpq 566b <_sk_load_rgb_u16_be_skx+0x4f>
+ .byte 233,48,255,255,255 // jmpq 5ac7 <_sk_load_rgb_u16_be_skx+0x4f>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 5785 <_sk_load_rgb_u16_be_skx+0x169>
+ .byte 114,48 // jb 5be1 <_sk_load_rgb_u16_be_skx+0x169>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 579f <_sk_load_rgb_u16_be_skx+0x183>
+ .byte 117,48 // jne 5bfb <_sk_load_rgb_u16_be_skx+0x183>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,230,254,255,255 // jmpq 566b <_sk_load_rgb_u16_be_skx+0x4f>
+ .byte 233,230,254,255,255 // jmpq 5ac7 <_sk_load_rgb_u16_be_skx+0x4f>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,204,254,255,255 // jmpq 566b <_sk_load_rgb_u16_be_skx+0x4f>
+ .byte 233,204,254,255,255 // jmpq 5ac7 <_sk_load_rgb_u16_be_skx+0x4f>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 57e0 <_sk_load_rgb_u16_be_skx+0x1c4>
+ .byte 114,39 // jb 5c3c <_sk_load_rgb_u16_be_skx+0x1c4>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 57f1 <_sk_load_rgb_u16_be_skx+0x1d5>
+ .byte 117,30 // jne 5c4d <_sk_load_rgb_u16_be_skx+0x1d5>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,139,254,255,255 // jmpq 566b <_sk_load_rgb_u16_be_skx+0x4f>
+ .byte 233,139,254,255,255 // jmpq 5ac7 <_sk_load_rgb_u16_be_skx+0x4f>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,122,254,255,255 // jmpq 566b <_sk_load_rgb_u16_be_skx+0x4f>
+ .byte 233,122,254,255,255 // jmpq 5ac7 <_sk_load_rgb_u16_be_skx+0x4f>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 5824 <_sk_load_rgb_u16_be_skx+0x208>
+ .byte 114,25 // jb 5c80 <_sk_load_rgb_u16_be_skx+0x208>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,71,254,255,255 // jmpq 566b <_sk_load_rgb_u16_be_skx+0x4f>
+ .byte 233,71,254,255,255 // jmpq 5ac7 <_sk_load_rgb_u16_be_skx+0x4f>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,62,254,255,255 // jmpq 566b <_sk_load_rgb_u16_be_skx+0x4f>
+ .byte 233,62,254,255,255 // jmpq 5ac7 <_sk_load_rgb_u16_be_skx+0x4f>
HIDDEN _sk_store_u16_be_skx
.globl _sk_store_u16_be_skx
@@ -5482,9 +5792,9 @@ _sk_store_u16_be_skx:
.byte 76,3,8 // add (%rax),%r9
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,85,75,3,0 // vbroadcastss 0x34b55(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,157,92,3,0 // vbroadcastss 0x35c9d(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,99,76,3,0 // vbroadcastss 0x34c63(%rip),%ymm11 # 3a4c8 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 196,98,125,24,29,187,93,3,0 // vbroadcastss 0x35dbb(%rip),%ymm11 # 3ba7c <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,57,204,1 // vextracti128 $0x1,%ymm9,%xmm12
@@ -5528,7 +5838,7 @@ _sk_store_u16_be_skx:
.byte 196,65,25,98,200 // vpunpckldq %xmm8,%xmm12,%xmm9
.byte 196,65,25,106,192 // vpunpckhdq %xmm8,%xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 5964 <_sk_store_u16_be_skx+0x137>
+ .byte 117,31 // jne 5dc0 <_sk_store_u16_be_skx+0x137>
.byte 196,1,122,127,28,65 // vmovdqu %xmm11,(%r9,%r8,2)
.byte 196,1,122,127,84,65,16 // vmovdqu %xmm10,0x10(%r9,%r8,2)
.byte 196,1,122,127,76,65,32 // vmovdqu %xmm9,0x20(%r9,%r8,2)
@@ -5537,22 +5847,22 @@ _sk_store_u16_be_skx:
.byte 255,224 // jmpq *%rax
.byte 196,1,121,214,28,65 // vmovq %xmm11,(%r9,%r8,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 5960 <_sk_store_u16_be_skx+0x133>
+ .byte 116,240 // je 5dbc <_sk_store_u16_be_skx+0x133>
.byte 196,1,121,23,92,65,8 // vmovhpd %xmm11,0x8(%r9,%r8,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 5960 <_sk_store_u16_be_skx+0x133>
+ .byte 114,227 // jb 5dbc <_sk_store_u16_be_skx+0x133>
.byte 196,1,121,214,84,65,16 // vmovq %xmm10,0x10(%r9,%r8,2)
- .byte 116,218 // je 5960 <_sk_store_u16_be_skx+0x133>
+ .byte 116,218 // je 5dbc <_sk_store_u16_be_skx+0x133>
.byte 196,1,121,23,84,65,24 // vmovhpd %xmm10,0x18(%r9,%r8,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 5960 <_sk_store_u16_be_skx+0x133>
+ .byte 114,205 // jb 5dbc <_sk_store_u16_be_skx+0x133>
.byte 196,1,121,214,76,65,32 // vmovq %xmm9,0x20(%r9,%r8,2)
- .byte 116,196 // je 5960 <_sk_store_u16_be_skx+0x133>
+ .byte 116,196 // je 5dbc <_sk_store_u16_be_skx+0x133>
.byte 196,1,121,23,76,65,40 // vmovhpd %xmm9,0x28(%r9,%r8,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 5960 <_sk_store_u16_be_skx+0x133>
+ .byte 114,183 // jb 5dbc <_sk_store_u16_be_skx+0x133>
.byte 196,1,121,214,68,65,48 // vmovq %xmm8,0x30(%r9,%r8,2)
- .byte 235,174 // jmp 5960 <_sk_store_u16_be_skx+0x133>
+ .byte 235,174 // jmp 5dbc <_sk_store_u16_be_skx+0x133>
HIDDEN _sk_load_f32_skx
.globl _sk_load_f32_skx
@@ -5562,13 +5872,13 @@ _sk_load_f32_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,57,1,0,0 // ja 5b01 <_sk_load_f32_skx+0x14f>
+ .byte 15,135,57,1,0,0 // ja 5f5d <_sk_load_f32_skx+0x14f>
.byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
.byte 76,99,72,8 // movslq 0x8(%rax),%r9
.byte 76,15,175,201 // imul %rcx,%r9
.byte 73,193,225,2 // shl $0x2,%r9
.byte 76,3,8 // add (%rax),%r9
- .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 5b14 <_sk_load_f32_skx+0x162>
+ .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 5f70 <_sk_load_f32_skx+0x162>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
@@ -5627,7 +5937,7 @@ _sk_load_f32_skx:
.byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
.byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,196 // jmp 5ad5 <_sk_load_f32_skx+0x123>
+ .byte 235,196 // jmp 5f31 <_sk_load_f32_skx+0x123>
.byte 15,31,0 // nopl (%rax)
.byte 37,255,255,255,181 // and $0xb5ffffff,%eax
.byte 255 // (bad)
@@ -5656,13 +5966,13 @@ _sk_load_f32_dst_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,59,1,0,0 // ja 5c85 <_sk_load_f32_dst_skx+0x151>
+ .byte 15,135,59,1,0,0 // ja 60e1 <_sk_load_f32_dst_skx+0x151>
.byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
.byte 76,99,72,8 // movslq 0x8(%rax),%r9
.byte 76,15,175,201 // imul %rcx,%r9
.byte 73,193,225,2 // shl $0x2,%r9
.byte 76,3,8 // add (%rax),%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 5c98 <_sk_load_f32_dst_skx+0x164>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 60f4 <_sk_load_f32_dst_skx+0x164>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
@@ -5721,7 +6031,7 @@ _sk_load_f32_dst_skx:
.byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
.byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,194 // jmp 5c57 <_sk_load_f32_dst_skx+0x123>
+ .byte 235,194 // jmp 60b3 <_sk_load_f32_dst_skx+0x123>
.byte 15,31,0 // nopl (%rax)
.byte 35,255 // and %edi,%edi
.byte 255 // (bad)
@@ -5758,7 +6068,7 @@ _sk_store_f32_skx:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne 5d31 <_sk_store_f32_skx+0x79>
+ .byte 117,55 // jne 618d <_sk_store_f32_skx+0x79>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -5771,22 +6081,22 @@ _sk_store_f32_skx:
.byte 255,224 // jmpq *%rax
.byte 196,1,121,17,20,136 // vmovupd %xmm10,(%r8,%r9,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 5d2d <_sk_store_f32_skx+0x75>
+ .byte 116,240 // je 6189 <_sk_store_f32_skx+0x75>
.byte 196,1,121,17,76,136,16 // vmovupd %xmm9,0x10(%r8,%r9,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 5d2d <_sk_store_f32_skx+0x75>
+ .byte 114,227 // jb 6189 <_sk_store_f32_skx+0x75>
.byte 196,1,121,17,68,136,32 // vmovupd %xmm8,0x20(%r8,%r9,4)
- .byte 116,218 // je 5d2d <_sk_store_f32_skx+0x75>
+ .byte 116,218 // je 6189 <_sk_store_f32_skx+0x75>
.byte 196,1,121,17,92,136,48 // vmovupd %xmm11,0x30(%r8,%r9,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 5d2d <_sk_store_f32_skx+0x75>
+ .byte 114,205 // jb 6189 <_sk_store_f32_skx+0x75>
.byte 196,3,125,25,84,136,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%r9,4)
- .byte 116,195 // je 5d2d <_sk_store_f32_skx+0x75>
+ .byte 116,195 // je 6189 <_sk_store_f32_skx+0x75>
.byte 196,3,125,25,76,136,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%r9,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb 5d2d <_sk_store_f32_skx+0x75>
+ .byte 114,181 // jb 6189 <_sk_store_f32_skx+0x75>
.byte 196,3,125,25,68,136,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%r9,4)
- .byte 235,171 // jmp 5d2d <_sk_store_f32_skx+0x75>
+ .byte 235,171 // jmp 6189 <_sk_store_f32_skx+0x75>
HIDDEN _sk_repeat_x_skx
.globl _sk_repeat_x_skx
@@ -5823,7 +6133,7 @@ _sk_mirror_x_skx:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,197,69,3,0 // vmulss 0x345c5(%rip),%xmm9,%xmm0 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,5,13,87,3,0 // vmulss 0x3570d(%rip),%xmm9,%xmm0 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -5846,7 +6156,7 @@ _sk_mirror_y_skx:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,116,69,3,0 // vmulss 0x34574(%rip),%xmm9,%xmm1 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,13,188,86,3,0 // vmulss 0x356bc(%rip),%xmm9,%xmm1 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -5864,7 +6174,7 @@ FUNCTION(_sk_clamp_x_1_skx)
_sk_clamp_x_1_skx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,59,69,3,0 // vminps 0x3453b(%rip){1to8},%ymm0,%ymm0 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,131,86,3,0 // vminps 0x35683(%rip){1to8},%ymm0,%ymm0 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -5876,7 +6186,7 @@ _sk_repeat_x_1_skx:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,25,69,3,0 // vminps 0x34519(%rip){1to8},%ymm0,%ymm0 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,97,86,3,0 // vminps 0x35661(%rip){1to8},%ymm0,%ymm0 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -5884,9 +6194,9 @@ HIDDEN _sk_mirror_x_1_skx
.globl _sk_mirror_x_1_skx
FUNCTION(_sk_mirror_x_1_skx)
_sk_mirror_x_1_skx:
- .byte 196,98,125,24,5,36,69,3,0 // vbroadcastss 0x34524(%rip),%ymm8 # 3a3c4 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,108,86,3,0 // vbroadcastss 0x3566c(%rip),%ymm8 # 3b968 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 98,113,124,56,89,13,249,68,3,0 // vmulps 0x344f9(%rip){1to8},%ymm0,%ymm9 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,113,124,56,89,13,65,86,3,0 // vmulps 0x35641(%rip){1to8},%ymm0,%ymm9 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
.byte 196,193,124,92,193 // vsubps %ymm9,%ymm0,%ymm0
@@ -5895,7 +6205,7 @@ _sk_mirror_x_1_skx:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,205,68,3,0 // vminps 0x344cd(%rip){1to8},%ymm0,%ymm0 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,21,86,3,0 // vminps 0x35615(%rip){1to8},%ymm0,%ymm0 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -5903,9 +6213,9 @@ HIDDEN _sk_luminance_to_alpha_skx
.globl _sk_luminance_to_alpha_skx
FUNCTION(_sk_luminance_to_alpha_skx)
_sk_luminance_to_alpha_skx:
- .byte 98,241,116,56,89,29,223,69,3,0 // vmulps 0x345df(%rip){1to8},%ymm1,%ymm3 # 3a4cc <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- .byte 98,242,125,56,184,29,217,69,3,0 // vfmadd231ps 0x345d9(%rip){1to8},%ymm0,%ymm3 # 3a4d0 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
- .byte 98,242,109,56,184,29,211,69,3,0 // vfmadd231ps 0x345d3(%rip){1to8},%ymm2,%ymm3 # 3a4d4 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
+ .byte 98,241,116,56,89,29,55,87,3,0 // vmulps 0x35737(%rip){1to8},%ymm1,%ymm3 # 3ba80 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 98,242,125,56,184,29,49,87,3,0 // vfmadd231ps 0x35731(%rip){1to8},%ymm0,%ymm3 # 3ba84 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 98,242,109,56,184,29,43,87,3,0 // vfmadd231ps 0x3572b(%rip){1to8},%ymm2,%ymm3 # 3ba88 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
@@ -6087,7 +6397,7 @@ _sk_evenly_spaced_gradient_skx:
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,126,91,209 // vcvttps2dq %ymm1,%ymm10
.byte 73,131,249,8 // cmp $0x8,%r9
- .byte 119,73 // ja 61ff <_sk_evenly_spaced_gradient_skx+0x70>
+ .byte 119,73 // ja 665b <_sk_evenly_spaced_gradient_skx+0x70>
.byte 196,66,45,22,0 // vpermps (%r8),%ymm10,%ymm8
.byte 76,139,64,40 // mov 0x28(%rax),%r8
.byte 196,66,45,22,8 // vpermps (%r8),%ymm10,%ymm9
@@ -6103,7 +6413,7 @@ _sk_evenly_spaced_gradient_skx:
.byte 196,194,45,22,24 // vpermps (%r8),%ymm10,%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,98,45,22,40 // vpermps (%rax),%ymm10,%ymm13
- .byte 233,147,0,0,0 // jmpq 6292 <_sk_evenly_spaced_gradient_skx+0x103>
+ .byte 233,147,0,0,0 // jmpq 66ee <_sk_evenly_spaced_gradient_skx+0x103>
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,2,117,146,4,144 // vgatherdps %ymm1,(%r8,%ymm10,4),%ymm8
@@ -6150,11 +6460,11 @@ _sk_gradient_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 15,134,229,0,0,0 // jbe 63a2 <_sk_gradient_skx+0xf4>
+ .byte 15,134,229,0,0,0 // jbe 67fe <_sk_gradient_skx+0xf4>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,220,64,3,0 // vbroadcastss 0x340dc(%rip),%ymm2 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,226,125,24,21,36,82,3,0 // vbroadcastss 0x35224(%rip),%ymm2 # 3b954 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
.byte 98,241,100,40,194,192,2 // vcmpleps %ymm0,%ymm3,%k0
@@ -6163,10 +6473,10 @@ _sk_gradient_skx:
.byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9
.byte 73,131,194,1 // add $0x1,%r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,218 // jne 62d9 <_sk_gradient_skx+0x2b>
+ .byte 117,218 // jne 6735 <_sk_gradient_skx+0x2b>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,134,158,0,0,0 // jbe 63ab <_sk_gradient_skx+0xfd>
+ .byte 15,134,158,0,0,0 // jbe 6807 <_sk_gradient_skx+0xfd>
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,2,117,146,4,137 // vgatherdps %ymm1,(%r9,%ymm9,4),%ymm8
@@ -6198,7 +6508,7 @@ _sk_gradient_skx:
.byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,34,13,146,44,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm13
- .byte 235,77 // jmp 63ef <_sk_gradient_skx+0x141>
+ .byte 235,77 // jmp 684b <_sk_gradient_skx+0x141>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8
@@ -6254,24 +6564,24 @@ _sk_xy_to_unit_angle_skx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,94,64,3,0 // vbroadcastss 0x3405e(%rip),%ymm13 # 3a4d8 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- .byte 98,114,29,56,168,45,88,64,3,0 // vfmadd213ps 0x34058(%rip){1to8},%ymm12,%ymm13 # 3a4dc <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
- .byte 98,114,29,56,168,45,82,64,3,0 // vfmadd213ps 0x34052(%rip){1to8},%ymm12,%ymm13 # 3a4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
- .byte 98,114,29,56,168,45,76,64,3,0 // vfmadd213ps 0x3404c(%rip){1to8},%ymm12,%ymm13 # 3a4e4 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,45,182,81,3,0 // vbroadcastss 0x351b6(%rip),%ymm13 # 3ba8c <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 98,114,29,56,168,45,176,81,3,0 // vfmadd213ps 0x351b0(%rip){1to8},%ymm12,%ymm13 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 98,114,29,56,168,45,170,81,3,0 // vfmadd213ps 0x351aa(%rip){1to8},%ymm12,%ymm13 # 3ba94 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 98,114,29,56,168,45,164,81,3,0 // vfmadd213ps 0x351a4(%rip){1to8},%ymm12,%ymm13 # 3ba98 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,65,36,89,221 // vmulps %ymm13,%ymm11,%ymm11
.byte 98,209,52,40,194,194,1 // vcmpltps %ymm10,%ymm9,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,53,64,3,0 // vbroadcastss 0x34035(%rip),%ymm10 # 3a4e8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,21,141,81,3,0 // vbroadcastss 0x3518d(%rip),%ymm10 # 3ba9c <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 98,209,124,40,194,192,1 // vcmpltps %ymm8,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
- .byte 196,98,125,24,21,212,62,3,0 // vbroadcastss 0x33ed4(%rip),%ymm10 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,28,80,3,0 // vbroadcastss 0x3501c(%rip),%ymm10 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 98,209,116,40,194,192,1 // vcmpltps %ymm8,%ymm1,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,183,62,3,0 // vbroadcastss 0x33eb7(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,255,79,3,0 // vbroadcastss 0x34fff(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 98,209,124,40,194,192,3 // vcmpunordps %ymm8,%ymm0,%k0
@@ -6294,7 +6604,7 @@ HIDDEN _sk_negate_x_skx
.globl _sk_negate_x_skx
FUNCTION(_sk_negate_x_skx)
_sk_negate_x_skx:
- .byte 98,241,124,56,87,5,186,63,3,0 // vxorps 0x33fba(%rip){1to8},%ymm0,%ymm0 # 3a4ec <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 98,241,124,56,87,5,18,81,3,0 // vxorps 0x35112(%rip){1to8},%ymm0,%ymm0 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6373,7 +6683,7 @@ HIDDEN _sk_alter_2pt_conical_unswap_skx
.globl _sk_alter_2pt_conical_unswap_skx
FUNCTION(_sk_alter_2pt_conical_unswap_skx)
_sk_alter_2pt_conical_unswap_skx:
- .byte 196,98,125,24,5,214,61,3,0 // vbroadcastss 0x33dd6(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,30,79,3,0 // vbroadcastss 0x34f1e(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6426,7 +6736,7 @@ HIDDEN _sk_save_xy_skx
FUNCTION(_sk_save_xy_skx)
_sk_save_xy_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,75,61,3,0 // vbroadcastss 0x33d4b(%rip),%ymm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,147,78,3,0 // vbroadcastss 0x34e93(%rip),%ymm8 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -6461,8 +6771,8 @@ FUNCTION(_sk_bilinear_nx_skx)
_sk_bilinear_nx_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,24,62,3,0 // vaddps 0x33e18(%rip){1to8},%ymm0,%ymm0 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
- .byte 196,98,125,24,5,203,60,3,0 // vbroadcastss 0x33ccb(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,88,5,112,79,3,0 // vaddps 0x34f70(%rip){1to8},%ymm0,%ymm0 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,5,19,78,3,0 // vbroadcastss 0x34e13(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6475,7 +6785,7 @@ _sk_bilinear_px_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
- .byte 98,241,124,56,88,5,155,60,3,0 // vaddps 0x33c9b(%rip){1to8},%ymm0,%ymm0 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,241,124,56,88,5,227,77,3,0 // vaddps 0x34de3(%rip){1to8},%ymm0,%ymm0 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6486,8 +6796,8 @@ FUNCTION(_sk_bilinear_ny_skx)
_sk_bilinear_ny_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,198,61,3,0 // vaddps 0x33dc6(%rip){1to8},%ymm1,%ymm1 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
- .byte 196,98,125,24,5,121,60,3,0 // vbroadcastss 0x33c79(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,88,13,30,79,3,0 // vaddps 0x34f1e(%rip){1to8},%ymm1,%ymm1 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,5,193,77,3,0 // vbroadcastss 0x34dc1(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6500,7 +6810,7 @@ _sk_bilinear_py_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
- .byte 98,241,116,56,88,13,72,60,3,0 // vaddps 0x33c48(%rip){1to8},%ymm1,%ymm1 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,241,116,56,88,13,144,77,3,0 // vaddps 0x34d90(%rip){1to8},%ymm1,%ymm1 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6511,12 +6821,12 @@ FUNCTION(_sk_bicubic_n3x_skx)
_sk_bicubic_n3x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,120,61,3,0 // vaddps 0x33d78(%rip){1to8},%ymm0,%ymm0 # 3a4f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
- .byte 196,98,125,24,5,39,60,3,0 // vbroadcastss 0x33c27(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,88,5,208,78,3,0 // vaddps 0x34ed0(%rip){1to8},%ymm0,%ymm0 # 3baa8 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,5,111,77,3,0 // vbroadcastss 0x34d6f(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,93,61,3,0 // vbroadcastss 0x33d5d(%rip),%ymm10 # 3a4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 98,114,61,56,168,21,123,60,3,0 // vfmadd213ps 0x33c7b(%rip){1to8},%ymm8,%ymm10 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,181,78,3,0 // vbroadcastss 0x34eb5(%rip),%ymm10 # 3baac <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,114,61,56,168,21,195,77,3,0 // vfmadd213ps 0x34dc3(%rip){1to8},%ymm8,%ymm10 # 3b9c4 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6528,13 +6838,13 @@ FUNCTION(_sk_bicubic_n1x_skx)
_sk_bicubic_n1x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,42,61,3,0 // vaddps 0x33d2a(%rip){1to8},%ymm0,%ymm0 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
- .byte 196,98,125,24,5,221,59,3,0 // vbroadcastss 0x33bdd(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,88,5,130,78,3,0 // vaddps 0x34e82(%rip){1to8},%ymm0,%ymm0 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,5,37,77,3,0 // vbroadcastss 0x34d25(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,28,61,3,0 // vbroadcastss 0x33d1c(%rip),%ymm9 # 3a4fc <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- .byte 98,114,61,56,168,13,22,61,3,0 // vfmadd213ps 0x33d16(%rip){1to8},%ymm8,%ymm9 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 98,114,61,56,168,13,180,59,3,0 // vfmadd213ps 0x33bb4(%rip){1to8},%ymm8,%ymm9 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,61,56,168,13,6,61,3,0 // vfmadd213ps 0x33d06(%rip){1to8},%ymm8,%ymm9 # 3a504 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,116,78,3,0 // vbroadcastss 0x34e74(%rip),%ymm9 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 98,114,61,56,168,13,110,78,3,0 // vfmadd213ps 0x34e6e(%rip){1to8},%ymm8,%ymm9 # 3bab4 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 98,114,61,56,168,13,252,76,3,0 // vfmadd213ps 0x34cfc(%rip){1to8},%ymm8,%ymm9 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,61,56,168,13,94,78,3,0 // vfmadd213ps 0x34e5e(%rip){1to8},%ymm8,%ymm9 # 3bab8 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 197,124,17,136,0,1,0,0 // vmovups %ymm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6544,13 +6854,13 @@ HIDDEN _sk_bicubic_p1x_skx
FUNCTION(_sk_bicubic_p1x_skx)
_sk_bicubic_p1x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,147,59,3,0 // vbroadcastss 0x33b93(%rip),%ymm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,219,76,3,0 // vbroadcastss 0x34cdb(%rip),%ymm8 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,210,60,3,0 // vbroadcastss 0x33cd2(%rip),%ymm10 # 3a4fc <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- .byte 98,114,53,56,168,21,204,60,3,0 // vfmadd213ps 0x33ccc(%rip){1to8},%ymm9,%ymm10 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,42,78,3,0 // vbroadcastss 0x34e2a(%rip),%ymm10 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 98,114,53,56,168,21,36,78,3,0 // vfmadd213ps 0x34e24(%rip){1to8},%ymm9,%ymm10 # 3bab4 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 98,114,53,56,168,21,193,60,3,0 // vfmadd213ps 0x33cc1(%rip){1to8},%ymm9,%ymm10 # 3a504 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 98,114,53,56,168,21,25,78,3,0 // vfmadd213ps 0x34e19(%rip){1to8},%ymm9,%ymm10 # 3bab8 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 197,124,17,144,0,1,0,0 // vmovups %ymm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6562,10 +6872,10 @@ _sk_bicubic_p3x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
- .byte 98,241,124,56,88,5,153,60,3,0 // vaddps 0x33c99(%rip){1to8},%ymm0,%ymm0 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 98,241,124,56,88,5,241,77,3,0 // vaddps 0x34df1(%rip){1to8},%ymm0,%ymm0 # 3bab4 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,131,60,3,0 // vbroadcastss 0x33c83(%rip),%ymm10 # 3a4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 98,114,61,56,168,21,161,59,3,0 // vfmadd213ps 0x33ba1(%rip){1to8},%ymm8,%ymm10 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,219,77,3,0 // vbroadcastss 0x34ddb(%rip),%ymm10 # 3baac <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,114,61,56,168,21,233,76,3,0 // vfmadd213ps 0x34ce9(%rip){1to8},%ymm8,%ymm10 # 3b9c4 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6577,12 +6887,12 @@ FUNCTION(_sk_bicubic_n3y_skx)
_sk_bicubic_n3y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,83,60,3,0 // vaddps 0x33c53(%rip){1to8},%ymm1,%ymm1 # 3a4f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
- .byte 196,98,125,24,5,2,59,3,0 // vbroadcastss 0x33b02(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,88,13,171,77,3,0 // vaddps 0x34dab(%rip){1to8},%ymm1,%ymm1 # 3baa8 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,5,74,76,3,0 // vbroadcastss 0x34c4a(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,56,60,3,0 // vbroadcastss 0x33c38(%rip),%ymm10 # 3a4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 98,114,61,56,168,21,86,59,3,0 // vfmadd213ps 0x33b56(%rip){1to8},%ymm8,%ymm10 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,144,77,3,0 // vbroadcastss 0x34d90(%rip),%ymm10 # 3baac <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,114,61,56,168,21,158,76,3,0 // vfmadd213ps 0x34c9e(%rip){1to8},%ymm8,%ymm10 # 3b9c4 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6594,13 +6904,13 @@ FUNCTION(_sk_bicubic_n1y_skx)
_sk_bicubic_n1y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,4,60,3,0 // vaddps 0x33c04(%rip){1to8},%ymm1,%ymm1 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
- .byte 196,98,125,24,5,183,58,3,0 // vbroadcastss 0x33ab7(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,88,13,92,77,3,0 // vaddps 0x34d5c(%rip){1to8},%ymm1,%ymm1 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,5,255,75,3,0 // vbroadcastss 0x34bff(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,246,59,3,0 // vbroadcastss 0x33bf6(%rip),%ymm9 # 3a4fc <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- .byte 98,114,61,56,168,13,240,59,3,0 // vfmadd213ps 0x33bf0(%rip){1to8},%ymm8,%ymm9 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 98,114,61,56,168,13,142,58,3,0 // vfmadd213ps 0x33a8e(%rip){1to8},%ymm8,%ymm9 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,61,56,168,13,224,59,3,0 // vfmadd213ps 0x33be0(%rip){1to8},%ymm8,%ymm9 # 3a504 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,78,77,3,0 // vbroadcastss 0x34d4e(%rip),%ymm9 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 98,114,61,56,168,13,72,77,3,0 // vfmadd213ps 0x34d48(%rip){1to8},%ymm8,%ymm9 # 3bab4 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 98,114,61,56,168,13,214,75,3,0 // vfmadd213ps 0x34bd6(%rip){1to8},%ymm8,%ymm9 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,61,56,168,13,56,77,3,0 // vfmadd213ps 0x34d38(%rip){1to8},%ymm8,%ymm9 # 3bab8 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 197,124,17,136,64,1,0,0 // vmovups %ymm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6610,13 +6920,13 @@ HIDDEN _sk_bicubic_p1y_skx
FUNCTION(_sk_bicubic_p1y_skx)
_sk_bicubic_p1y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,109,58,3,0 // vbroadcastss 0x33a6d(%rip),%ymm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,181,75,3,0 // vbroadcastss 0x34bb5(%rip),%ymm8 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
.byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,171,59,3,0 // vbroadcastss 0x33bab(%rip),%ymm10 # 3a4fc <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- .byte 98,114,53,56,168,21,165,59,3,0 // vfmadd213ps 0x33ba5(%rip){1to8},%ymm9,%ymm10 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,3,77,3,0 // vbroadcastss 0x34d03(%rip),%ymm10 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 98,114,53,56,168,21,253,76,3,0 // vfmadd213ps 0x34cfd(%rip){1to8},%ymm9,%ymm10 # 3bab4 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 98,114,53,56,168,21,154,59,3,0 // vfmadd213ps 0x33b9a(%rip){1to8},%ymm9,%ymm10 # 3a504 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 98,114,53,56,168,21,242,76,3,0 // vfmadd213ps 0x34cf2(%rip){1to8},%ymm9,%ymm10 # 3bab8 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 197,124,17,144,64,1,0,0 // vmovups %ymm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6628,10 +6938,10 @@ _sk_bicubic_p3y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
- .byte 98,241,116,56,88,13,113,59,3,0 // vaddps 0x33b71(%rip){1to8},%ymm1,%ymm1 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 98,241,116,56,88,13,201,76,3,0 // vaddps 0x34cc9(%rip){1to8},%ymm1,%ymm1 # 3bab4 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,91,59,3,0 // vbroadcastss 0x33b5b(%rip),%ymm10 # 3a4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 98,114,61,56,168,21,121,58,3,0 // vfmadd213ps 0x33a79(%rip){1to8},%ymm8,%ymm10 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,179,76,3,0 // vbroadcastss 0x34cb3(%rip),%ymm10 # 3baac <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,114,61,56,168,21,193,75,3,0 // vfmadd213ps 0x34bc1(%rip){1to8},%ymm8,%ymm10 # 3b9c4 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6757,7 +7067,7 @@ _sk_clut_3D_skx:
.byte 98,226,61,40,64,224 // vpmulld %ymm0,%ymm8,%ymm20
.byte 98,209,93,32,254,193 // vpaddd %ymm9,%ymm20,%ymm0
.byte 72,139,0 // mov (%rax),%rax
- .byte 98,98,125,40,88,29,101,57,3,0 // vpbroadcastd 0x33965(%rip),%ymm27 # 3a50c <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 98,98,125,40,88,29,189,74,3,0 // vpbroadcastd 0x34abd(%rip),%ymm27 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
.byte 98,146,125,40,64,195 // vpmulld %ymm27,%ymm0,%ymm0
.byte 196,65,45,239,210 // vpxor %ymm10,%ymm10,%ymm10
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
@@ -6770,9 +7080,9 @@ _sk_clut_3D_skx:
.byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
.byte 196,162,37,146,12,144 // vgatherdps %ymm11,(%rax,%ymm10,4),%ymm1
.byte 98,97,124,40,40,233 // vmovaps %ymm1,%ymm29
- .byte 196,98,125,24,21,27,57,3,0 // vbroadcastss 0x3391b(%rip),%ymm10 # 3a508 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,115,74,3,0 // vbroadcastss 0x34a73(%rip),%ymm10 # 3babc <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
.byte 98,81,60,32,88,218 // vaddps %ymm10,%ymm24,%ymm11
- .byte 98,226,125,40,88,5,187,55,3,0 // vpbroadcastd 0x337bb(%rip),%ymm16 # 3a3b8 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 98,226,125,40,88,5,3,73,3,0 // vpbroadcastd 0x34903(%rip),%ymm16 # 3b95c <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 98,177,125,40,254,192 // vpaddd %ymm16,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -7012,7 +7322,7 @@ _sk_clut_4D_skx:
.byte 98,162,45,40,64,229 // vpmulld %ymm21,%ymm10,%ymm20
.byte 98,241,93,32,254,193 // vpaddd %ymm1,%ymm20,%ymm0
.byte 72,139,0 // mov (%rax),%rax
- .byte 98,226,125,40,88,5,247,51,3,0 // vpbroadcastd 0x333f7(%rip),%ymm16 # 3a50c <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 98,226,125,40,88,5,79,69,3,0 // vpbroadcastd 0x3454f(%rip),%ymm16 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
.byte 98,50,125,40,64,216 // vpmulld %ymm16,%ymm0,%ymm11
.byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
.byte 197,253,118,192 // vpcmpeqd %ymm0,%ymm0,%ymm0
@@ -7024,9 +7334,9 @@ _sk_clut_4D_skx:
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
.byte 196,98,29,146,44,128 // vgatherdps %ymm12,(%rax,%ymm0,4),%ymm13
.byte 197,124,17,172,36,192,4,0,0 // vmovups %ymm13,0x4c0(%rsp)
- .byte 196,226,125,24,5,169,51,3,0 // vbroadcastss 0x333a9(%rip),%ymm0 # 3a508 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,5,1,69,3,0 // vbroadcastss 0x34501(%rip),%ymm0 # 3babc <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
.byte 98,113,28,32,88,224 // vaddps %ymm0,%ymm28,%ymm12
- .byte 98,226,125,40,88,13,73,50,3,0 // vpbroadcastd 0x33249(%rip),%ymm17 # 3a3b8 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 98,226,125,40,88,13,145,67,3,0 // vpbroadcastd 0x34391(%rip),%ymm17 # 3b95c <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 98,49,37,40,254,217 // vpaddd %ymm17,%ymm11,%ymm11
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
@@ -7431,7 +7741,7 @@ _sk_clut_4D_skx:
.byte 197,228,92,214 // vsubps %ymm6,%ymm3,%ymm2
.byte 196,226,93,168,214 // vfmadd213ps %ymm6,%ymm4,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,231,40,3,0 // vbroadcastss 0x328e7(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,47,58,3,0 // vbroadcastss 0x33a2f(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 98,145,124,40,40,227 // vmovaps %ymm27,%ymm4
.byte 197,252,16,108,36,128 // vmovups -0x80(%rsp),%ymm5
.byte 197,252,16,116,36,160 // vmovups -0x60(%rsp),%ymm6
@@ -7443,11 +7753,11 @@ HIDDEN _sk_gauss_a_to_rgba_skx
.globl _sk_gauss_a_to_rgba_skx
FUNCTION(_sk_gauss_a_to_rgba_skx)
_sk_gauss_a_to_rgba_skx:
- .byte 196,226,125,24,5,33,42,3,0 // vbroadcastss 0x32a21(%rip),%ymm0 # 3a510 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- .byte 98,242,101,56,168,5,27,42,3,0 // vfmadd213ps 0x32a1b(%rip){1to8},%ymm3,%ymm0 # 3a514 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- .byte 98,242,101,56,168,5,21,42,3,0 // vfmadd213ps 0x32a15(%rip){1to8},%ymm3,%ymm0 # 3a518 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
- .byte 98,242,101,56,168,5,15,42,3,0 // vfmadd213ps 0x32a0f(%rip){1to8},%ymm3,%ymm0 # 3a51c <_sk_srcover_bgra_8888_sse2_lowp+0x420>
- .byte 98,242,101,56,168,5,9,42,3,0 // vfmadd213ps 0x32a09(%rip){1to8},%ymm3,%ymm0 # 3a520 <_sk_srcover_bgra_8888_sse2_lowp+0x424>
+ .byte 196,226,125,24,5,121,59,3,0 // vbroadcastss 0x33b79(%rip),%ymm0 # 3bac4 <_sk_srcover_bgra_8888_sse2_lowp+0x424>
+ .byte 98,242,101,56,168,5,115,59,3,0 // vfmadd213ps 0x33b73(%rip){1to8},%ymm3,%ymm0 # 3bac8 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
+ .byte 98,242,101,56,168,5,109,59,3,0 // vfmadd213ps 0x33b6d(%rip){1to8},%ymm3,%ymm0 # 3bacc <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
+ .byte 98,242,101,56,168,5,103,59,3,0 // vfmadd213ps 0x33b67(%rip){1to8},%ymm3,%ymm0 # 3bad0 <_sk_srcover_bgra_8888_sse2_lowp+0x430>
+ .byte 98,242,101,56,168,5,97,59,3,0 // vfmadd213ps 0x33b61(%rip){1to8},%ymm3,%ymm0 # 3bad4 <_sk_srcover_bgra_8888_sse2_lowp+0x434>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
@@ -7463,7 +7773,7 @@ _sk_bilerp_clamp_8888_skx:
.byte 197,252,17,108,36,136 // vmovups %ymm5,-0x78(%rsp)
.byte 98,225,124,40,40,244 // vmovaps %ymm4,%ymm22
.byte 98,97,124,40,40,249 // vmovaps %ymm1,%ymm31
- .byte 196,226,125,24,21,90,40,3,0 // vbroadcastss 0x3285a(%rip),%ymm2 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,21,162,57,3,0 // vbroadcastss 0x339a2(%rip),%ymm2 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,88,218 // vaddps %ymm2,%ymm0,%ymm3
.byte 196,227,125,8,227,1 // vroundps $0x1,%ymm3,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -7471,7 +7781,7 @@ _sk_bilerp_clamp_8888_skx:
.byte 196,227,125,8,234,1 // vroundps $0x1,%ymm2,%ymm5
.byte 197,100,92,212 // vsubps %ymm4,%ymm3,%ymm10
.byte 197,236,92,205 // vsubps %ymm5,%ymm2,%ymm1
- .byte 196,226,125,24,21,53,40,3,0 // vbroadcastss 0x32835(%rip),%ymm2 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,21,125,57,3,0 // vbroadcastss 0x3397d(%rip),%ymm2 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,108,92,226 // vsubps %ymm10,%ymm2,%ymm12
.byte 98,225,124,40,40,217 // vmovaps %ymm1,%ymm19
.byte 98,225,108,40,92,233 // vsubps %ymm1,%ymm2,%ymm21
@@ -7482,13 +7792,13 @@ _sk_bilerp_clamp_8888_skx:
.byte 98,225,109,40,254,211 // vpaddd %ymm3,%ymm2,%ymm18
.byte 76,139,0 // mov (%rax),%r8
.byte 98,226,125,40,88,64,2 // vpbroadcastd 0x8(%rax),%ymm16
- .byte 98,225,126,8,16,13,58,41,3,0 // vmovss 0x3293a(%rip),%xmm17 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 98,225,126,8,16,13,146,58,3,0 // vmovss 0x33a92(%rip),%xmm17 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
.byte 197,192,87,255 // vxorps %xmm7,%xmm7,%xmm7
.byte 184,17,17,17,17 // mov $0x11111111,%eax
- .byte 98,226,125,40,24,37,86,40,3,0 // vbroadcastss 0x32856(%rip),%ymm20 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,250,16,53,214,39,3,0 // vmovss 0x327d6(%rip),%xmm6 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,250,16,45,202,39,3,0 // vmovss 0x327ca(%rip),%xmm5 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,226,125,40,24,37,158,57,3,0 // vbroadcastss 0x3399e(%rip),%ymm20 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 197,250,16,53,30,57,3,0 // vmovss 0x3391e(%rip),%xmm6 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 197,250,16,45,18,57,3,0 // vmovss 0x33912(%rip),%xmm5 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -7500,7 +7810,7 @@ _sk_bilerp_clamp_8888_skx:
.byte 98,97,124,8,46,207 // vucomiss %xmm7,%xmm25
.byte 98,177,124,40,40,203 // vmovaps %ymm19,%ymm1
.byte 98,225,124,40,40,249 // vmovaps %ymm1,%ymm23
- .byte 119,12 // ja 7c26 <_sk_bilerp_clamp_8888_skx+0xff>
+ .byte 119,12 // ja 8082 <_sk_bilerp_clamp_8888_skx+0xff>
.byte 98,177,124,40,40,205 // vmovaps %ymm21,%ymm1
.byte 98,225,124,40,40,249 // vmovaps %ymm1,%ymm23
.byte 98,177,92,40,93,226 // vminps %ymm18,%ymm4,%ymm4
@@ -7533,7 +7843,7 @@ _sk_bilerp_clamp_8888_skx:
.byte 98,33,116,40,89,236 // vmulps %ymm20,%ymm1,%ymm29
.byte 197,248,46,231 // vucomiss %xmm7,%xmm4
.byte 98,65,124,40,40,242 // vmovaps %ymm10,%ymm30
- .byte 119,6 // ja 7cd1 <_sk_bilerp_clamp_8888_skx+0x1aa>
+ .byte 119,6 // ja 812d <_sk_bilerp_clamp_8888_skx+0x1aa>
.byte 98,65,124,40,40,244 // vmovaps %ymm12,%ymm30
.byte 98,145,68,32,89,206 // vmulps %ymm30,%ymm23,%ymm1
.byte 98,18,117,40,184,202 // vfmadd231ps %ymm26,%ymm1,%ymm9
@@ -7542,10 +7852,10 @@ _sk_bilerp_clamp_8888_skx:
.byte 98,146,117,40,184,221 // vfmadd231ps %ymm29,%ymm1,%ymm3
.byte 197,218,88,230 // vaddss %xmm6,%xmm4,%xmm4
.byte 197,248,46,236 // vucomiss %xmm4,%xmm5
- .byte 15,131,63,255,255,255 // jae 7c3c <_sk_bilerp_clamp_8888_skx+0x115>
+ .byte 15,131,63,255,255,255 // jae 8098 <_sk_bilerp_clamp_8888_skx+0x115>
.byte 98,97,54,0,88,206 // vaddss %xmm6,%xmm25,%xmm25
.byte 98,145,124,8,46,233 // vucomiss %xmm25,%xmm5
- .byte 15,131,231,254,255,255 // jae 7bf6 <_sk_bilerp_clamp_8888_skx+0xcf>
+ .byte 15,131,231,254,255,255 // jae 8052 <_sk_bilerp_clamp_8888_skx+0xcf>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,124,41,200 // vmovaps %ymm9,%ymm0
.byte 197,124,41,193 // vmovaps %ymm8,%ymm1
@@ -7577,13 +7887,13 @@ _sk_start_pipeline_hsw:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 7dfe <_sk_start_pipeline_hsw+0xca>
+ .byte 15,131,151,0,0,0 // jae 825a <_sk_start_pipeline_hsw+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 7dc0 <_sk_start_pipeline_hsw+0x8c>
+ .byte 119,67 // ja 821c <_sk_start_pipeline_hsw+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -7602,10 +7912,10 @@ _sk_start_pipeline_hsw:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 7d81 <_sk_start_pipeline_hsw+0x4d>
+ .byte 118,193 // jbe 81dd <_sk_start_pipeline_hsw+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 7df1 <_sk_start_pipeline_hsw+0xbd>
+ .byte 116,41 // je 824d <_sk_start_pipeline_hsw+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -7619,7 +7929,7 @@ _sk_start_pipeline_hsw:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 7d73 <_sk_start_pipeline_hsw+0x3f>
+ .byte 15,133,117,255,255,255 // jne 81cf <_sk_start_pipeline_hsw+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -7648,10 +7958,10 @@ _sk_seed_shader_hsw:
.byte 197,249,110,201 // vmovd %ecx,%xmm1
.byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,110,37,3,0 // vbroadcastss 0x3256e(%rip),%ymm2 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,21,182,54,3,0 // vbroadcastss 0x336b6(%rip),%ymm2 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,99,37,3,0 // vbroadcastss 0x32563(%rip),%ymm2 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,21,171,54,3,0 // vbroadcastss 0x336ab(%rip),%ymm2 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -7666,17 +7976,17 @@ _sk_dither_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,61,254,5,14,39,3,0 // vpaddd 0x3270e(%rip),%ymm8,%ymm8 # 3a580 <_sk_srcover_bgra_8888_sse2_lowp+0x484>
+ .byte 197,61,254,5,82,56,3,0 // vpaddd 0x33852(%rip),%ymm8,%ymm8 # 3bb20 <_sk_srcover_bgra_8888_sse2_lowp+0x480>
.byte 197,121,110,201 // vmovd %ecx,%xmm9
.byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,39,37,3,0 // vpbroadcastd 0x32527(%rip),%ymm10 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,88,21,111,54,3,0 // vpbroadcastd 0x3366f(%rip),%ymm10 # 3b954 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,12,37,3,0 // vpbroadcastd 0x3250c(%rip),%ymm12 # 3a3b4 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
- .byte 196,98,125,88,45,7,37,3,0 // vpbroadcastd 0x32507(%rip),%ymm13 # 3a3b8 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,88,37,84,54,3,0 // vpbroadcastd 0x33654(%rip),%ymm12 # 3b958 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
+ .byte 196,98,125,88,45,79,54,3,0 // vpbroadcastd 0x3364f(%rip),%ymm13 # 3b95c <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
@@ -7691,8 +8001,8 @@ _sk_dither_hsw:
.byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,185,36,3,0 // vbroadcastss 0x324b9(%rip),%ymm9 # 3a3bc <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
- .byte 196,98,125,24,21,180,36,3,0 // vbroadcastss 0x324b4(%rip),%ymm10 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
+ .byte 196,98,125,24,13,1,54,3,0 // vbroadcastss 0x33601(%rip),%ymm9 # 3b960 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
+ .byte 196,98,125,24,21,252,53,3,0 // vbroadcastss 0x335fc(%rip),%ymm10 # 3b964 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,44,89,192 // vmulps %ymm8,%ymm10,%ymm8
@@ -7726,7 +8036,7 @@ HIDDEN _sk_black_color_hsw
FUNCTION(_sk_black_color_hsw)
_sk_black_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,60,36,3,0 // vbroadcastss 0x3243c(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,132,53,3,0 // vbroadcastss 0x33584(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -7737,7 +8047,7 @@ HIDDEN _sk_white_color_hsw
FUNCTION(_sk_white_color_hsw)
_sk_white_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,35,36,3,0 // vbroadcastss 0x32423(%rip),%ymm0 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,107,53,3,0 // vbroadcastss 0x3356b(%rip),%ymm0 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -7783,7 +8093,7 @@ HIDDEN _sk_srcatop_hsw
FUNCTION(_sk_srcatop_hsw)
_sk_srcatop_hsw:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,194,35,3,0 // vbroadcastss 0x323c2(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,10,53,3,0 // vbroadcastss 0x3350a(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -7799,7 +8109,7 @@ HIDDEN _sk_dstatop_hsw
.globl _sk_dstatop_hsw
FUNCTION(_sk_dstatop_hsw)
_sk_dstatop_hsw:
- .byte 196,98,125,24,5,145,35,3,0 // vbroadcastss 0x32391(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,217,52,3,0 // vbroadcastss 0x334d9(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -7838,7 +8148,7 @@ HIDDEN _sk_srcout_hsw
.globl _sk_srcout_hsw
FUNCTION(_sk_srcout_hsw)
_sk_srcout_hsw:
- .byte 196,98,125,24,5,52,35,3,0 // vbroadcastss 0x32334(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,124,52,3,0 // vbroadcastss 0x3347c(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -7851,7 +8161,7 @@ HIDDEN _sk_dstout_hsw
.globl _sk_dstout_hsw
FUNCTION(_sk_dstout_hsw)
_sk_dstout_hsw:
- .byte 196,226,125,24,5,19,35,3,0 // vbroadcastss 0x32313(%rip),%ymm0 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,91,52,3,0 // vbroadcastss 0x3345b(%rip),%ymm0 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -7864,7 +8174,7 @@ HIDDEN _sk_srcover_hsw
.globl _sk_srcover_hsw
FUNCTION(_sk_srcover_hsw)
_sk_srcover_hsw:
- .byte 196,98,125,24,5,242,34,3,0 // vbroadcastss 0x322f2(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,58,52,3,0 // vbroadcastss 0x3343a(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -7877,7 +8187,7 @@ HIDDEN _sk_dstover_hsw
.globl _sk_dstover_hsw
FUNCTION(_sk_dstover_hsw)
_sk_dstover_hsw:
- .byte 196,98,125,24,5,205,34,3,0 // vbroadcastss 0x322cd(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,21,52,3,0 // vbroadcastss 0x33415(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -7901,7 +8211,7 @@ HIDDEN _sk_multiply_hsw
.globl _sk_multiply_hsw
FUNCTION(_sk_multiply_hsw)
_sk_multiply_hsw:
- .byte 196,98,125,24,5,148,34,3,0 // vbroadcastss 0x32294(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,220,51,3,0 // vbroadcastss 0x333dc(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -7924,7 +8234,7 @@ HIDDEN _sk_plus__hsw
FUNCTION(_sk_plus__hsw)
_sk_plus__hsw:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,67,34,3,0 // vbroadcastss 0x32243(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,139,51,3,0 // vbroadcastss 0x3338b(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -7954,7 +8264,7 @@ HIDDEN _sk_xor__hsw
.globl _sk_xor__hsw
FUNCTION(_sk_xor__hsw)
_sk_xor__hsw:
- .byte 196,98,125,24,5,238,33,3,0 // vbroadcastss 0x321ee(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,54,51,3,0 // vbroadcastss 0x33336(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -7988,7 +8298,7 @@ _sk_darken_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,114,33,3,0 // vbroadcastss 0x32172(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,186,50,3,0 // vbroadcastss 0x332ba(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -8013,7 +8323,7 @@ _sk_lighten_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,29,33,3,0 // vbroadcastss 0x3211d(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,101,50,3,0 // vbroadcastss 0x33265(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -8041,7 +8351,7 @@ _sk_difference_hsw:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,188,32,3,0 // vbroadcastss 0x320bc(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,4,50,3,0 // vbroadcastss 0x33204(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -8063,7 +8373,7 @@ _sk_exclusion_hsw:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,118,32,3,0 // vbroadcastss 0x32076(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,190,49,3,0 // vbroadcastss 0x331be(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -8073,7 +8383,7 @@ HIDDEN _sk_colorburn_hsw
.globl _sk_colorburn_hsw
FUNCTION(_sk_colorburn_hsw)
_sk_colorburn_hsw:
- .byte 196,98,125,24,5,96,32,3,0 // vbroadcastss 0x32060(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,168,49,3,0 // vbroadcastss 0x331a8(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -8131,7 +8441,7 @@ HIDDEN _sk_colordodge_hsw
FUNCTION(_sk_colordodge_hsw)
_sk_colordodge_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,112,31,3,0 // vbroadcastss 0x31f70(%rip),%ymm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,184,48,3,0 // vbroadcastss 0x330b8(%rip),%ymm9 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -8184,7 +8494,7 @@ HIDDEN _sk_hardlight_hsw
.globl _sk_hardlight_hsw
FUNCTION(_sk_hardlight_hsw)
_sk_hardlight_hsw:
- .byte 196,98,125,24,5,138,30,3,0 // vbroadcastss 0x31e8a(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,210,47,3,0 // vbroadcastss 0x32fd2(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -8235,7 +8545,7 @@ HIDDEN _sk_overlay_hsw
.globl _sk_overlay_hsw
FUNCTION(_sk_overlay_hsw)
_sk_overlay_hsw:
- .byte 196,98,125,24,5,190,29,3,0 // vbroadcastss 0x31dbe(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,6,47,3,0 // vbroadcastss 0x32f06(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -8296,10 +8606,10 @@ _sk_softlight_hsw:
.byte 196,65,20,88,197 // vaddps %ymm13,%ymm13,%ymm8
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,66,61,168,192 // vfmadd213ps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,29,217,28,3,0 // vbroadcastss 0x31cd9(%rip),%ymm11 # 3a3c4 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,29,33,46,3,0 // vbroadcastss 0x32e21(%rip),%ymm11 # 3b968 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,65,20,88,227 // vaddps %ymm11,%ymm13,%ymm12
.byte 196,65,28,89,192 // vmulps %ymm8,%ymm12,%ymm8
- .byte 196,98,125,24,37,202,28,3,0 // vbroadcastss 0x31cca(%rip),%ymm12 # 3a3c8 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
+ .byte 196,98,125,24,37,18,46,3,0 // vbroadcastss 0x32e12(%rip),%ymm12 # 3b96c <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
.byte 196,66,21,184,196 // vfmadd231ps %ymm12,%ymm13,%ymm8
.byte 196,65,124,82,245 // vrsqrtps %ymm13,%ymm14
.byte 196,65,124,83,246 // vrcpps %ymm14,%ymm14
@@ -8309,7 +8619,7 @@ _sk_softlight_hsw:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,121,28,3,0 // vbroadcastss 0x31c79(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,193,45,3,0 // vbroadcastss 0x32dc1(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,60,92,237 // vsubps %ymm13,%ymm8,%ymm13
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,98,125,168,235 // vfmadd213ps %ymm3,%ymm0,%ymm13
@@ -8422,11 +8732,11 @@ _sk_hue_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,145,26,3,0 // vbroadcastss 0x31a91(%rip),%ymm14 # 3a3cc <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,61,140,26,3,0 // vbroadcastss 0x31a8c(%rip),%ymm15 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,217,43,3,0 // vbroadcastss 0x32bd9(%rip),%ymm14 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,61,212,43,3,0 // vbroadcastss 0x32bd4(%rip),%ymm15 # 3b974 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,125,26,3,0 // vbroadcastss 0x31a7d(%rip),%ymm0 # 3a3d4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,197,43,3,0 // vbroadcastss 0x32bc5(%rip),%ymm0 # 3b978 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -8481,7 +8791,7 @@ _sk_hue_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,62,25,3,0 // vbroadcastss 0x3193e(%rip),%ymm1 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,134,42,3,0 // vbroadcastss 0x32a86(%rip),%ymm1 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -8535,11 +8845,11 @@ _sk_saturation_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,113,24,3,0 // vbroadcastss 0x31871(%rip),%ymm14 # 3a3cc <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,61,108,24,3,0 // vbroadcastss 0x3186c(%rip),%ymm15 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,185,41,3,0 // vbroadcastss 0x329b9(%rip),%ymm14 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,61,180,41,3,0 // vbroadcastss 0x329b4(%rip),%ymm15 # 3b974 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,93,24,3,0 // vbroadcastss 0x3185d(%rip),%ymm0 # 3a3d4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,165,41,3,0 // vbroadcastss 0x329a5(%rip),%ymm0 # 3b978 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -8594,7 +8904,7 @@ _sk_saturation_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,30,23,3,0 // vbroadcastss 0x3171e(%rip),%ymm1 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,102,40,3,0 // vbroadcastss 0x32866(%rip),%ymm1 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -8622,11 +8932,11 @@ _sk_color_hsw:
.byte 197,108,89,199 // vmulps %ymm7,%ymm2,%ymm8
.byte 197,116,89,215 // vmulps %ymm7,%ymm1,%ymm10
.byte 197,52,89,223 // vmulps %ymm7,%ymm9,%ymm11
- .byte 196,98,125,24,45,211,22,3,0 // vbroadcastss 0x316d3(%rip),%ymm13 # 3a3cc <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,206,22,3,0 // vbroadcastss 0x316ce(%rip),%ymm14 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,27,40,3,0 // vbroadcastss 0x3281b(%rip),%ymm13 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,22,40,3,0 // vbroadcastss 0x32816(%rip),%ymm14 # 3b974 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,230 // vmulps %ymm14,%ymm5,%ymm12
.byte 196,66,93,184,229 // vfmadd231ps %ymm13,%ymm4,%ymm12
- .byte 196,98,125,24,61,191,22,3,0 // vbroadcastss 0x316bf(%rip),%ymm15 # 3a3d4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,7,40,3,0 // vbroadcastss 0x32807(%rip),%ymm15 # 3b978 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,77,184,231 // vfmadd231ps %ymm15,%ymm6,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -8682,7 +8992,7 @@ _sk_color_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,117,21,3,0 // vbroadcastss 0x31575(%rip),%ymm0 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,189,38,3,0 // vbroadcastss 0x326bd(%rip),%ymm0 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -8710,11 +9020,11 @@ _sk_luminosity_hsw:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,45,42,21,3,0 // vbroadcastss 0x3152a(%rip),%ymm13 # 3a3cc <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,37,21,3,0 // vbroadcastss 0x31525(%rip),%ymm14 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,114,38,3,0 // vbroadcastss 0x32672(%rip),%ymm13 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,109,38,3,0 // vbroadcastss 0x3266d(%rip),%ymm14 # 3b974 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,116,89,230 // vmulps %ymm14,%ymm1,%ymm12
.byte 196,66,109,184,229 // vfmadd231ps %ymm13,%ymm2,%ymm12
- .byte 196,98,125,24,61,22,21,3,0 // vbroadcastss 0x31516(%rip),%ymm15 # 3a3d4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,94,38,3,0 // vbroadcastss 0x3265e(%rip),%ymm15 # 3b978 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,53,184,231 // vfmadd231ps %ymm15,%ymm9,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -8770,7 +9080,7 @@ _sk_luminosity_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,204,19,3,0 // vbroadcastss 0x313cc(%rip),%ymm0 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,20,37,3,0 // vbroadcastss 0x32514(%rip),%ymm0 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -8797,20 +9107,20 @@ _sk_srcover_rgba_8888_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,224,0,0,0 // jne 911c <_sk_srcover_rgba_8888_hsw+0xfa>
+ .byte 15,133,224,0,0,0 // jne 9578 <_sk_srcover_rgba_8888_hsw+0xfa>
.byte 196,193,126,111,60,144 // vmovdqu (%r8,%rdx,4),%ymm7
- .byte 197,197,219,37,86,21,3,0 // vpand 0x31556(%rip),%ymm7,%ymm4 # 3a5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x4a4>
+ .byte 197,197,219,37,154,38,3,0 // vpand 0x3269a(%rip),%ymm7,%ymm4 # 3bb40 <_sk_srcover_bgra_8888_sse2_lowp+0x4a0>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,69,0,45,105,21,3,0 // vpshufb 0x31569(%rip),%ymm7,%ymm5 # 3a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x4c4>
+ .byte 196,226,69,0,45,173,38,3,0 // vpshufb 0x326ad(%rip),%ymm7,%ymm5 # 3bb60 <_sk_srcover_bgra_8888_sse2_lowp+0x4c0>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,69,0,53,124,21,3,0 // vpshufb 0x3157c(%rip),%ymm7,%ymm6 # 3a5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x4e4>
+ .byte 196,226,69,0,53,192,38,3,0 // vpshufb 0x326c0(%rip),%ymm7,%ymm6 # 3bb80 <_sk_srcover_bgra_8888_sse2_lowp+0x4e0>
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,45,19,3,0 // vbroadcastss 0x3132d(%rip),%ymm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,117,36,3,0 // vbroadcastss 0x32475(%rip),%ymm9 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
- .byte 196,98,125,24,21,76,19,3,0 // vbroadcastss 0x3134c(%rip),%ymm10 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,148,36,3,0 // vbroadcastss 0x32494(%rip),%ymm10 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
@@ -8838,7 +9148,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,58 // jne 914c <_sk_srcover_rgba_8888_hsw+0x12a>
+ .byte 117,58 // jne 95a8 <_sk_srcover_rgba_8888_hsw+0x12a>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -8847,33 +9157,33 @@ _sk_srcover_rgba_8888_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,20,255,255,255 // ja 9042 <_sk_srcover_rgba_8888_hsw+0x20>
+ .byte 15,135,20,255,255,255 // ja 949e <_sk_srcover_rgba_8888_hsw+0x20>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,248,0,0,0 // lea 0xf8(%rip),%r9 # 9230 <_sk_srcover_rgba_8888_hsw+0x20e>
+ .byte 76,141,13,248,0,0,0 // lea 0xf8(%rip),%r9 # 968c <_sk_srcover_rgba_8888_hsw+0x20e>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,60,144 // vmovd (%r8,%rdx,4),%xmm7
- .byte 233,246,254,255,255 // jmpq 9042 <_sk_srcover_rgba_8888_hsw+0x20>
+ .byte 233,246,254,255,255 // jmpq 949e <_sk_srcover_rgba_8888_hsw+0x20>
.byte 137,248 // mov %edi,%eax
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,194 // ja 9118 <_sk_srcover_rgba_8888_hsw+0xf6>
+ .byte 119,194 // ja 9574 <_sk_srcover_rgba_8888_hsw+0xf6>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,236,0,0,0 // lea 0xec(%rip),%r9 # 924c <_sk_srcover_rgba_8888_hsw+0x22a>
+ .byte 76,141,13,236,0,0,0 // lea 0xec(%rip),%r9 # 96a8 <_sk_srcover_rgba_8888_hsw+0x22a>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,167 // jmp 9118 <_sk_srcover_rgba_8888_hsw+0xf6>
+ .byte 235,167 // jmp 9574 <_sk_srcover_rgba_8888_hsw+0xf6>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,193,122,126,36,144 // vmovq (%r8,%rdx,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,170,254,255,255 // jmpq 9042 <_sk_srcover_rgba_8888_hsw+0x20>
+ .byte 233,170,254,255,255 // jmpq 949e <_sk_srcover_rgba_8888_hsw+0x20>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -8886,10 +9196,10 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,193,122,111,36,144 // vmovdqu (%r8,%rdx,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,91,254,255,255 // jmpq 9042 <_sk_srcover_rgba_8888_hsw+0x20>
+ .byte 233,91,254,255,255 // jmpq 949e <_sk_srcover_rgba_8888_hsw+0x20>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,30,255,255,255 // jmpq 9118 <_sk_srcover_rgba_8888_hsw+0xf6>
+ .byte 233,30,255,255,255 // jmpq 9574 <_sk_srcover_rgba_8888_hsw+0xf6>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -8897,7 +9207,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 233,234,254,255,255 // jmpq 9118 <_sk_srcover_rgba_8888_hsw+0xf6>
+ .byte 233,234,254,255,255 // jmpq 9574 <_sk_srcover_rgba_8888_hsw+0xf6>
.byte 102,144 // xchg %ax,%ax
.byte 17,255 // adc %edi,%edi
.byte 255 // (bad)
@@ -8909,11 +9219,11 @@ _sk_srcover_rgba_8888_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 9245 <_sk_srcover_rgba_8888_hsw+0x223>
+ .byte 126,255 // jle 96a1 <_sk_srcover_rgba_8888_hsw+0x223>
.byte 255 // (bad)
.byte 255,104,255 // ljmp *-0x1(%rax)
.byte 255 // (bad)
- .byte 255,29,255,255,255,163 // lcall *-0x5c000001(%rip) # ffffffffa4009250 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffa3fcf154>
+ .byte 255,29,255,255,255,163 // lcall *-0x5c000001(%rip) # ffffffffa40096ac <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffa3fce00c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,155,255,255,255,215 // lcall *-0x28000001(%rbx)
@@ -8938,20 +9248,20 @@ _sk_srcover_bgra_8888_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,224,0,0,0 // jne 9362 <_sk_srcover_bgra_8888_hsw+0xfa>
+ .byte 15,133,224,0,0,0 // jne 97be <_sk_srcover_bgra_8888_hsw+0xfa>
.byte 196,193,126,111,60,144 // vmovdqu (%r8,%rdx,4),%ymm7
- .byte 197,197,219,37,112,19,3,0 // vpand 0x31370(%rip),%ymm7,%ymm4 # 3a600 <_sk_srcover_bgra_8888_sse2_lowp+0x504>
+ .byte 197,197,219,37,180,36,3,0 // vpand 0x324b4(%rip),%ymm7,%ymm4 # 3bba0 <_sk_srcover_bgra_8888_sse2_lowp+0x500>
.byte 197,252,91,244 // vcvtdq2ps %ymm4,%ymm6
- .byte 196,226,69,0,37,131,19,3,0 // vpshufb 0x31383(%rip),%ymm7,%ymm4 # 3a620 <_sk_srcover_bgra_8888_sse2_lowp+0x524>
+ .byte 196,226,69,0,37,199,36,3,0 // vpshufb 0x324c7(%rip),%ymm7,%ymm4 # 3bbc0 <_sk_srcover_bgra_8888_sse2_lowp+0x520>
.byte 197,252,91,236 // vcvtdq2ps %ymm4,%ymm5
- .byte 196,226,69,0,37,150,19,3,0 // vpshufb 0x31396(%rip),%ymm7,%ymm4 # 3a640 <_sk_srcover_bgra_8888_sse2_lowp+0x544>
+ .byte 196,226,69,0,37,218,36,3,0 // vpshufb 0x324da(%rip),%ymm7,%ymm4 # 3bbe0 <_sk_srcover_bgra_8888_sse2_lowp+0x540>
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,231,16,3,0 // vbroadcastss 0x310e7(%rip),%ymm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,47,34,3,0 // vbroadcastss 0x3222f(%rip),%ymm9 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
- .byte 196,98,125,24,21,6,17,3,0 // vbroadcastss 0x31106(%rip),%ymm10 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,78,34,3,0 // vbroadcastss 0x3224e(%rip),%ymm10 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
@@ -8979,7 +9289,7 @@ _sk_srcover_bgra_8888_hsw:
.byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,58 // jne 9392 <_sk_srcover_bgra_8888_hsw+0x12a>
+ .byte 117,58 // jne 97ee <_sk_srcover_bgra_8888_hsw+0x12a>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -8988,33 +9298,33 @@ _sk_srcover_bgra_8888_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,20,255,255,255 // ja 9288 <_sk_srcover_bgra_8888_hsw+0x20>
+ .byte 15,135,20,255,255,255 // ja 96e4 <_sk_srcover_bgra_8888_hsw+0x20>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,246,0,0,0 // lea 0xf6(%rip),%r9 # 9474 <_sk_srcover_bgra_8888_hsw+0x20c>
+ .byte 76,141,13,246,0,0,0 // lea 0xf6(%rip),%r9 # 98d0 <_sk_srcover_bgra_8888_hsw+0x20c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,60,144 // vmovd (%r8,%rdx,4),%xmm7
- .byte 233,246,254,255,255 // jmpq 9288 <_sk_srcover_bgra_8888_hsw+0x20>
+ .byte 233,246,254,255,255 // jmpq 96e4 <_sk_srcover_bgra_8888_hsw+0x20>
.byte 137,248 // mov %edi,%eax
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,194 // ja 935e <_sk_srcover_bgra_8888_hsw+0xf6>
+ .byte 119,194 // ja 97ba <_sk_srcover_bgra_8888_hsw+0xf6>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,234,0,0,0 // lea 0xea(%rip),%r9 # 9490 <_sk_srcover_bgra_8888_hsw+0x228>
+ .byte 76,141,13,234,0,0,0 // lea 0xea(%rip),%r9 # 98ec <_sk_srcover_bgra_8888_hsw+0x228>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,167 // jmp 935e <_sk_srcover_bgra_8888_hsw+0xf6>
+ .byte 235,167 // jmp 97ba <_sk_srcover_bgra_8888_hsw+0xf6>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,193,122,126,36,144 // vmovq (%r8,%rdx,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,170,254,255,255 // jmpq 9288 <_sk_srcover_bgra_8888_hsw+0x20>
+ .byte 233,170,254,255,255 // jmpq 96e4 <_sk_srcover_bgra_8888_hsw+0x20>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -9027,10 +9337,10 @@ _sk_srcover_bgra_8888_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,193,122,111,36,144 // vmovdqu (%r8,%rdx,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,91,254,255,255 // jmpq 9288 <_sk_srcover_bgra_8888_hsw+0x20>
+ .byte 233,91,254,255,255 // jmpq 96e4 <_sk_srcover_bgra_8888_hsw+0x20>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,30,255,255,255 // jmpq 935e <_sk_srcover_bgra_8888_hsw+0xf6>
+ .byte 233,30,255,255,255 // jmpq 97ba <_sk_srcover_bgra_8888_hsw+0xf6>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -9038,7 +9348,7 @@ _sk_srcover_bgra_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 233,234,254,255,255 // jmpq 935e <_sk_srcover_bgra_8888_hsw+0xf6>
+ .byte 233,234,254,255,255 // jmpq 97ba <_sk_srcover_bgra_8888_hsw+0xf6>
.byte 19,255 // adc %edi,%edi
.byte 255 // (bad)
.byte 255,89,255 // lcall *-0x1(%rcx)
@@ -9085,7 +9395,7 @@ HIDDEN _sk_clamp_1_hsw
.globl _sk_clamp_1_hsw
FUNCTION(_sk_clamp_1_hsw)
_sk_clamp_1_hsw:
- .byte 196,98,125,24,5,218,14,3,0 // vbroadcastss 0x30eda(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,34,32,3,0 // vbroadcastss 0x32022(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -9097,7 +9407,7 @@ HIDDEN _sk_clamp_a_hsw
.globl _sk_clamp_a_hsw
FUNCTION(_sk_clamp_a_hsw)
_sk_clamp_a_hsw:
- .byte 196,98,125,24,5,185,14,3,0 // vbroadcastss 0x30eb9(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,1,32,3,0 // vbroadcastss 0x32001(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -9109,7 +9419,7 @@ HIDDEN _sk_clamp_a_dst_hsw
.globl _sk_clamp_a_dst_hsw
FUNCTION(_sk_clamp_a_dst_hsw)
_sk_clamp_a_dst_hsw:
- .byte 196,98,125,24,5,155,14,3,0 // vbroadcastss 0x30e9b(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,227,31,3,0 // vbroadcastss 0x31fe3(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -9142,7 +9452,7 @@ HIDDEN _sk_invert_hsw
.globl _sk_invert_hsw
FUNCTION(_sk_invert_hsw)
_sk_invert_hsw:
- .byte 196,98,125,24,5,86,14,3,0 // vbroadcastss 0x30e56(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,158,31,3,0 // vbroadcastss 0x31f9e(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -9196,9 +9506,9 @@ HIDDEN _sk_unpremul_hsw
.globl _sk_unpremul_hsw
FUNCTION(_sk_unpremul_hsw)
_sk_unpremul_hsw:
- .byte 196,98,125,24,5,241,13,3,0 // vbroadcastss 0x30df1(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,57,31,3,0 // vbroadcastss 0x31f39(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,20,14,3,0 // vbroadcastss 0x30e14(%rip),%ymm9 # 3a3dc <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
+ .byte 196,98,125,24,13,92,31,3,0 // vbroadcastss 0x31f5c(%rip),%ymm9 # 3b980 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
.byte 196,65,60,194,201,1 // vcmpltps %ymm9,%ymm8,%ymm9
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
@@ -9208,20 +9518,36 @@ _sk_unpremul_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
+HIDDEN _sk_force_opaque_hsw
+.globl _sk_force_opaque_hsw
+FUNCTION(_sk_force_opaque_hsw)
+_sk_force_opaque_hsw:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,0,31,3,0 // vbroadcastss 0x31f00(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_force_opaque_dst_hsw
+.globl _sk_force_opaque_dst_hsw
+FUNCTION(_sk_force_opaque_dst_hsw)
+_sk_force_opaque_dst_hsw:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,61,243,30,3,0 // vbroadcastss 0x31ef3(%rip),%ymm7 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 255,224 // jmpq *%rax
+
HIDDEN _sk_from_srgb_hsw
.globl _sk_from_srgb_hsw
FUNCTION(_sk_from_srgb_hsw)
_sk_from_srgb_hsw:
- .byte 196,98,125,24,5,238,13,3,0 // vbroadcastss 0x30dee(%rip),%ymm8 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,28,31,3,0 // vbroadcastss 0x31f1c(%rip),%ymm8 # 3b984 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,224,13,3,0 // vbroadcastss 0x30de0(%rip),%ymm11 # 3a3e4 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,191,13,3,0 // vbroadcastss 0x30dbf(%rip),%ymm12 # 3a3cc <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,14,31,3,0 // vbroadcastss 0x31f0e(%rip),%ymm11 # 3b988 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,237,30,3,0 // vbroadcastss 0x31eed(%rip),%ymm12 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,200,13,3,0 // vbroadcastss 0x30dc8(%rip),%ymm14 # 3a3e8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,246,30,3,0 // vbroadcastss 0x31ef6(%rip),%ymm14 # 3b98c <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,190,13,3,0 // vbroadcastss 0x30dbe(%rip),%ymm10 # 3a3ec <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,236,30,3,0 // vbroadcastss 0x31eec(%rip),%ymm10 # 3b990 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,124,194,194,1 // vcmpltps %ymm10,%ymm0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -9244,16 +9570,16 @@ HIDDEN _sk_from_srgb_dst_hsw
.globl _sk_from_srgb_dst_hsw
FUNCTION(_sk_from_srgb_dst_hsw)
_sk_from_srgb_dst_hsw:
- .byte 196,98,125,24,5,86,13,3,0 // vbroadcastss 0x30d56(%rip),%ymm8 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,132,30,3,0 // vbroadcastss 0x31e84(%rip),%ymm8 # 3b984 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,72,13,3,0 // vbroadcastss 0x30d48(%rip),%ymm11 # 3a3e4 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,39,13,3,0 // vbroadcastss 0x30d27(%rip),%ymm12 # 3a3cc <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,118,30,3,0 // vbroadcastss 0x31e76(%rip),%ymm11 # 3b988 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,85,30,3,0 // vbroadcastss 0x31e55(%rip),%ymm12 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,48,13,3,0 // vbroadcastss 0x30d30(%rip),%ymm14 # 3a3e8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,94,30,3,0 // vbroadcastss 0x31e5e(%rip),%ymm14 # 3b98c <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,38,13,3,0 // vbroadcastss 0x30d26(%rip),%ymm10 # 3a3ec <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,84,30,3,0 // vbroadcastss 0x31e54(%rip),%ymm10 # 3b990 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,92,194,226,1 // vcmpltps %ymm10,%ymm4,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -9277,19 +9603,19 @@ HIDDEN _sk_to_srgb_hsw
FUNCTION(_sk_to_srgb_hsw)
_sk_to_srgb_hsw:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,202,12,3,0 // vbroadcastss 0x30cca(%rip),%ymm8 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
+ .byte 196,98,125,24,5,248,29,3,0 // vbroadcastss 0x31df8(%rip),%ymm8 # 3b994 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,192,12,3,0 // vbroadcastss 0x30cc0(%rip),%ymm11 # 3a3f4 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
- .byte 196,98,125,24,37,187,12,3,0 // vbroadcastss 0x30cbb(%rip),%ymm12 # 3a3f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
+ .byte 196,98,125,24,29,238,29,3,0 // vbroadcastss 0x31dee(%rip),%ymm11 # 3b998 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
+ .byte 196,98,125,24,37,233,29,3,0 // vbroadcastss 0x31de9(%rip),%ymm12 # 3b99c <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,53,168,235 // vfmadd213ps %ymm11,%ymm9,%ymm13
- .byte 196,98,125,24,53,212,13,3,0 // vbroadcastss 0x30dd4(%rip),%ymm14 # 3a524 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
+ .byte 196,98,125,24,53,18,31,3,0 // vbroadcastss 0x31f12(%rip),%ymm14 # 3bad8 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
.byte 196,66,53,168,238 // vfmadd213ps %ymm14,%ymm9,%ymm13
- .byte 196,98,125,24,61,202,13,3,0 // vbroadcastss 0x30dca(%rip),%ymm15 # 3a528 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
+ .byte 196,98,125,24,61,8,31,3,0 // vbroadcastss 0x31f08(%rip),%ymm15 # 3badc <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,20,89,201 // vmulps %ymm9,%ymm13,%ymm9
- .byte 196,98,125,24,45,142,12,3,0 // vbroadcastss 0x30c8e(%rip),%ymm13 # 3a404 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
+ .byte 196,98,125,24,45,188,29,3,0 // vbroadcastss 0x31dbc(%rip),%ymm13 # 3b9a8 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
.byte 196,193,124,194,197,1 // vcmpltps %ymm13,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -9323,26 +9649,26 @@ _sk_rgb_to_hsl_hsw:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,165,11,3,0 // vbroadcastss 0x30ba5(%rip),%ymm11 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,211,28,3,0 // vbroadcastss 0x31cd3(%rip),%ymm11 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 197,116,194,234,1 // vcmpltps %ymm2,%ymm1,%ymm13
- .byte 196,98,125,24,53,234,11,3,0 // vbroadcastss 0x30bea(%rip),%ymm14 # 3a408 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,53,24,29,3,0 // vbroadcastss 0x31d18(%rip),%ymm14 # 3b9ac <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
.byte 196,67,5,74,238,208 // vblendvps %ymm13,%ymm14,%ymm15,%ymm13
.byte 196,66,37,168,229 // vfmadd213ps %ymm13,%ymm11,%ymm12
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
.byte 197,124,92,233 // vsubps %ymm1,%ymm0,%ymm13
- .byte 196,98,125,24,53,209,11,3,0 // vbroadcastss 0x30bd1(%rip),%ymm14 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,53,255,28,3,0 // vbroadcastss 0x31cff(%rip),%ymm14 # 3b9b4 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 196,66,37,168,238 // vfmadd213ps %ymm14,%ymm11,%ymm13
- .byte 196,98,125,24,53,191,11,3,0 // vbroadcastss 0x30bbf(%rip),%ymm14 # 3a40c <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,53,237,28,3,0 // vbroadcastss 0x31ced(%rip),%ymm14 # 3b9b0 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,194,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm2
.byte 197,188,194,201,0 // vcmpeqps %ymm1,%ymm8,%ymm1
.byte 196,227,21,74,202,16 // vblendvps %ymm1,%ymm2,%ymm13,%ymm1
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,195,117,74,196,0 // vblendvps %ymm0,%ymm12,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,29,50,11,3,0 // vbroadcastss 0x30b32(%rip),%ymm11 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,29,96,28,3,0 // vbroadcastss 0x31c60(%rip),%ymm11 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 197,36,194,218,1 // vcmpltps %ymm2,%ymm11,%ymm11
.byte 196,65,12,92,224 // vsubps %ymm8,%ymm14,%ymm12
@@ -9352,7 +9678,7 @@ _sk_rgb_to_hsl_hsw:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,199,128 // vblendvps %ymm8,%ymm15,%ymm0,%ymm0
.byte 196,195,117,74,207,128 // vblendvps %ymm8,%ymm15,%ymm1,%ymm1
- .byte 196,98,125,24,5,101,11,3,0 // vbroadcastss 0x30b65(%rip),%ymm8 # 3a414 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,5,147,28,3,0 // vbroadcastss 0x31c93(%rip),%ymm8 # 3b9b8 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -9369,30 +9695,30 @@ _sk_hsl_to_rgb_hsw:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 197,252,40,224 // vmovaps %ymm0,%ymm4
- .byte 196,98,125,24,5,190,10,3,0 // vbroadcastss 0x30abe(%rip),%ymm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,236,27,3,0 // vbroadcastss 0x31bec(%rip),%ymm8 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,84,89,210 // vmulps %ymm2,%ymm5,%ymm10
.byte 196,65,84,92,218 // vsubps %ymm10,%ymm5,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
- .byte 196,98,125,24,13,1,11,3,0 // vbroadcastss 0x30b01(%rip),%ymm9 # 3a40c <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,13,47,28,3,0 // vbroadcastss 0x31c2f(%rip),%ymm9 # 3b9b0 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,66,109,170,202 // vfmsub213ps %ymm10,%ymm2,%ymm9
- .byte 196,98,125,24,29,255,10,3,0 // vbroadcastss 0x30aff(%rip),%ymm11 # 3a418 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 196,98,125,24,29,45,28,3,0 // vbroadcastss 0x31c2d(%rip),%ymm11 # 3b9bc <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
.byte 196,65,92,88,219 // vaddps %ymm11,%ymm4,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,45,209,10,3,0 // vbroadcastss 0x30ad1(%rip),%ymm13 # 3a408 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,45,255,27,3,0 // vbroadcastss 0x31bff(%rip),%ymm13 # 3b9ac <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,193,4,89,197 // vmulps %ymm13,%ymm15,%ymm0
- .byte 196,98,125,24,53,203,10,3,0 // vbroadcastss 0x30acb(%rip),%ymm14 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,53,249,27,3,0 // vbroadcastss 0x31bf9(%rip),%ymm14 # 3b9b4 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 197,12,92,224 // vsubps %ymm0,%ymm14,%ymm12
.byte 196,66,37,168,225 // vfmadd213ps %ymm9,%ymm11,%ymm12
- .byte 196,226,125,24,29,197,10,3,0 // vbroadcastss 0x30ac5(%rip),%ymm3 # 3a41c <_sk_srcover_bgra_8888_sse2_lowp+0x320>
+ .byte 196,226,125,24,29,243,27,3,0 // vbroadcastss 0x31bf3(%rip),%ymm3 # 3b9c0 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
.byte 196,193,100,194,255,2 // vcmpleps %ymm15,%ymm3,%ymm7
.byte 196,195,29,74,249,112 // vblendvps %ymm7,%ymm9,%ymm12,%ymm7
.byte 196,65,60,194,231,2 // vcmpleps %ymm15,%ymm8,%ymm12
.byte 196,227,45,74,255,192 // vblendvps %ymm12,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,37,156,10,3,0 // vbroadcastss 0x30a9c(%rip),%ymm12 # 3a414 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,37,202,27,3,0 // vbroadcastss 0x31bca(%rip),%ymm12 # 3b9b8 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,65,28,194,255,2 // vcmpleps %ymm15,%ymm12,%ymm15
.byte 196,194,37,168,193 // vfmadd213ps %ymm9,%ymm11,%ymm0
.byte 196,99,125,74,255,240 // vblendvps %ymm15,%ymm7,%ymm0,%ymm15
@@ -9408,7 +9734,7 @@ _sk_hsl_to_rgb_hsw:
.byte 197,156,194,192,2 // vcmpleps %ymm0,%ymm12,%ymm0
.byte 196,194,37,168,249 // vfmadd213ps %ymm9,%ymm11,%ymm7
.byte 196,227,69,74,201,0 // vblendvps %ymm0,%ymm1,%ymm7,%ymm1
- .byte 196,226,125,24,5,80,10,3,0 // vbroadcastss 0x30a50(%rip),%ymm0 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,226,125,24,5,126,27,3,0 // vbroadcastss 0x31b7e(%rip),%ymm0 # 3b9c4 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
.byte 196,227,125,8,224,1 // vroundps $0x1,%ymm0,%ymm4
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
@@ -9458,12 +9784,12 @@ _sk_scale_u8_hsw:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,58 // jne 9ab9 <_sk_scale_u8_hsw+0x4c>
+ .byte 117,58 // jne 9f2f <_sk_scale_u8_hsw+0x4c>
.byte 196,66,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm8
- .byte 197,57,219,5,195,18,3,0 // vpand 0x312c3(%rip),%xmm8,%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,57,219,5,237,35,3,0 // vpand 0x323ed(%rip),%xmm8,%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,132,9,3,0 // vbroadcastss 0x30984(%rip),%ymm9 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,178,26,3,0 // vbroadcastss 0x31ab2(%rip),%ymm9 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -9476,15 +9802,15 @@ _sk_scale_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,189 // ja 9a85 <_sk_scale_u8_hsw+0x18>
+ .byte 119,189 // ja 9efb <_sk_scale_u8_hsw+0x18>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,122,0,0,0 // lea 0x7a(%rip),%r9 # 9b4c <_sk_scale_u8_hsw+0xdf>
+ .byte 76,141,13,124,0,0,0 // lea 0x7c(%rip),%r9 # 9fc4 <_sk_scale_u8_hsw+0xe1>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,159 // jmp 9a85 <_sk_scale_u8_hsw+0x18>
+ .byte 235,159 // jmp 9efb <_sk_scale_u8_hsw+0x18>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -9492,7 +9818,7 @@ _sk_scale_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,118,255,255,255 // jmpq 9a85 <_sk_scale_u8_hsw+0x18>
+ .byte 233,118,255,255,255 // jmpq 9efb <_sk_scale_u8_hsw+0x18>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -9503,22 +9829,24 @@ _sk_scale_u8_hsw:
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,58,255,255,255 // jmpq 9a85 <_sk_scale_u8_hsw+0x18>
- .byte 144 // nop
- .byte 143 // (bad)
+ .byte 233,58,255,255,255 // jmpq 9efb <_sk_scale_u8_hsw+0x18>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 141 // (bad)
+ .byte 255 // (bad)
.byte 255 // (bad)
+ .byte 255,168,255,255,255,152 // ljmp *-0x67000001(%rax)
.byte 255 // (bad)
- .byte 255,170,255,255,255,154 // ljmp *-0x65000001(%rdx)
.byte 255 // (bad)
+ .byte 255,231 // jmpq *%rdi
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf009b5c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefcfa60>
.byte 255 // (bad)
+ .byte 220,255 // fdivr %st,%st(7)
.byte 255 // (bad)
- .byte 255,211 // callq *%rbx
+ .byte 255,209 // callq *%rcx
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,195 // inc %ebx
+ .byte 255,193 // inc %ecx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -9533,23 +9861,23 @@ _sk_scale_565_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,161,0,0,0 // jne 9c22 <_sk_scale_565_hsw+0xba>
+ .byte 15,133,161,0,0,0 // jne a09a <_sk_scale_565_hsw+0xba>
.byte 196,65,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,147,8,3,0 // vpbroadcastd 0x30893(%rip),%ymm9 # 3a428 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,88,13,191,25,3,0 // vpbroadcastd 0x319bf(%rip),%ymm9 # 3b9cc <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,132,8,3,0 // vbroadcastss 0x30884(%rip),%ymm10 # 3a42c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,176,25,3,0 // vbroadcastss 0x319b0(%rip),%ymm10 # 3b9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,122,8,3,0 // vpbroadcastd 0x3087a(%rip),%ymm10 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,88,21,166,25,3,0 // vpbroadcastd 0x319a6(%rip),%ymm10 # 3b9d4 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,107,8,3,0 // vbroadcastss 0x3086b(%rip),%ymm11 # 3a434 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,151,25,3,0 // vbroadcastss 0x31997(%rip),%ymm11 # 3b9d8 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,97,8,3,0 // vpbroadcastd 0x30861(%rip),%ymm11 # 3a438 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,88,29,141,25,3,0 // vpbroadcastd 0x3198d(%rip),%ymm11 # 3b9dc <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,82,8,3,0 // vbroadcastss 0x30852(%rip),%ymm11 # 3a43c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,126,25,3,0 // vbroadcastss 0x3197e(%rip),%ymm11 # 3b9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -9568,27 +9896,27 @@ _sk_scale_565_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,82,255,255,255 // ja 9b87 <_sk_scale_565_hsw+0x1f>
+ .byte 15,135,82,255,255,255 // ja 9fff <_sk_scale_565_hsw+0x1f>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,101,0,0,0 // lea 0x65(%rip),%r9 # 9ca4 <_sk_scale_565_hsw+0x13c>
+ .byte 76,141,13,101,0,0,0 // lea 0x65(%rip),%r9 # a11c <_sk_scale_565_hsw+0x13c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,49,255,255,255 // jmpq 9b87 <_sk_scale_565_hsw+0x1f>
+ .byte 233,49,255,255,255 // jmpq 9fff <_sk_scale_565_hsw+0x1f>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,19,255,255,255 // jmpq 9b87 <_sk_scale_565_hsw+0x1f>
+ .byte 233,19,255,255,255 // jmpq 9fff <_sk_scale_565_hsw+0x1f>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,65,57,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,65,57,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,229,254,255,255 // jmpq 9b87 <_sk_scale_565_hsw+0x1f>
+ .byte 233,229,254,255,255 // jmpq 9fff <_sk_scale_565_hsw+0x1f>
.byte 102,144 // xchg %ax,%ax
.byte 164 // movsb %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -9638,12 +9966,12 @@ _sk_lerp_u8_hsw:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,78 // jne 9d4f <_sk_lerp_u8_hsw+0x60>
+ .byte 117,78 // jne a1c7 <_sk_lerp_u8_hsw+0x60>
.byte 196,66,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm8
- .byte 197,57,219,5,65,16,3,0 // vpand 0x31041(%rip),%xmm8,%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,57,219,5,105,33,3,0 // vpand 0x32169(%rip),%xmm8,%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,2,7,3,0 // vbroadcastss 0x30702(%rip),%ymm9 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,46,24,3,0 // vbroadcastss 0x3182e(%rip),%ymm9 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
@@ -9660,15 +9988,15 @@ _sk_lerp_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,169 // ja 9d07 <_sk_lerp_u8_hsw+0x18>
+ .byte 119,169 // ja a17f <_sk_lerp_u8_hsw+0x18>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,124,0,0,0 // lea 0x7c(%rip),%r9 # 9de4 <_sk_lerp_u8_hsw+0xf5>
+ .byte 76,141,13,124,0,0,0 // lea 0x7c(%rip),%r9 # a25c <_sk_lerp_u8_hsw+0xf5>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,139 // jmp 9d07 <_sk_lerp_u8_hsw+0x18>
+ .byte 235,139 // jmp a17f <_sk_lerp_u8_hsw+0x18>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -9676,7 +10004,7 @@ _sk_lerp_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,98,255,255,255 // jmpq 9d07 <_sk_lerp_u8_hsw+0x18>
+ .byte 233,98,255,255,255 // jmpq a17f <_sk_lerp_u8_hsw+0x18>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -9687,7 +10015,7 @@ _sk_lerp_u8_hsw:
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,38,255,255,255 // jmpq 9d07 <_sk_lerp_u8_hsw+0x18>
+ .byte 233,38,255,255,255 // jmpq a17f <_sk_lerp_u8_hsw+0x18>
.byte 15,31,0 // nopl (%rax)
.byte 141 // (bad)
.byte 255 // (bad)
@@ -9719,23 +10047,23 @@ _sk_lerp_565_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,181,0,0,0 // jne 9ece <_sk_lerp_565_hsw+0xce>
+ .byte 15,133,181,0,0,0 // jne a346 <_sk_lerp_565_hsw+0xce>
.byte 196,65,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,251,5,3,0 // vpbroadcastd 0x305fb(%rip),%ymm9 # 3a428 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,88,13,39,23,3,0 // vpbroadcastd 0x31727(%rip),%ymm9 # 3b9cc <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,236,5,3,0 // vbroadcastss 0x305ec(%rip),%ymm10 # 3a42c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,24,23,3,0 // vbroadcastss 0x31718(%rip),%ymm10 # 3b9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,226,5,3,0 // vpbroadcastd 0x305e2(%rip),%ymm10 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,88,21,14,23,3,0 // vpbroadcastd 0x3170e(%rip),%ymm10 # 3b9d4 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,211,5,3,0 // vbroadcastss 0x305d3(%rip),%ymm11 # 3a434 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,255,22,3,0 // vbroadcastss 0x316ff(%rip),%ymm11 # 3b9d8 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,201,5,3,0 // vpbroadcastd 0x305c9(%rip),%ymm11 # 3a438 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,88,29,245,22,3,0 // vpbroadcastd 0x316f5(%rip),%ymm11 # 3b9dc <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,186,5,3,0 // vbroadcastss 0x305ba(%rip),%ymm11 # 3a43c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,230,22,3,0 // vbroadcastss 0x316e6(%rip),%ymm11 # 3b9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -9758,27 +10086,27 @@ _sk_lerp_565_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,62,255,255,255 // ja 9e1f <_sk_lerp_565_hsw+0x1f>
+ .byte 15,135,62,255,255,255 // ja a297 <_sk_lerp_565_hsw+0x1f>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,101,0,0,0 // lea 0x65(%rip),%r9 # 9f50 <_sk_lerp_565_hsw+0x150>
+ .byte 76,141,13,101,0,0,0 // lea 0x65(%rip),%r9 # a3c8 <_sk_lerp_565_hsw+0x150>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,29,255,255,255 // jmpq 9e1f <_sk_lerp_565_hsw+0x1f>
+ .byte 233,29,255,255,255 // jmpq a297 <_sk_lerp_565_hsw+0x1f>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,255,254,255,255 // jmpq 9e1f <_sk_lerp_565_hsw+0x1f>
+ .byte 233,255,254,255,255 // jmpq a297 <_sk_lerp_565_hsw+0x1f>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,65,57,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,65,57,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,209,254,255,255 // jmpq 9e1f <_sk_lerp_565_hsw+0x1f>
+ .byte 233,209,254,255,255 // jmpq a297 <_sk_lerp_565_hsw+0x1f>
.byte 102,144 // xchg %ax,%ax
.byte 164 // movsb %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -9809,9 +10137,9 @@ _sk_load_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,116 // jne 9fea <_sk_load_tables_hsw+0x7e>
+ .byte 117,116 // jne a462 <_sk_load_tables_hsw+0x7e>
.byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 197,229,219,13,220,6,3,0 // vpand 0x306dc(%rip),%ymm3,%ymm1 # 3a660 <_sk_srcover_bgra_8888_sse2_lowp+0x564>
+ .byte 197,229,219,13,4,24,3,0 // vpand 0x31804(%rip),%ymm3,%ymm1 # 3bc00 <_sk_srcover_bgra_8888_sse2_lowp+0x560>
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
@@ -9819,16 +10147,16 @@ _sk_load_tables_hsw:
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
.byte 196,194,53,146,4,136 // vgatherdps %ymm9,(%r8,%ymm1,4),%ymm0
- .byte 196,98,101,0,13,211,6,3,0 // vpshufb 0x306d3(%rip),%ymm3,%ymm9 # 3a680 <_sk_srcover_bgra_8888_sse2_lowp+0x584>
+ .byte 196,98,101,0,13,251,23,3,0 // vpshufb 0x317fb(%rip),%ymm3,%ymm9 # 3bc20 <_sk_srcover_bgra_8888_sse2_lowp+0x580>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
.byte 196,130,45,146,12,137 // vgatherdps %ymm10,(%r9,%ymm9,4),%ymm1
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,98,101,0,13,215,6,3,0 // vpshufb 0x306d7(%rip),%ymm3,%ymm9 # 3a6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x5a4>
+ .byte 196,98,101,0,13,255,23,3,0 // vpshufb 0x317ff(%rip),%ymm3,%ymm9 # 3bc40 <_sk_srcover_bgra_8888_sse2_lowp+0x5a0>
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,67,4,3,0 // vbroadcastss 0x30443(%rip),%ymm8 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,111,21,3,0 // vbroadcastss 0x3156f(%rip),%ymm8 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -9837,21 +10165,21 @@ _sk_load_tables_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,122,255,255,255 // ja 9f7c <_sk_load_tables_hsw+0x10>
+ .byte 15,135,122,255,255,255 // ja a3f4 <_sk_load_tables_hsw+0x10>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # a098 <_sk_load_tables_hsw+0x12c>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # a510 <_sk_load_tables_hsw+0x12c>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,90,255,255,255 // jmpq 9f7c <_sk_load_tables_hsw+0x10>
+ .byte 233,90,255,255,255 // jmpq a3f4 <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,193,122,126,4,144 // vmovq (%r8,%rdx,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,51,255,255,255 // jmpq 9f7c <_sk_load_tables_hsw+0x10>
+ .byte 233,51,255,255,255 // jmpq a3f4 <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -9864,8 +10192,8 @@ _sk_load_tables_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,228,254,255,255 // jmpq 9f7c <_sk_load_tables_hsw+0x10>
- .byte 127,255 // jg a099 <_sk_load_tables_hsw+0x12d>
+ .byte 233,228,254,255,255 // jmpq a3f4 <_sk_load_tables_hsw+0x10>
+ .byte 127,255 // jg a511 <_sk_load_tables_hsw+0x12d>
.byte 255 // (bad)
.byte 255,160,255,255,255,138 // jmpq *-0x75000001(%rax)
.byte 255 // (bad)
@@ -9893,7 +10221,7 @@ _sk_load_tables_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,215,0,0,0 // jne a1a1 <_sk_load_tables_u16_be_hsw+0xed>
+ .byte 15,133,215,0,0,0 // jne a619 <_sk_load_tables_u16_be_hsw+0xed>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -9909,7 +10237,7 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
.byte 196,65,49,108,214 // vpunpcklqdq %xmm14,%xmm9,%xmm10
- .byte 197,121,111,29,52,12,3,0 // vmovdqa 0x30c34(%rip),%xmm11 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,121,111,29,92,29,3,0 // vmovdqa 0x31d5c(%rip),%xmm11 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,193,113,219,195 // vpand %xmm11,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -9934,36 +10262,36 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,168,2,3,0 // vbroadcastss 0x302a8(%rip),%ymm8 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,5,212,19,3,0 // vbroadcastss 0x313d4(%rip),%ymm8 # 3b9e4 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je a207 <_sk_load_tables_u16_be_hsw+0x153>
+ .byte 116,85 // je a67f <_sk_load_tables_u16_be_hsw+0x153>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb a207 <_sk_load_tables_u16_be_hsw+0x153>
+ .byte 114,72 // jb a67f <_sk_load_tables_u16_be_hsw+0x153>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je a214 <_sk_load_tables_u16_be_hsw+0x160>
+ .byte 116,72 // je a68c <_sk_load_tables_u16_be_hsw+0x160>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb a214 <_sk_load_tables_u16_be_hsw+0x160>
+ .byte 114,59 // jb a68c <_sk_load_tables_u16_be_hsw+0x160>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,251,254,255,255 // je a0e5 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,132,251,254,255,255 // je a55d <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,234,254,255,255 // jb a0e5 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,130,234,254,255,255 // jb a55d <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,222,254,255,255 // jmpq a0e5 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,222,254,255,255 // jmpq a55d <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,209,254,255,255 // jmpq a0e5 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,209,254,255,255 // jmpq a55d <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,200,254,255,255 // jmpq a0e5 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,200,254,255,255 // jmpq a55d <_sk_load_tables_u16_be_hsw+0x31>
HIDDEN _sk_load_tables_rgb_u16_be_hsw
.globl _sk_load_tables_rgb_u16_be_hsw
@@ -9973,7 +10301,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,206,0,0,0 // jne a2fd <_sk_load_tables_rgb_u16_be_hsw+0xe0>
+ .byte 15,133,206,0,0,0 // jne a775 <_sk_load_tables_rgb_u16_be_hsw+0xe0>
.byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
.byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
.byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
@@ -9994,7 +10322,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 197,105,108,192 // vpunpcklqdq %xmm0,%xmm2,%xmm8
.byte 197,241,108,195 // vpunpcklqdq %xmm3,%xmm1,%xmm0
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,249,111,29,180,10,3,0 // vmovdqa 0x30ab4(%rip),%xmm3 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,249,111,29,220,27,3,0 // vmovdqa 0x31bdc(%rip),%xmm3 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 197,249,219,195 // vpand %xmm3,%xmm0,%xmm0
.byte 196,98,125,51,200 // vpmovzxwd %xmm0,%ymm9
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
@@ -10014,69 +10342,69 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 196,226,45,146,20,152 // vgatherdps %ymm10,(%rax,%ymm3,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,177,0,3,0 // vbroadcastss 0x300b1(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,221,17,3,0 // vbroadcastss 0x311dd(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne a335 <_sk_load_tables_rgb_u16_be_hsw+0x118>
+ .byte 117,31 // jne a7ad <_sk_load_tables_rgb_u16_be_hsw+0x118>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,47,255,255,255 // jmpq a264 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,47,255,255,255 // jmpq a6dc <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb a37f <_sk_load_tables_rgb_u16_be_hsw+0x162>
+ .byte 114,48 // jb a7f7 <_sk_load_tables_rgb_u16_be_hsw+0x162>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne a399 <_sk_load_tables_rgb_u16_be_hsw+0x17c>
+ .byte 117,48 // jne a811 <_sk_load_tables_rgb_u16_be_hsw+0x17c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,229,254,255,255 // jmpq a264 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,229,254,255,255 // jmpq a6dc <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,203,254,255,255 // jmpq a264 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,203,254,255,255 // jmpq a6dc <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb a3da <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
+ .byte 114,39 // jb a852 <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne a3eb <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
+ .byte 117,30 // jne a863 <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,138,254,255,255 // jmpq a264 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,138,254,255,255 // jmpq a6dc <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,121,254,255,255 // jmpq a264 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,121,254,255,255 // jmpq a6dc <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb a41e <_sk_load_tables_rgb_u16_be_hsw+0x201>
+ .byte 114,25 // jb a896 <_sk_load_tables_rgb_u16_be_hsw+0x201>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,70,254,255,255 // jmpq a264 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,70,254,255,255 // jmpq a6dc <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,61,254,255,255 // jmpq a264 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,61,254,255,255 // jmpq a6dc <_sk_load_tables_rgb_u16_be_hsw+0x47>
HIDDEN _sk_byte_tables_hsw
.globl _sk_byte_tables_hsw
@@ -10085,9 +10413,9 @@ _sk_byte_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,29,113,255,2,0 // vbroadcastss 0x2ff71(%rip),%ymm11 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,157,16,3,0 // vbroadcastss 0x3109d(%rip),%ymm11 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,211 // vminps %ymm11,%ymm9,%ymm10
- .byte 196,98,125,24,13,143,255,2,0 // vbroadcastss 0x2ff8f(%rip),%ymm9 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,187,16,3,0 // vbroadcastss 0x310bb(%rip),%ymm9 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,44,89,209 // vmulps %ymm9,%ymm10,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,65,249,126,208 // vmovq %xmm10,%r8
@@ -10223,7 +10551,7 @@ _sk_byte_tables_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,69,253,2,0 // vbroadcastss 0x2fd45(%rip),%ymm8 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,113,14,3,0 // vbroadcastss 0x30e71(%rip),%ymm8 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -10250,7 +10578,7 @@ _sk_byte_tables_rgb_hsw:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,52,95,208 // vmaxps %ymm0,%ymm9,%ymm10
- .byte 196,98,125,24,29,106,252,2,0 // vbroadcastss 0x2fc6a(%rip),%ymm11 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,150,13,3,0 // vbroadcastss 0x30d96(%rip),%ymm11 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,44,93,211 // vminps %ymm11,%ymm10,%ymm10
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
@@ -10353,7 +10681,7 @@ _sk_byte_tables_rgb_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,238,250,2,0 // vbroadcastss 0x2faee(%rip),%ymm8 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,26,12,3,0 // vbroadcastss 0x30c1a(%rip),%ymm8 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -10378,7 +10706,7 @@ _sk_table_r_hsw:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,21,33,250,2,0 // vbroadcastss 0x2fa21(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,77,11,3,0 // vbroadcastss 0x30b4d(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,194 // vminps %ymm10,%ymm0,%ymm0
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
@@ -10401,7 +10729,7 @@ _sk_table_g_hsw:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 196,98,125,24,21,214,249,2,0 // vbroadcastss 0x2f9d6(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,2,11,3,0 // vbroadcastss 0x30b02(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,93,202 // vminps %ymm10,%ymm1,%ymm1
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
@@ -10424,7 +10752,7 @@ _sk_table_b_hsw:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,21,139,249,2,0 // vbroadcastss 0x2f98b(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,183,10,3,0 // vbroadcastss 0x30ab7(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,108,93,210 // vminps %ymm10,%ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
@@ -10447,7 +10775,7 @@ _sk_table_a_hsw:
.byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
- .byte 196,98,125,24,21,64,249,2,0 // vbroadcastss 0x2f940(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,108,10,3,0 // vbroadcastss 0x30a6c(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,218 // vminps %ymm10,%ymm3,%ymm3
.byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
@@ -10474,33 +10802,33 @@ _sk_parametric_r_hsw:
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,36,194,208,0 // vcmpeqps %ymm0,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,107,249,2,0 // vbroadcastss 0x2f96b(%rip),%ymm14 # 3a444 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,102,249,2,0 // vbroadcastss 0x2f966(%rip),%ymm15 # 3a448 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,151,10,3,0 // vbroadcastss 0x30a97(%rip),%ymm14 # 3b9e8 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,61,146,10,3,0 // vbroadcastss 0x30a92(%rip),%ymm15 # 3b9ec <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,184,248,2,0 // vbroadcastss 0x2f8b8(%rip),%ymm15 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,61,228,9,3,0 // vbroadcastss 0x309e4(%rip),%ymm15 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,78,249,2,0 // vbroadcastss 0x2f94e(%rip),%ymm15 # 3a44c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,61,122,10,3,0 // vbroadcastss 0x30a7a(%rip),%ymm15 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,68,249,2,0 // vbroadcastss 0x2f944(%rip),%ymm13 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,45,112,10,3,0 // vbroadcastss 0x30a70(%rip),%ymm13 # 3b9f4 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,58,249,2,0 // vbroadcastss 0x2f93a(%rip),%ymm14 # 3a454 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,102,10,3,0 // vbroadcastss 0x30a66(%rip),%ymm14 # 3b9f8 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,48,249,2,0 // vbroadcastss 0x2f930(%rip),%ymm14 # 3a458 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,92,10,3,0 // vbroadcastss 0x30a5c(%rip),%ymm14 # 3b9fc <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,17,249,2,0 // vbroadcastss 0x2f911(%rip),%ymm13 # 3a45c <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,61,10,3,0 // vbroadcastss 0x30a3d(%rip),%ymm13 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,7,249,2,0 // vbroadcastss 0x2f907(%rip),%ymm13 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,51,10,3,0 // vbroadcastss 0x30a33(%rip),%ymm13 # 3ba04 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,253,248,2,0 // vbroadcastss 0x2f8fd(%rip),%ymm11 # 3a464 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,41,10,3,0 // vbroadcastss 0x30a29(%rip),%ymm11 # 3ba08 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,243,248,2,0 // vbroadcastss 0x2f8f3(%rip),%ymm12 # 3a468 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,37,31,10,3,0 // vbroadcastss 0x30a1f(%rip),%ymm12 # 3ba0c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,228,248,2,0 // vbroadcastss 0x2f8e4(%rip),%ymm12 # 3a46c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,16,10,3,0 // vbroadcastss 0x30a10(%rip),%ymm12 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,208,160 // vblendvps %ymm10,%ymm0,%ymm11,%ymm10
@@ -10508,7 +10836,7 @@ _sk_parametric_r_hsw:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,246,247,2,0 // vbroadcastss 0x2f7f6(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,34,9,3,0 // vbroadcastss 0x30922(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10530,33 +10858,33 @@ _sk_parametric_g_hsw:
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,36,194,209,0 // vcmpeqps %ymm1,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,57,248,2,0 // vbroadcastss 0x2f839(%rip),%ymm14 # 3a444 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,52,248,2,0 // vbroadcastss 0x2f834(%rip),%ymm15 # 3a448 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,101,9,3,0 // vbroadcastss 0x30965(%rip),%ymm14 # 3b9e8 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,61,96,9,3,0 // vbroadcastss 0x30960(%rip),%ymm15 # 3b9ec <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,134,247,2,0 // vbroadcastss 0x2f786(%rip),%ymm15 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,61,178,8,3,0 // vbroadcastss 0x308b2(%rip),%ymm15 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,28,248,2,0 // vbroadcastss 0x2f81c(%rip),%ymm15 # 3a44c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,61,72,9,3,0 // vbroadcastss 0x30948(%rip),%ymm15 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,18,248,2,0 // vbroadcastss 0x2f812(%rip),%ymm13 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,45,62,9,3,0 // vbroadcastss 0x3093e(%rip),%ymm13 # 3b9f4 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,8,248,2,0 // vbroadcastss 0x2f808(%rip),%ymm14 # 3a454 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,52,9,3,0 // vbroadcastss 0x30934(%rip),%ymm14 # 3b9f8 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,254,247,2,0 // vbroadcastss 0x2f7fe(%rip),%ymm14 # 3a458 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,42,9,3,0 // vbroadcastss 0x3092a(%rip),%ymm14 # 3b9fc <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,223,247,2,0 // vbroadcastss 0x2f7df(%rip),%ymm13 # 3a45c <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,11,9,3,0 // vbroadcastss 0x3090b(%rip),%ymm13 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,213,247,2,0 // vbroadcastss 0x2f7d5(%rip),%ymm13 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,1,9,3,0 // vbroadcastss 0x30901(%rip),%ymm13 # 3ba04 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,203,247,2,0 // vbroadcastss 0x2f7cb(%rip),%ymm11 # 3a464 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,247,8,3,0 // vbroadcastss 0x308f7(%rip),%ymm11 # 3ba08 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,193,247,2,0 // vbroadcastss 0x2f7c1(%rip),%ymm12 # 3a468 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,37,237,8,3,0 // vbroadcastss 0x308ed(%rip),%ymm12 # 3ba0c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,178,247,2,0 // vbroadcastss 0x2f7b2(%rip),%ymm12 # 3a46c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,222,8,3,0 // vbroadcastss 0x308de(%rip),%ymm12 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,209,160 // vblendvps %ymm10,%ymm1,%ymm11,%ymm10
@@ -10564,7 +10892,7 @@ _sk_parametric_g_hsw:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 196,98,125,24,5,196,246,2,0 // vbroadcastss 0x2f6c4(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,240,7,3,0 // vbroadcastss 0x307f0(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10586,33 +10914,33 @@ _sk_parametric_b_hsw:
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,36,194,210,0 // vcmpeqps %ymm2,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,7,247,2,0 // vbroadcastss 0x2f707(%rip),%ymm14 # 3a444 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,2,247,2,0 // vbroadcastss 0x2f702(%rip),%ymm15 # 3a448 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,51,8,3,0 // vbroadcastss 0x30833(%rip),%ymm14 # 3b9e8 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,61,46,8,3,0 // vbroadcastss 0x3082e(%rip),%ymm15 # 3b9ec <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,84,246,2,0 // vbroadcastss 0x2f654(%rip),%ymm15 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,61,128,7,3,0 // vbroadcastss 0x30780(%rip),%ymm15 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,234,246,2,0 // vbroadcastss 0x2f6ea(%rip),%ymm15 # 3a44c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,61,22,8,3,0 // vbroadcastss 0x30816(%rip),%ymm15 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,224,246,2,0 // vbroadcastss 0x2f6e0(%rip),%ymm13 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,45,12,8,3,0 // vbroadcastss 0x3080c(%rip),%ymm13 # 3b9f4 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,214,246,2,0 // vbroadcastss 0x2f6d6(%rip),%ymm14 # 3a454 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,2,8,3,0 // vbroadcastss 0x30802(%rip),%ymm14 # 3b9f8 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,204,246,2,0 // vbroadcastss 0x2f6cc(%rip),%ymm14 # 3a458 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,248,7,3,0 // vbroadcastss 0x307f8(%rip),%ymm14 # 3b9fc <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,173,246,2,0 // vbroadcastss 0x2f6ad(%rip),%ymm13 # 3a45c <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,217,7,3,0 // vbroadcastss 0x307d9(%rip),%ymm13 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,163,246,2,0 // vbroadcastss 0x2f6a3(%rip),%ymm13 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,207,7,3,0 // vbroadcastss 0x307cf(%rip),%ymm13 # 3ba04 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,153,246,2,0 // vbroadcastss 0x2f699(%rip),%ymm11 # 3a464 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,197,7,3,0 // vbroadcastss 0x307c5(%rip),%ymm11 # 3ba08 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,143,246,2,0 // vbroadcastss 0x2f68f(%rip),%ymm12 # 3a468 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,37,187,7,3,0 // vbroadcastss 0x307bb(%rip),%ymm12 # 3ba0c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,128,246,2,0 // vbroadcastss 0x2f680(%rip),%ymm12 # 3a46c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,172,7,3,0 // vbroadcastss 0x307ac(%rip),%ymm12 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,210,160 // vblendvps %ymm10,%ymm2,%ymm11,%ymm10
@@ -10620,7 +10948,7 @@ _sk_parametric_b_hsw:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,146,245,2,0 // vbroadcastss 0x2f592(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,190,6,3,0 // vbroadcastss 0x306be(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10642,33 +10970,33 @@ _sk_parametric_a_hsw:
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,36,194,211,0 // vcmpeqps %ymm3,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,213,245,2,0 // vbroadcastss 0x2f5d5(%rip),%ymm14 # 3a444 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,208,245,2,0 // vbroadcastss 0x2f5d0(%rip),%ymm15 # 3a448 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,1,7,3,0 // vbroadcastss 0x30701(%rip),%ymm14 # 3b9e8 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,61,252,6,3,0 // vbroadcastss 0x306fc(%rip),%ymm15 # 3b9ec <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,34,245,2,0 // vbroadcastss 0x2f522(%rip),%ymm15 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,61,78,6,3,0 // vbroadcastss 0x3064e(%rip),%ymm15 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,184,245,2,0 // vbroadcastss 0x2f5b8(%rip),%ymm15 # 3a44c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,61,228,6,3,0 // vbroadcastss 0x306e4(%rip),%ymm15 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,174,245,2,0 // vbroadcastss 0x2f5ae(%rip),%ymm13 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,45,218,6,3,0 // vbroadcastss 0x306da(%rip),%ymm13 # 3b9f4 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,164,245,2,0 // vbroadcastss 0x2f5a4(%rip),%ymm14 # 3a454 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,208,6,3,0 // vbroadcastss 0x306d0(%rip),%ymm14 # 3b9f8 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,154,245,2,0 // vbroadcastss 0x2f59a(%rip),%ymm14 # 3a458 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,198,6,3,0 // vbroadcastss 0x306c6(%rip),%ymm14 # 3b9fc <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,123,245,2,0 // vbroadcastss 0x2f57b(%rip),%ymm13 # 3a45c <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,167,6,3,0 // vbroadcastss 0x306a7(%rip),%ymm13 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,113,245,2,0 // vbroadcastss 0x2f571(%rip),%ymm13 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,157,6,3,0 // vbroadcastss 0x3069d(%rip),%ymm13 # 3ba04 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,103,245,2,0 // vbroadcastss 0x2f567(%rip),%ymm11 # 3a464 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,147,6,3,0 // vbroadcastss 0x30693(%rip),%ymm11 # 3ba08 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,93,245,2,0 // vbroadcastss 0x2f55d(%rip),%ymm12 # 3a468 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,37,137,6,3,0 // vbroadcastss 0x30689(%rip),%ymm12 # 3ba0c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,78,245,2,0 // vbroadcastss 0x2f54e(%rip),%ymm12 # 3a46c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,122,6,3,0 // vbroadcastss 0x3067a(%rip),%ymm12 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,211,160 // vblendvps %ymm10,%ymm3,%ymm11,%ymm10
@@ -10676,7 +11004,7 @@ _sk_parametric_a_hsw:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
- .byte 196,98,125,24,5,96,244,2,0 // vbroadcastss 0x2f460(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,140,5,3,0 // vbroadcastss 0x3058c(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10694,24 +11022,24 @@ _sk_gamma_hsw:
.byte 197,252,17,84,36,224 // vmovups %ymm2,-0x20(%rsp)
.byte 197,252,17,12,36 // vmovups %ymm1,(%rsp)
.byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 196,98,125,24,29,169,244,2,0 // vbroadcastss 0x2f4a9(%rip),%ymm11 # 3a444 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,226,125,24,37,164,244,2,0 // vbroadcastss 0x2f4a4(%rip),%ymm4 # 3a448 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,29,213,5,3,0 // vbroadcastss 0x305d5(%rip),%ymm11 # 3b9e8 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,226,125,24,37,208,5,3,0 // vbroadcastss 0x305d0(%rip),%ymm4 # 3b9ec <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 197,124,84,228 // vandps %ymm4,%ymm0,%ymm12
- .byte 196,226,125,24,29,247,243,2,0 // vbroadcastss 0x2f3f7(%rip),%ymm3 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,29,35,5,3,0 // vbroadcastss 0x30523(%rip),%ymm3 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,17,92,36,32 // vmovups %ymm3,0x20(%rsp)
.byte 197,28,86,227 // vorps %ymm3,%ymm12,%ymm12
- .byte 196,98,125,24,45,136,244,2,0 // vbroadcastss 0x2f488(%rip),%ymm13 # 3a44c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,45,180,5,3,0 // vbroadcastss 0x305b4(%rip),%ymm13 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10
.byte 197,124,91,241 // vcvtdq2ps %ymm1,%ymm14
.byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14
.byte 197,124,91,250 // vcvtdq2ps %ymm2,%ymm15
.byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15
- .byte 196,226,125,24,45,108,244,2,0 // vbroadcastss 0x2f46c(%rip),%ymm5 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,226,125,24,45,152,5,3,0 // vbroadcastss 0x30598(%rip),%ymm5 # 3b9f4 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,98,29,188,213 // vfnmadd231ps %ymm5,%ymm12,%ymm10
- .byte 196,226,125,24,13,98,244,2,0 // vbroadcastss 0x2f462(%rip),%ymm1 # 3a454 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,226,125,24,13,142,5,3,0 // vbroadcastss 0x3058e(%rip),%ymm1 # 3b9f8 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp)
.byte 197,28,88,225 // vaddps %ymm1,%ymm12,%ymm12
- .byte 196,98,125,24,5,83,244,2,0 // vbroadcastss 0x2f453(%rip),%ymm8 # 3a458 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,5,127,5,3,0 // vbroadcastss 0x3057f(%rip),%ymm8 # 3b9fc <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,60,94,228 // vdivps %ymm12,%ymm8,%ymm12
.byte 197,124,17,68,36,128 // vmovups %ymm8,-0x80(%rsp)
.byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
@@ -10720,18 +11048,18 @@ _sk_gamma_hsw:
.byte 196,65,44,89,213 // vmulps %ymm13,%ymm10,%ymm10
.byte 196,195,125,8,250,1 // vroundps $0x1,%ymm10,%ymm7
.byte 197,172,92,255 // vsubps %ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,29,40,244,2,0 // vbroadcastss 0x2f428(%rip),%ymm11 # 3a45c <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,29,84,5,3,0 // vbroadcastss 0x30554(%rip),%ymm11 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,37,30,244,2,0 // vbroadcastss 0x2f41e(%rip),%ymm12 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,37,74,5,3,0 // vbroadcastss 0x3054a(%rip),%ymm12 # 3ba04 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,69,188,212 // vfnmadd231ps %ymm12,%ymm7,%ymm10
- .byte 196,98,125,24,13,20,244,2,0 // vbroadcastss 0x2f414(%rip),%ymm9 # 3a464 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,13,64,5,3,0 // vbroadcastss 0x30540(%rip),%ymm9 # 3ba08 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 197,180,92,255 // vsubps %ymm7,%ymm9,%ymm7
- .byte 196,226,125,24,13,11,244,2,0 // vbroadcastss 0x2f40b(%rip),%ymm1 # 3a468 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,226,125,24,13,55,5,3,0 // vbroadcastss 0x30537(%rip),%ymm1 # 3ba0c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,244,94,255 // vdivps %ymm7,%ymm1,%ymm7
.byte 197,172,88,255 // vaddps %ymm7,%ymm10,%ymm7
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,193,124,194,242,0 // vcmpeqps %ymm10,%ymm0,%ymm6
- .byte 196,226,125,24,29,243,243,2,0 // vbroadcastss 0x2f3f3(%rip),%ymm3 # 3a46c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,226,125,24,29,31,5,3,0 // vbroadcastss 0x3051f(%rip),%ymm3 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,196,89,251 // vmulps %ymm3,%ymm7,%ymm7
.byte 197,253,91,255 // vcvtps2dq %ymm7,%ymm7
.byte 196,195,69,74,194,96 // vblendvps %ymm6,%ymm10,%ymm7,%ymm0
@@ -10800,27 +11128,27 @@ _sk_gamma_dst_hsw:
.byte 197,252,17,76,36,64 // vmovups %ymm1,0x40(%rsp)
.byte 197,252,17,68,36,32 // vmovups %ymm0,0x20(%rsp)
.byte 197,124,91,212 // vcvtdq2ps %ymm4,%ymm10
- .byte 196,98,125,24,29,117,242,2,0 // vbroadcastss 0x2f275(%rip),%ymm11 # 3a444 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,226,125,24,5,112,242,2,0 // vbroadcastss 0x2f270(%rip),%ymm0 # 3a448 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,29,161,3,3,0 // vbroadcastss 0x303a1(%rip),%ymm11 # 3b9e8 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,226,125,24,5,156,3,3,0 // vbroadcastss 0x3039c(%rip),%ymm0 # 3b9ec <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 197,92,84,224 // vandps %ymm0,%ymm4,%ymm12
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,220 // vmovaps %ymm4,%ymm3
- .byte 196,226,125,24,5,187,241,2,0 // vbroadcastss 0x2f1bb(%rip),%ymm0 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,231,2,3,0 // vbroadcastss 0x302e7(%rip),%ymm0 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,17,4,36 // vmovups %ymm0,(%rsp)
.byte 197,28,86,224 // vorps %ymm0,%ymm12,%ymm12
- .byte 196,98,125,24,45,77,242,2,0 // vbroadcastss 0x2f24d(%rip),%ymm13 # 3a44c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,45,121,3,3,0 // vbroadcastss 0x30379(%rip),%ymm13 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10
.byte 197,252,40,197 // vmovaps %ymm5,%ymm0
.byte 197,124,91,240 // vcvtdq2ps %ymm0,%ymm14
.byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14
.byte 197,124,91,124,36,128 // vcvtdq2ps -0x80(%rsp),%ymm15
.byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15
- .byte 196,226,125,24,45,43,242,2,0 // vbroadcastss 0x2f22b(%rip),%ymm5 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,226,125,24,45,87,3,3,0 // vbroadcastss 0x30357(%rip),%ymm5 # 3b9f4 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,98,29,188,213 // vfnmadd231ps %ymm5,%ymm12,%ymm10
- .byte 196,226,125,24,13,33,242,2,0 // vbroadcastss 0x2f221(%rip),%ymm1 # 3a454 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,226,125,24,13,77,3,3,0 // vbroadcastss 0x3034d(%rip),%ymm1 # 3b9f8 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 197,252,17,76,36,192 // vmovups %ymm1,-0x40(%rsp)
.byte 197,28,88,225 // vaddps %ymm1,%ymm12,%ymm12
- .byte 196,98,125,24,13,18,242,2,0 // vbroadcastss 0x2f212(%rip),%ymm9 # 3a458 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,13,62,3,3,0 // vbroadcastss 0x3033e(%rip),%ymm9 # 3b9fc <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,52,94,228 // vdivps %ymm12,%ymm9,%ymm12
.byte 197,124,17,76,36,160 // vmovups %ymm9,-0x60(%rsp)
.byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
@@ -10829,18 +11157,18 @@ _sk_gamma_dst_hsw:
.byte 196,65,44,89,213 // vmulps %ymm13,%ymm10,%ymm10
.byte 196,195,125,8,250,1 // vroundps $0x1,%ymm10,%ymm7
.byte 197,172,92,255 // vsubps %ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,29,231,241,2,0 // vbroadcastss 0x2f1e7(%rip),%ymm11 # 3a45c <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,29,19,3,3,0 // vbroadcastss 0x30313(%rip),%ymm11 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,37,221,241,2,0 // vbroadcastss 0x2f1dd(%rip),%ymm12 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,37,9,3,3,0 // vbroadcastss 0x30309(%rip),%ymm12 # 3ba04 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,69,188,212 // vfnmadd231ps %ymm12,%ymm7,%ymm10
- .byte 196,98,125,24,5,211,241,2,0 // vbroadcastss 0x2f1d3(%rip),%ymm8 # 3a464 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,5,255,2,3,0 // vbroadcastss 0x302ff(%rip),%ymm8 # 3ba08 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 197,188,92,255 // vsubps %ymm7,%ymm8,%ymm7
- .byte 196,226,125,24,13,202,241,2,0 // vbroadcastss 0x2f1ca(%rip),%ymm1 # 3a468 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,226,125,24,13,246,2,3,0 // vbroadcastss 0x302f6(%rip),%ymm1 # 3ba0c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,244,94,255 // vdivps %ymm7,%ymm1,%ymm7
.byte 197,172,88,255 // vaddps %ymm7,%ymm10,%ymm7
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,193,100,194,242,0 // vcmpeqps %ymm10,%ymm3,%ymm6
- .byte 196,226,125,24,29,178,241,2,0 // vbroadcastss 0x2f1b2(%rip),%ymm3 # 3a46c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,226,125,24,29,222,2,3,0 // vbroadcastss 0x302de(%rip),%ymm3 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,196,89,251 // vmulps %ymm3,%ymm7,%ymm7
.byte 197,253,91,255 // vcvtps2dq %ymm7,%ymm7
.byte 196,195,69,74,226,96 // vblendvps %ymm6,%ymm10,%ymm7,%ymm4
@@ -10901,26 +11229,26 @@ HIDDEN _sk_lab_to_xyz_hsw
.globl _sk_lab_to_xyz_hsw
FUNCTION(_sk_lab_to_xyz_hsw)
_sk_lab_to_xyz_hsw:
- .byte 196,98,125,24,5,157,240,2,0 // vbroadcastss 0x2f09d(%rip),%ymm8 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0x374>
- .byte 196,98,125,24,13,252,239,2,0 // vbroadcastss 0x2effc(%rip),%ymm9 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,125,24,21,143,240,2,0 // vbroadcastss 0x2f08f(%rip),%ymm10 # 3a474 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
+ .byte 196,98,125,24,5,201,1,3,0 // vbroadcastss 0x301c9(%rip),%ymm8 # 3ba14 <_sk_srcover_bgra_8888_sse2_lowp+0x374>
+ .byte 196,98,125,24,13,40,1,3,0 // vbroadcastss 0x30128(%rip),%ymm9 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,187,1,3,0 // vbroadcastss 0x301bb(%rip),%ymm10 # 3ba18 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 196,98,125,24,13,128,240,2,0 // vbroadcastss 0x2f080(%rip),%ymm9 # 3a478 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
+ .byte 196,98,125,24,13,172,1,3,0 // vbroadcastss 0x301ac(%rip),%ymm9 # 3ba1c <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
.byte 196,66,125,184,200 // vfmadd231ps %ymm8,%ymm0,%ymm9
- .byte 196,226,125,24,5,118,240,2,0 // vbroadcastss 0x2f076(%rip),%ymm0 # 3a47c <_sk_srcover_bgra_8888_sse2_lowp+0x380>
+ .byte 196,226,125,24,5,162,1,3,0 // vbroadcastss 0x301a2(%rip),%ymm0 # 3ba20 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,5,109,240,2,0 // vbroadcastss 0x2f06d(%rip),%ymm8 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0x384>
+ .byte 196,98,125,24,5,153,1,3,0 // vbroadcastss 0x30199(%rip),%ymm8 # 3ba24 <_sk_srcover_bgra_8888_sse2_lowp+0x384>
.byte 196,98,117,168,192 // vfmadd213ps %ymm0,%ymm1,%ymm8
- .byte 196,98,125,24,13,99,240,2,0 // vbroadcastss 0x2f063(%rip),%ymm9 # 3a484 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
+ .byte 196,98,125,24,13,143,1,3,0 // vbroadcastss 0x3018f(%rip),%ymm9 # 3ba28 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
.byte 196,98,109,172,200 // vfnmadd213ps %ymm0,%ymm2,%ymm9
.byte 196,193,60,89,200 // vmulps %ymm8,%ymm8,%ymm1
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 196,226,125,24,21,80,240,2,0 // vbroadcastss 0x2f050(%rip),%ymm2 # 3a488 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
+ .byte 196,226,125,24,21,124,1,3,0 // vbroadcastss 0x3017c(%rip),%ymm2 # 3ba2c <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
.byte 197,108,194,209,1 // vcmpltps %ymm1,%ymm2,%ymm10
- .byte 196,98,125,24,29,70,240,2,0 // vbroadcastss 0x2f046(%rip),%ymm11 # 3a48c <_sk_srcover_bgra_8888_sse2_lowp+0x390>
+ .byte 196,98,125,24,29,114,1,3,0 // vbroadcastss 0x30172(%rip),%ymm11 # 3ba30 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,37,60,240,2,0 // vbroadcastss 0x2f03c(%rip),%ymm12 # 3a490 <_sk_srcover_bgra_8888_sse2_lowp+0x394>
+ .byte 196,98,125,24,37,104,1,3,0 // vbroadcastss 0x30168(%rip),%ymm12 # 3ba34 <_sk_srcover_bgra_8888_sse2_lowp+0x394>
.byte 196,65,60,89,196 // vmulps %ymm12,%ymm8,%ymm8
.byte 196,99,61,74,193,160 // vblendvps %ymm10,%ymm1,%ymm8,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -10935,9 +11263,9 @@ _sk_lab_to_xyz_hsw:
.byte 196,65,52,88,203 // vaddps %ymm11,%ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
.byte 196,227,53,74,208,32 // vblendvps %ymm2,%ymm0,%ymm9,%ymm2
- .byte 196,226,125,24,5,241,239,2,0 // vbroadcastss 0x2eff1(%rip),%ymm0 # 3a494 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
+ .byte 196,226,125,24,5,29,1,3,0 // vbroadcastss 0x3011d(%rip),%ymm0 # 3ba38 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,232,239,2,0 // vbroadcastss 0x2efe8(%rip),%ymm8 # 3a498 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
+ .byte 196,98,125,24,5,20,1,3,0 // vbroadcastss 0x30114(%rip),%ymm8 # 3ba3c <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10951,12 +11279,12 @@ _sk_load_a8_hsw:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne b4ff <_sk_load_a8_hsw+0x46>
+ .byte 117,52 // jne b977 <_sk_load_a8_hsw+0x46>
.byte 196,194,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm0
- .byte 197,249,219,5,119,248,2,0 // vpand 0x2f877(%rip),%xmm0,%xmm0 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,249,219,5,159,9,3,0 // vpand 0x3099f(%rip),%xmm0,%xmm0 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,57,239,2,0 // vbroadcastss 0x2ef39(%rip),%ymm1 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,101,0,3,0 // vbroadcastss 0x30065(%rip),%ymm1 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -10968,15 +11296,15 @@ _sk_load_a8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,196 // ja b4d1 <_sk_load_a8_hsw+0x18>
+ .byte 119,196 // ja b949 <_sk_load_a8_hsw+0x18>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,117,0,0,0 // lea 0x75(%rip),%r9 # b58c <_sk_load_a8_hsw+0xd3>
+ .byte 76,141,13,117,0,0,0 // lea 0x75(%rip),%r9 # ba04 <_sk_load_a8_hsw+0xd3>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,166 // jmp b4d1 <_sk_load_a8_hsw+0x18>
+ .byte 235,166 // jmp b949 <_sk_load_a8_hsw+0x18>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -10984,7 +11312,7 @@ _sk_load_a8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,129 // jmp b4d1 <_sk_load_a8_hsw+0x18>
+ .byte 235,129 // jmp b949 <_sk_load_a8_hsw+0x18>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -10995,7 +11323,7 @@ _sk_load_a8_hsw:
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,70,255,255,255 // jmpq b4d1 <_sk_load_a8_hsw+0x18>
+ .byte 233,70,255,255,255 // jmpq b949 <_sk_load_a8_hsw+0x18>
.byte 144 // nop
.byte 148 // xchg %eax,%esp
.byte 255 // (bad)
@@ -11004,7 +11332,7 @@ _sk_load_a8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00b59c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd14a0>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00ba14 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd0374>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -11024,12 +11352,12 @@ _sk_load_a8_dst_hsw:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne b5ee <_sk_load_a8_dst_hsw+0x46>
+ .byte 117,52 // jne ba66 <_sk_load_a8_dst_hsw+0x46>
.byte 196,194,121,48,36,16 // vpmovzxbw (%r8,%rdx,1),%xmm4
- .byte 197,217,219,37,136,247,2,0 // vpand 0x2f788(%rip),%xmm4,%xmm4 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,217,219,37,176,8,3,0 // vpand 0x308b0(%rip),%xmm4,%xmm4 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,74,238,2,0 // vbroadcastss 0x2ee4a(%rip),%ymm5 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,118,255,2,0 // vbroadcastss 0x2ff76(%rip),%ymm5 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -11041,15 +11369,15 @@ _sk_load_a8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,196 // ja b5c0 <_sk_load_a8_dst_hsw+0x18>
+ .byte 119,196 // ja ba38 <_sk_load_a8_dst_hsw+0x18>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,118,0,0,0 // lea 0x76(%rip),%r9 # b67c <_sk_load_a8_dst_hsw+0xd4>
+ .byte 76,141,13,118,0,0,0 // lea 0x76(%rip),%r9 # baf4 <_sk_load_a8_dst_hsw+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,166 // jmp b5c0 <_sk_load_a8_dst_hsw+0x18>
+ .byte 235,166 // jmp ba38 <_sk_load_a8_dst_hsw+0x18>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -11057,7 +11385,7 @@ _sk_load_a8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,129 // jmp b5c0 <_sk_load_a8_dst_hsw+0x18>
+ .byte 235,129 // jmp ba38 <_sk_load_a8_dst_hsw+0x18>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -11068,7 +11396,7 @@ _sk_load_a8_dst_hsw:
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,70,255,255,255 // jmpq b5c0 <_sk_load_a8_dst_hsw+0x18>
+ .byte 233,70,255,255,255 // jmpq ba38 <_sk_load_a8_dst_hsw+0x18>
.byte 102,144 // xchg %ax,%ax
.byte 147 // xchg %eax,%ebx
.byte 255 // (bad)
@@ -11077,7 +11405,7 @@ _sk_load_a8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00b68c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd1590>
+ .byte 232,255,255,255,221 // callq ffffffffde00bb04 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd0464>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -11144,7 +11472,7 @@ _sk_gather_a8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,155,236,2,0 // vbroadcastss 0x2ec9b(%rip),%ymm1 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,199,253,2,0 // vbroadcastss 0x2fdc7(%rip),%ymm1 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -11166,16 +11494,16 @@ _sk_store_a8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,233,235,2,0 // vbroadcastss 0x2ebe9(%rip),%ymm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,21,253,2,0 // vbroadcastss 0x2fd15(%rip),%ymm9 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,7,236,2,0 // vbroadcastss 0x2ec07(%rip),%ymm9 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,51,253,2,0 // vbroadcastss 0x2fd33(%rip),%ymm9 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne b7f9 <_sk_store_a8_hsw+0x55>
+ .byte 117,10 // jne bc71 <_sk_store_a8_hsw+0x55>
.byte 196,65,121,214,4,16 // vmovq %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11183,25 +11511,25 @@ _sk_store_a8_hsw:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja b7f5 <_sk_store_a8_hsw+0x51>
+ .byte 119,242 // ja bc6d <_sk_store_a8_hsw+0x51>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,86,0,0,0 // lea 0x56(%rip),%r9 # b868 <_sk_store_a8_hsw+0xc4>
+ .byte 76,141,13,86,0,0,0 // lea 0x56(%rip),%r9 # bce0 <_sk_store_a8_hsw+0xc4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,20,4,16,0 // vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,209 // jmp b7f5 <_sk_store_a8_hsw+0x51>
+ .byte 235,209 // jmp bc6d <_sk_store_a8_hsw+0x51>
.byte 196,67,121,20,68,16,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%rdx,1)
- .byte 196,98,57,0,5,43,245,2,0 // vpshufb 0x2f52b(%rip),%xmm8,%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
+ .byte 196,98,57,0,5,83,6,3,0 // vpshufb 0x30653(%rip),%xmm8,%xmm8 # 3c300 <_sk_srcover_bgra_8888_sse2_lowp+0xc60>
.byte 196,67,121,21,4,16,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,183 // jmp b7f5 <_sk_store_a8_hsw+0x51>
+ .byte 235,183 // jmp bc6d <_sk_store_a8_hsw+0x51>
.byte 196,67,121,20,68,16,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%rdx,1)
.byte 196,67,121,20,68,16,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%rdx,1)
.byte 196,67,121,20,68,16,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%rdx,1)
- .byte 196,98,57,0,5,17,245,2,0 // vpshufb 0x2f511(%rip),%xmm8,%xmm8 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xc74>
+ .byte 196,98,57,0,5,57,6,3,0 // vpshufb 0x30639(%rip),%xmm8,%xmm8 # 3c310 <_sk_srcover_bgra_8888_sse2_lowp+0xc70>
.byte 196,65,121,126,4,16 // vmovd %xmm8,(%r8,%rdx,1)
- .byte 235,142 // jmp b7f5 <_sk_store_a8_hsw+0x51>
+ .byte 235,142 // jmp bc6d <_sk_store_a8_hsw+0x51>
.byte 144 // nop
.byte 179,255 // mov $0xff,%bl
.byte 255 // (bad)
@@ -11232,15 +11560,15 @@ _sk_load_g8_hsw:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne b8cf <_sk_load_g8_hsw+0x4b>
+ .byte 117,57 // jne bd47 <_sk_load_g8_hsw+0x4b>
.byte 196,194,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm0
- .byte 197,249,219,5,172,244,2,0 // vpand 0x2f4ac(%rip),%xmm0,%xmm0 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,249,219,5,212,5,3,0 // vpand 0x305d4(%rip),%xmm0,%xmm0 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,110,235,2,0 // vbroadcastss 0x2eb6e(%rip),%ymm1 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,154,252,2,0 // vbroadcastss 0x2fc9a(%rip),%ymm1 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,231,234,2,0 // vbroadcastss 0x2eae7(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,19,252,2,0 // vbroadcastss 0x2fc13(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -11249,15 +11577,15 @@ _sk_load_g8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,191 // ja b89c <_sk_load_g8_hsw+0x18>
+ .byte 119,191 // ja bd14 <_sk_load_g8_hsw+0x18>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,121,0,0,0 // lea 0x79(%rip),%r9 # b960 <_sk_load_g8_hsw+0xdc>
+ .byte 76,141,13,121,0,0,0 // lea 0x79(%rip),%r9 # bdd8 <_sk_load_g8_hsw+0xdc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,161 // jmp b89c <_sk_load_g8_hsw+0x18>
+ .byte 235,161 // jmp bd14 <_sk_load_g8_hsw+0x18>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -11265,7 +11593,7 @@ _sk_load_g8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,121,255,255,255 // jmpq b89c <_sk_load_g8_hsw+0x18>
+ .byte 233,121,255,255,255 // jmpq bd14 <_sk_load_g8_hsw+0x18>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -11276,7 +11604,7 @@ _sk_load_g8_hsw:
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,62,255,255,255 // jmpq b89c <_sk_load_g8_hsw+0x18>
+ .byte 233,62,255,255,255 // jmpq bd14 <_sk_load_g8_hsw+0x18>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -11285,7 +11613,7 @@ _sk_load_g8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00b970 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd1874>
+ .byte 232,255,255,255,221 // callq ffffffffde00bde8 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd0748>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -11305,15 +11633,15 @@ _sk_load_g8_dst_hsw:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne b9c7 <_sk_load_g8_dst_hsw+0x4b>
+ .byte 117,57 // jne be3f <_sk_load_g8_dst_hsw+0x4b>
.byte 196,194,121,48,36,16 // vpmovzxbw (%r8,%rdx,1),%xmm4
- .byte 197,217,219,37,180,243,2,0 // vpand 0x2f3b4(%rip),%xmm4,%xmm4 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,217,219,37,220,4,3,0 // vpand 0x304dc(%rip),%xmm4,%xmm4 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,118,234,2,0 // vbroadcastss 0x2ea76(%rip),%ymm5 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,162,251,2,0 // vbroadcastss 0x2fba2(%rip),%ymm5 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,239,233,2,0 // vbroadcastss 0x2e9ef(%rip),%ymm7 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,27,251,2,0 // vbroadcastss 0x2fb1b(%rip),%ymm7 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -11322,15 +11650,15 @@ _sk_load_g8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,191 // ja b994 <_sk_load_g8_dst_hsw+0x18>
+ .byte 119,191 // ja be0c <_sk_load_g8_dst_hsw+0x18>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,121,0,0,0 // lea 0x79(%rip),%r9 # ba58 <_sk_load_g8_dst_hsw+0xdc>
+ .byte 76,141,13,121,0,0,0 // lea 0x79(%rip),%r9 # bed0 <_sk_load_g8_dst_hsw+0xdc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,161 // jmp b994 <_sk_load_g8_dst_hsw+0x18>
+ .byte 235,161 // jmp be0c <_sk_load_g8_dst_hsw+0x18>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -11338,7 +11666,7 @@ _sk_load_g8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,121,255,255,255 // jmpq b994 <_sk_load_g8_dst_hsw+0x18>
+ .byte 233,121,255,255,255 // jmpq be0c <_sk_load_g8_dst_hsw+0x18>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -11349,7 +11677,7 @@ _sk_load_g8_dst_hsw:
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,62,255,255,255 // jmpq b994 <_sk_load_g8_dst_hsw+0x18>
+ .byte 233,62,255,255,255 // jmpq be0c <_sk_load_g8_dst_hsw+0x18>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -11358,7 +11686,7 @@ _sk_load_g8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00ba68 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd196c>
+ .byte 232,255,255,255,221 // callq ffffffffde00bee0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd0840>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -11425,10 +11753,10 @@ _sk_gather_g8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,191,232,2,0 // vbroadcastss 0x2e8bf(%rip),%ymm1 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,235,249,2,0 // vbroadcastss 0x2f9eb(%rip),%ymm1 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,56,232,2,0 // vbroadcastss 0x2e838(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,100,249,2,0 // vbroadcastss 0x2f964(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -11447,53 +11775,53 @@ _sk_load_565_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne bc0c <_sk_load_565_hsw+0x87>
+ .byte 117,114 // jne c084 <_sk_load_565_hsw+0x87>
.byte 196,193,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,122,232,2,0 // vpbroadcastd 0x2e87a(%rip),%ymm0 # 3a428 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,88,5,166,249,2,0 // vpbroadcastd 0x2f9a6(%rip),%ymm0 # 3b9cc <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,109,232,2,0 // vbroadcastss 0x2e86d(%rip),%ymm1 # 3a42c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,153,249,2,0 // vbroadcastss 0x2f999(%rip),%ymm1 # 3b9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,100,232,2,0 // vpbroadcastd 0x2e864(%rip),%ymm1 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,88,13,144,249,2,0 // vpbroadcastd 0x2f990(%rip),%ymm1 # 3b9d4 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,87,232,2,0 // vbroadcastss 0x2e857(%rip),%ymm3 # 3a434 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,131,249,2,0 // vbroadcastss 0x2f983(%rip),%ymm3 # 3b9d8 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,78,232,2,0 // vpbroadcastd 0x2e84e(%rip),%ymm3 # 3a438 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,88,29,122,249,2,0 // vpbroadcastd 0x2f97a(%rip),%ymm3 # 3b9dc <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,65,232,2,0 // vbroadcastss 0x2e841(%rip),%ymm3 # 3a43c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,109,249,2,0 // vbroadcastss 0x2f96d(%rip),%ymm3 # 3b9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,162,231,2,0 // vbroadcastss 0x2e7a2(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,206,248,2,0 // vbroadcastss 0x2f8ce(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,7 // and $0x7,%al
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,134 // ja bba0 <_sk_load_565_hsw+0x1b>
+ .byte 119,134 // ja c018 <_sk_load_565_hsw+0x1b>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,100,0,0,0 // lea 0x64(%rip),%r9 # bc88 <_sk_load_565_hsw+0x103>
+ .byte 76,141,13,100,0,0,0 // lea 0x64(%rip),%r9 # c100 <_sk_load_565_hsw+0x103>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,101,255,255,255 // jmpq bba0 <_sk_load_565_hsw+0x1b>
+ .byte 233,101,255,255,255 // jmpq c018 <_sk_load_565_hsw+0x1b>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,72,255,255,255 // jmpq bba0 <_sk_load_565_hsw+0x1b>
+ .byte 233,72,255,255,255 // jmpq c018 <_sk_load_565_hsw+0x1b>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,193,121,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,193,121,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,27,255,255,255 // jmpq bba0 <_sk_load_565_hsw+0x1b>
+ .byte 233,27,255,255,255 // jmpq c018 <_sk_load_565_hsw+0x1b>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -11527,53 +11855,53 @@ _sk_load_565_dst_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne bd2b <_sk_load_565_dst_hsw+0x87>
+ .byte 117,114 // jne c1a3 <_sk_load_565_dst_hsw+0x87>
.byte 196,193,122,111,36,80 // vmovdqu (%r8,%rdx,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 196,226,125,88,37,91,231,2,0 // vpbroadcastd 0x2e75b(%rip),%ymm4 # 3a428 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,88,37,135,248,2,0 // vpbroadcastd 0x2f887(%rip),%ymm4 # 3b9cc <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,205,219,228 // vpand %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,78,231,2,0 // vbroadcastss 0x2e74e(%rip),%ymm5 # 3a42c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,45,122,248,2,0 // vbroadcastss 0x2f87a(%rip),%ymm5 # 3b9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,69,231,2,0 // vpbroadcastd 0x2e745(%rip),%ymm5 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,88,45,113,248,2,0 // vpbroadcastd 0x2f871(%rip),%ymm5 # 3b9d4 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,56,231,2,0 // vbroadcastss 0x2e738(%rip),%ymm7 # 3a434 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,61,100,248,2,0 // vbroadcastss 0x2f864(%rip),%ymm7 # 3b9d8 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,88,61,47,231,2,0 // vpbroadcastd 0x2e72f(%rip),%ymm7 # 3a438 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,88,61,91,248,2,0 // vpbroadcastd 0x2f85b(%rip),%ymm7 # 3b9dc <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,34,231,2,0 // vbroadcastss 0x2e722(%rip),%ymm7 # 3a43c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,61,78,248,2,0 // vbroadcastss 0x2f84e(%rip),%ymm7 # 3b9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,131,230,2,0 // vbroadcastss 0x2e683(%rip),%ymm7 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,175,247,2,0 // vbroadcastss 0x2f7af(%rip),%ymm7 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,7 // and $0x7,%al
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,134 // ja bcbf <_sk_load_565_dst_hsw+0x1b>
+ .byte 119,134 // ja c137 <_sk_load_565_dst_hsw+0x1b>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,97,0,0,0 // lea 0x61(%rip),%r9 # bda4 <_sk_load_565_dst_hsw+0x100>
+ .byte 76,141,13,97,0,0,0 // lea 0x61(%rip),%r9 # c21c <_sk_load_565_dst_hsw+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,101,255,255,255 // jmpq bcbf <_sk_load_565_dst_hsw+0x1b>
+ .byte 233,101,255,255,255 // jmpq c137 <_sk_load_565_dst_hsw+0x1b>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,72,255,255,255 // jmpq bcbf <_sk_load_565_dst_hsw+0x1b>
+ .byte 233,72,255,255,255 // jmpq c137 <_sk_load_565_dst_hsw+0x1b>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,193,89,196,100,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,193,89,196,100,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,27,255,255,255 // jmpq bcbf <_sk_load_565_dst_hsw+0x1b>
+ .byte 233,27,255,255,255 // jmpq c137 <_sk_load_565_dst_hsw+0x1b>
.byte 168,255 // test $0xff,%al
.byte 255 // (bad)
.byte 255,194 // inc %edx
@@ -11648,23 +11976,23 @@ _sk_gather_565_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,128,229,2,0 // vpbroadcastd 0x2e580(%rip),%ymm0 # 3a428 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,88,5,172,246,2,0 // vpbroadcastd 0x2f6ac(%rip),%ymm0 # 3b9cc <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,115,229,2,0 // vbroadcastss 0x2e573(%rip),%ymm1 # 3a42c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,159,246,2,0 // vbroadcastss 0x2f69f(%rip),%ymm1 # 3b9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,106,229,2,0 // vpbroadcastd 0x2e56a(%rip),%ymm1 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,88,13,150,246,2,0 // vpbroadcastd 0x2f696(%rip),%ymm1 # 3b9d4 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,93,229,2,0 // vbroadcastss 0x2e55d(%rip),%ymm3 # 3a434 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,137,246,2,0 // vbroadcastss 0x2f689(%rip),%ymm3 # 3b9d8 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,84,229,2,0 // vpbroadcastd 0x2e554(%rip),%ymm3 # 3a438 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,88,29,128,246,2,0 // vpbroadcastd 0x2f680(%rip),%ymm3 # 3b9dc <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,71,229,2,0 // vbroadcastss 0x2e547(%rip),%ymm3 # 3a43c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,115,246,2,0 // vbroadcastss 0x2f673(%rip),%ymm3 # 3b9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,168,228,2,0 // vbroadcastss 0x2e4a8(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,212,245,2,0 // vbroadcastss 0x2f5d4(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -11682,15 +12010,15 @@ _sk_store_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,125,228,2,0 // vbroadcastss 0x2e47d(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,169,245,2,0 // vbroadcastss 0x2f5a9(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,95,229,2,0 // vbroadcastss 0x2e55f(%rip),%ymm11 # 3a49c <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
+ .byte 196,98,125,24,29,139,246,2,0 // vbroadcastss 0x2f68b(%rip),%ymm11 # 3ba40 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
.byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,98,125,24,45,65,229,2,0 // vbroadcastss 0x2e541(%rip),%ymm13 # 3a4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
+ .byte 196,98,125,24,45,109,246,2,0 // vbroadcastss 0x2f66d(%rip),%ymm13 # 3ba44 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
.byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
.byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
.byte 196,193,29,114,244,5 // vpslld $0x5,%ymm12,%ymm12
@@ -11703,7 +12031,7 @@ _sk_store_565_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne bfa6 <_sk_store_565_hsw+0x99>
+ .byte 117,10 // jne c41e <_sk_store_565_hsw+0x99>
.byte 196,65,122,127,4,80 // vmovdqu %xmm8,(%r8,%rdx,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11711,22 +12039,22 @@ _sk_store_565_hsw:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja bfa2 <_sk_store_565_hsw+0x95>
+ .byte 119,242 // ja c41a <_sk_store_565_hsw+0x95>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,66,0,0,0 // lea 0x42(%rip),%r9 # bffc <_sk_store_565_hsw+0xef>
+ .byte 76,141,13,66,0,0,0 // lea 0x42(%rip),%r9 # c474 <_sk_store_565_hsw+0xef>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,214 // jmp bfa2 <_sk_store_565_hsw+0x95>
+ .byte 235,214 // jmp c41a <_sk_store_565_hsw+0x95>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 235,198 // jmp bfa2 <_sk_store_565_hsw+0x95>
+ .byte 235,198 // jmp c41a <_sk_store_565_hsw+0x95>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,166 // jmp bfa2 <_sk_store_565_hsw+0x95>
+ .byte 235,166 // jmp c41a <_sk_store_565_hsw+0x95>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -11744,7 +12072,7 @@ _sk_store_565_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe100c014 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fd1f18>
+ .byte 232,255,255,255,224 // callq ffffffffe100c48c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fd0dec>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -11759,28 +12087,28 @@ _sk_load_4444_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne c0bb <_sk_load_4444_hsw+0xa3>
+ .byte 15,133,138,0,0,0 // jne c533 <_sk_load_4444_hsw+0xa3>
.byte 196,193,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,95,228,2,0 // vpbroadcastd 0x2e45f(%rip),%ymm0 # 3a4a4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,88,5,139,245,2,0 // vpbroadcastd 0x2f58b(%rip),%ymm0 # 3ba48 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,82,228,2,0 // vbroadcastss 0x2e452(%rip),%ymm1 # 3a4a8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,126,245,2,0 // vbroadcastss 0x2f57e(%rip),%ymm1 # 3ba4c <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,73,228,2,0 // vpbroadcastd 0x2e449(%rip),%ymm1 # 3a4ac <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,88,13,117,245,2,0 // vpbroadcastd 0x2f575(%rip),%ymm1 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,60,228,2,0 // vbroadcastss 0x2e43c(%rip),%ymm2 # 3a4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,104,245,2,0 // vbroadcastss 0x2f568(%rip),%ymm2 # 3ba54 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,51,228,2,0 // vpbroadcastd 0x2e433(%rip),%ymm2 # 3a4b4 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,88,21,95,245,2,0 // vpbroadcastd 0x2f55f(%rip),%ymm2 # 3ba58 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,38,228,2,0 // vbroadcastss 0x2e426(%rip),%ymm8 # 3a4b8 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,82,245,2,0 // vbroadcastss 0x2f552(%rip),%ymm8 # 3ba5c <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,28,228,2,0 // vpbroadcastd 0x2e41c(%rip),%ymm8 # 3a4bc <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,88,5,72,245,2,0 // vpbroadcastd 0x2f548(%rip),%ymm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,14,228,2,0 // vbroadcastss 0x2e40e(%rip),%ymm8 # 3a4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,58,245,2,0 // vbroadcastss 0x2f53a(%rip),%ymm8 # 3ba64 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11789,27 +12117,27 @@ _sk_load_4444_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,106,255,255,255 // ja c037 <_sk_load_4444_hsw+0x1f>
+ .byte 15,135,106,255,255,255 // ja c4af <_sk_load_4444_hsw+0x1f>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,97,0,0,0 // lea 0x61(%rip),%r9 # c138 <_sk_load_4444_hsw+0x120>
+ .byte 76,141,13,97,0,0,0 // lea 0x61(%rip),%r9 # c5b0 <_sk_load_4444_hsw+0x120>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,73,255,255,255 // jmpq c037 <_sk_load_4444_hsw+0x1f>
+ .byte 233,73,255,255,255 // jmpq c4af <_sk_load_4444_hsw+0x1f>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,44,255,255,255 // jmpq c037 <_sk_load_4444_hsw+0x1f>
+ .byte 233,44,255,255,255 // jmpq c4af <_sk_load_4444_hsw+0x1f>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,193,121,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,193,121,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,255,254,255,255 // jmpq c037 <_sk_load_4444_hsw+0x1f>
+ .byte 233,255,254,255,255 // jmpq c4af <_sk_load_4444_hsw+0x1f>
.byte 168,255 // test $0xff,%al
.byte 255 // (bad)
.byte 255,194 // inc %edx
@@ -11839,28 +12167,28 @@ _sk_load_4444_dst_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne c1f7 <_sk_load_4444_dst_hsw+0xa3>
+ .byte 15,133,138,0,0,0 // jne c66f <_sk_load_4444_dst_hsw+0xa3>
.byte 196,193,122,111,36,80 // vmovdqu (%r8,%rdx,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 196,226,125,88,37,35,227,2,0 // vpbroadcastd 0x2e323(%rip),%ymm4 # 3a4a4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,88,37,79,244,2,0 // vpbroadcastd 0x2f44f(%rip),%ymm4 # 3ba48 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,197,219,228 // vpand %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,22,227,2,0 // vbroadcastss 0x2e316(%rip),%ymm5 # 3a4a8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,45,66,244,2,0 // vbroadcastss 0x2f442(%rip),%ymm5 # 3ba4c <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,13,227,2,0 // vpbroadcastd 0x2e30d(%rip),%ymm5 # 3a4ac <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,88,45,57,244,2,0 // vpbroadcastd 0x2f439(%rip),%ymm5 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,197,219,237 // vpand %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,0,227,2,0 // vbroadcastss 0x2e300(%rip),%ymm6 # 3a4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,53,44,244,2,0 // vbroadcastss 0x2f42c(%rip),%ymm6 # 3ba54 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,88,53,247,226,2,0 // vpbroadcastd 0x2e2f7(%rip),%ymm6 # 3a4b4 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,88,53,35,244,2,0 // vpbroadcastd 0x2f423(%rip),%ymm6 # 3ba58 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,197,219,246 // vpand %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,234,226,2,0 // vbroadcastss 0x2e2ea(%rip),%ymm8 # 3a4b8 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,22,244,2,0 // vbroadcastss 0x2f416(%rip),%ymm8 # 3ba5c <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,88,5,224,226,2,0 // vpbroadcastd 0x2e2e0(%rip),%ymm8 # 3a4bc <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,88,5,12,244,2,0 // vpbroadcastd 0x2f40c(%rip),%ymm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,69,219,248 // vpand %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,210,226,2,0 // vbroadcastss 0x2e2d2(%rip),%ymm8 # 3a4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,254,243,2,0 // vbroadcastss 0x2f3fe(%rip),%ymm8 # 3ba64 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11869,27 +12197,27 @@ _sk_load_4444_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,106,255,255,255 // ja c173 <_sk_load_4444_dst_hsw+0x1f>
+ .byte 15,135,106,255,255,255 // ja c5eb <_sk_load_4444_dst_hsw+0x1f>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,97,0,0,0 // lea 0x61(%rip),%r9 # c274 <_sk_load_4444_dst_hsw+0x120>
+ .byte 76,141,13,97,0,0,0 // lea 0x61(%rip),%r9 # c6ec <_sk_load_4444_dst_hsw+0x120>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,73,255,255,255 // jmpq c173 <_sk_load_4444_dst_hsw+0x1f>
+ .byte 233,73,255,255,255 // jmpq c5eb <_sk_load_4444_dst_hsw+0x1f>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,44,255,255,255 // jmpq c173 <_sk_load_4444_dst_hsw+0x1f>
+ .byte 233,44,255,255,255 // jmpq c5eb <_sk_load_4444_dst_hsw+0x1f>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,193,89,196,100,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,193,89,196,100,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,255,254,255,255 // jmpq c173 <_sk_load_4444_dst_hsw+0x1f>
+ .byte 233,255,254,255,255 // jmpq c5eb <_sk_load_4444_dst_hsw+0x1f>
.byte 168,255 // test $0xff,%al
.byte 255 // (bad)
.byte 255,194 // inc %edx
@@ -11964,25 +12292,25 @@ _sk_gather_4444_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,44,225,2,0 // vpbroadcastd 0x2e12c(%rip),%ymm0 # 3a4a4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,88,5,88,242,2,0 // vpbroadcastd 0x2f258(%rip),%ymm0 # 3ba48 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,31,225,2,0 // vbroadcastss 0x2e11f(%rip),%ymm1 # 3a4a8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,75,242,2,0 // vbroadcastss 0x2f24b(%rip),%ymm1 # 3ba4c <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,22,225,2,0 // vpbroadcastd 0x2e116(%rip),%ymm1 # 3a4ac <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,88,13,66,242,2,0 // vpbroadcastd 0x2f242(%rip),%ymm1 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,9,225,2,0 // vbroadcastss 0x2e109(%rip),%ymm2 # 3a4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,53,242,2,0 // vbroadcastss 0x2f235(%rip),%ymm2 # 3ba54 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,0,225,2,0 // vpbroadcastd 0x2e100(%rip),%ymm2 # 3a4b4 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,88,21,44,242,2,0 // vpbroadcastd 0x2f22c(%rip),%ymm2 # 3ba58 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,243,224,2,0 // vbroadcastss 0x2e0f3(%rip),%ymm8 # 3a4b8 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,31,242,2,0 // vbroadcastss 0x2f21f(%rip),%ymm8 # 3ba5c <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,233,224,2,0 // vpbroadcastd 0x2e0e9(%rip),%ymm8 # 3a4bc <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,88,5,21,242,2,0 // vpbroadcastd 0x2f215(%rip),%ymm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,219,224,2,0 // vbroadcastss 0x2e0db(%rip),%ymm8 # 3a4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,7,242,2,0 // vbroadcastss 0x2f207(%rip),%ymm8 # 3ba64 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -12002,9 +12330,9 @@ _sk_store_4444_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,149,223,2,0 // vbroadcastss 0x2df95(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,193,240,2,0 // vbroadcastss 0x2f0c1(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,159,224,2,0 // vbroadcastss 0x2e09f(%rip),%ymm11 # 3a4c4 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
+ .byte 196,98,125,24,29,203,241,2,0 // vbroadcastss 0x2f1cb(%rip),%ymm11 # 3ba68 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
@@ -12028,7 +12356,7 @@ _sk_store_4444_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne c4a3 <_sk_store_4444_hsw+0xae>
+ .byte 117,10 // jne c91b <_sk_store_4444_hsw+0xae>
.byte 196,65,122,127,4,80 // vmovdqu %xmm8,(%r8,%rdx,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12036,22 +12364,22 @@ _sk_store_4444_hsw:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja c49f <_sk_store_4444_hsw+0xaa>
+ .byte 119,242 // ja c917 <_sk_store_4444_hsw+0xaa>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,69,0,0,0 // lea 0x45(%rip),%r9 # c4fc <_sk_store_4444_hsw+0x107>
+ .byte 76,141,13,69,0,0,0 // lea 0x45(%rip),%r9 # c974 <_sk_store_4444_hsw+0x107>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,214 // jmp c49f <_sk_store_4444_hsw+0xaa>
+ .byte 235,214 // jmp c917 <_sk_store_4444_hsw+0xaa>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 235,198 // jmp c49f <_sk_store_4444_hsw+0xaa>
+ .byte 235,198 // jmp c917 <_sk_store_4444_hsw+0xaa>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,166 // jmp c49f <_sk_store_4444_hsw+0xaa>
+ .byte 235,166 // jmp c917 <_sk_store_4444_hsw+0xaa>
.byte 15,31,0 // nopl (%rax)
.byte 196 // (bad)
.byte 255 // (bad)
@@ -12087,16 +12415,16 @@ _sk_load_8888_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne c584 <_sk_load_8888_hsw+0x6c>
+ .byte 117,86 // jne c9fc <_sk_load_8888_hsw+0x6c>
.byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 197,229,219,5,132,225,2,0 // vpand 0x2e184(%rip),%ymm3,%ymm0 # 3a6c0 <_sk_srcover_bgra_8888_sse2_lowp+0x5c4>
+ .byte 197,229,219,5,172,242,2,0 // vpand 0x2f2ac(%rip),%ymm3,%ymm0 # 3bc60 <_sk_srcover_bgra_8888_sse2_lowp+0x5c0>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,219,222,2,0 // vbroadcastss 0x2dedb(%rip),%ymm8 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,7,240,2,0 // vbroadcastss 0x2f007(%rip),%ymm8 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,101,0,13,137,225,2,0 // vpshufb 0x2e189(%rip),%ymm3,%ymm1 # 3a6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x5e4>
+ .byte 196,226,101,0,13,177,242,2,0 // vpshufb 0x2f2b1(%rip),%ymm3,%ymm1 # 3bc80 <_sk_srcover_bgra_8888_sse2_lowp+0x5e0>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,101,0,21,151,225,2,0 // vpshufb 0x2e197(%rip),%ymm3,%ymm2 # 3a700 <_sk_srcover_bgra_8888_sse2_lowp+0x604>
+ .byte 196,226,101,0,21,191,242,2,0 // vpshufb 0x2f2bf(%rip),%ymm3,%ymm2 # 3bca0 <_sk_srcover_bgra_8888_sse2_lowp+0x600>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -12109,21 +12437,21 @@ _sk_load_8888_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,162 // ja c534 <_sk_load_8888_hsw+0x1c>
+ .byte 119,162 // ja c9ac <_sk_load_8888_hsw+0x1c>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,136,0,0,0 // lea 0x88(%rip),%r9 # c624 <_sk_load_8888_hsw+0x10c>
+ .byte 76,141,13,136,0,0,0 // lea 0x88(%rip),%r9 # ca9c <_sk_load_8888_hsw+0x10c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 235,135 // jmp c534 <_sk_load_8888_hsw+0x1c>
+ .byte 235,135 // jmp c9ac <_sk_load_8888_hsw+0x1c>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,193,122,126,4,144 // vmovq (%r8,%rdx,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,96,255,255,255 // jmpq c534 <_sk_load_8888_hsw+0x1c>
+ .byte 233,96,255,255,255 // jmpq c9ac <_sk_load_8888_hsw+0x1c>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -12136,7 +12464,7 @@ _sk_load_8888_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,17,255,255,255 // jmpq c534 <_sk_load_8888_hsw+0x1c>
+ .byte 233,17,255,255,255 // jmpq c9ac <_sk_load_8888_hsw+0x1c>
.byte 144 // nop
.byte 129,255,255,255,159,255 // cmp $0xff9fffff,%edi
.byte 255 // (bad)
@@ -12164,16 +12492,16 @@ _sk_load_8888_dst_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne c6ac <_sk_load_8888_dst_hsw+0x6c>
+ .byte 117,86 // jne cb24 <_sk_load_8888_dst_hsw+0x6c>
.byte 196,193,126,111,60,144 // vmovdqu (%r8,%rdx,4),%ymm7
- .byte 197,197,219,37,188,224,2,0 // vpand 0x2e0bc(%rip),%ymm7,%ymm4 # 3a720 <_sk_srcover_bgra_8888_sse2_lowp+0x624>
+ .byte 197,197,219,37,228,241,2,0 // vpand 0x2f1e4(%rip),%ymm7,%ymm4 # 3bcc0 <_sk_srcover_bgra_8888_sse2_lowp+0x620>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,179,221,2,0 // vbroadcastss 0x2ddb3(%rip),%ymm8 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,223,238,2,0 // vbroadcastss 0x2eedf(%rip),%ymm8 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 196,226,69,0,45,193,224,2,0 // vpshufb 0x2e0c1(%rip),%ymm7,%ymm5 # 3a740 <_sk_srcover_bgra_8888_sse2_lowp+0x644>
+ .byte 196,226,69,0,45,233,241,2,0 // vpshufb 0x2f1e9(%rip),%ymm7,%ymm5 # 3bce0 <_sk_srcover_bgra_8888_sse2_lowp+0x640>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
.byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
- .byte 196,226,69,0,53,207,224,2,0 // vpshufb 0x2e0cf(%rip),%ymm7,%ymm6 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x664>
+ .byte 196,226,69,0,53,247,241,2,0 // vpshufb 0x2f1f7(%rip),%ymm7,%ymm6 # 3bd00 <_sk_srcover_bgra_8888_sse2_lowp+0x660>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -12186,21 +12514,21 @@ _sk_load_8888_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,162 // ja c65c <_sk_load_8888_dst_hsw+0x1c>
+ .byte 119,162 // ja cad4 <_sk_load_8888_dst_hsw+0x1c>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,136,0,0,0 // lea 0x88(%rip),%r9 # c74c <_sk_load_8888_dst_hsw+0x10c>
+ .byte 76,141,13,136,0,0,0 // lea 0x88(%rip),%r9 # cbc4 <_sk_load_8888_dst_hsw+0x10c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,60,144 // vmovd (%r8,%rdx,4),%xmm7
- .byte 235,135 // jmp c65c <_sk_load_8888_dst_hsw+0x1c>
+ .byte 235,135 // jmp cad4 <_sk_load_8888_dst_hsw+0x1c>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,193,122,126,36,144 // vmovq (%r8,%rdx,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,96,255,255,255 // jmpq c65c <_sk_load_8888_dst_hsw+0x1c>
+ .byte 233,96,255,255,255 // jmpq cad4 <_sk_load_8888_dst_hsw+0x1c>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -12213,7 +12541,7 @@ _sk_load_8888_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,193,122,111,36,144 // vmovdqu (%r8,%rdx,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,17,255,255,255 // jmpq c65c <_sk_load_8888_dst_hsw+0x1c>
+ .byte 233,17,255,255,255 // jmpq cad4 <_sk_load_8888_dst_hsw+0x1c>
.byte 144 // nop
.byte 129,255,255,255,159,255 // cmp $0xff9fffff,%edi
.byte 255 // (bad)
@@ -12253,14 +12581,14 @@ _sk_gather_8888_hsw:
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,193,223,2,0 // vpand 0x2dfc1(%rip),%ymm8,%ymm0 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x684>
+ .byte 197,189,219,5,233,240,2,0 // vpand 0x2f0e9(%rip),%ymm8,%ymm0 # 3bd20 <_sk_srcover_bgra_8888_sse2_lowp+0x680>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,88,220,2,0 // vbroadcastss 0x2dc58(%rip),%ymm3 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,132,237,2,0 // vbroadcastss 0x2ed84(%rip),%ymm3 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,61,0,13,199,223,2,0 // vpshufb 0x2dfc7(%rip),%ymm8,%ymm1 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x6a4>
+ .byte 196,226,61,0,13,239,240,2,0 // vpshufb 0x2f0ef(%rip),%ymm8,%ymm1 # 3bd40 <_sk_srcover_bgra_8888_sse2_lowp+0x6a0>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,61,0,21,214,223,2,0 // vpshufb 0x2dfd6(%rip),%ymm8,%ymm2 # 3a7c0 <_sk_srcover_bgra_8888_sse2_lowp+0x6c4>
+ .byte 196,226,61,0,21,254,240,2,0 // vpshufb 0x2f0fe(%rip),%ymm8,%ymm2 # 3bd60 <_sk_srcover_bgra_8888_sse2_lowp+0x6c0>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
@@ -12280,9 +12608,9 @@ _sk_store_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,132,219,2,0 // vbroadcastss 0x2db84(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,176,236,2,0 // vbroadcastss 0x2ecb0(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,162,219,2,0 // vbroadcastss 0x2dba2(%rip),%ymm11 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,206,236,2,0 // vbroadcastss 0x2ecce(%rip),%ymm11 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
@@ -12304,7 +12632,7 @@ _sk_store_8888_hsw:
.byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne c8a9 <_sk_store_8888_hsw+0xa4>
+ .byte 117,10 // jne cd21 <_sk_store_8888_hsw+0xa4>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12312,17 +12640,17 @@ _sk_store_8888_hsw:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja c8a5 <_sk_store_8888_hsw+0xa0>
+ .byte 119,242 // ja cd1d <_sk_store_8888_hsw+0xa0>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # c910 <_sk_store_8888_hsw+0x10b>
+ .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # cd88 <_sk_store_8888_hsw+0x10b>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp c8a5 <_sk_store_8888_hsw+0xa0>
+ .byte 235,215 // jmp cd1d <_sk_store_8888_hsw+0xa0>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 235,199 // jmp c8a5 <_sk_store_8888_hsw+0xa0>
+ .byte 235,199 // jmp cd1d <_sk_store_8888_hsw+0xa0>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -12330,7 +12658,7 @@ _sk_store_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,150 // jmp c8a5 <_sk_store_8888_hsw+0xa0>
+ .byte 235,150 // jmp cd1d <_sk_store_8888_hsw+0xa0>
.byte 144 // nop
.byte 182,255 // mov $0xff,%dh
.byte 255 // (bad)
@@ -12363,16 +12691,16 @@ _sk_load_bgra_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne c998 <_sk_load_bgra_hsw+0x6c>
+ .byte 117,86 // jne ce10 <_sk_load_bgra_hsw+0x6c>
.byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 197,229,219,5,144,222,2,0 // vpand 0x2de90(%rip),%ymm3,%ymm0 # 3a7e0 <_sk_srcover_bgra_8888_sse2_lowp+0x6e4>
+ .byte 197,229,219,5,184,239,2,0 // vpand 0x2efb8(%rip),%ymm3,%ymm0 # 3bd80 <_sk_srcover_bgra_8888_sse2_lowp+0x6e0>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,199,218,2,0 // vbroadcastss 0x2dac7(%rip),%ymm8 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,243,235,2,0 // vbroadcastss 0x2ebf3(%rip),%ymm8 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
- .byte 196,226,101,0,5,149,222,2,0 // vpshufb 0x2de95(%rip),%ymm3,%ymm0 # 3a800 <_sk_srcover_bgra_8888_sse2_lowp+0x704>
+ .byte 196,226,101,0,5,189,239,2,0 // vpshufb 0x2efbd(%rip),%ymm3,%ymm0 # 3bda0 <_sk_srcover_bgra_8888_sse2_lowp+0x700>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1
- .byte 196,226,101,0,5,163,222,2,0 // vpshufb 0x2dea3(%rip),%ymm3,%ymm0 # 3a820 <_sk_srcover_bgra_8888_sse2_lowp+0x724>
+ .byte 196,226,101,0,5,203,239,2,0 // vpshufb 0x2efcb(%rip),%ymm3,%ymm0 # 3bdc0 <_sk_srcover_bgra_8888_sse2_lowp+0x720>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -12385,21 +12713,21 @@ _sk_load_bgra_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,162 // ja c948 <_sk_load_bgra_hsw+0x1c>
+ .byte 119,162 // ja cdc0 <_sk_load_bgra_hsw+0x1c>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,136,0,0,0 // lea 0x88(%rip),%r9 # ca38 <_sk_load_bgra_hsw+0x10c>
+ .byte 76,141,13,136,0,0,0 // lea 0x88(%rip),%r9 # ceb0 <_sk_load_bgra_hsw+0x10c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 235,135 // jmp c948 <_sk_load_bgra_hsw+0x1c>
+ .byte 235,135 // jmp cdc0 <_sk_load_bgra_hsw+0x1c>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,193,122,126,4,144 // vmovq (%r8,%rdx,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,96,255,255,255 // jmpq c948 <_sk_load_bgra_hsw+0x1c>
+ .byte 233,96,255,255,255 // jmpq cdc0 <_sk_load_bgra_hsw+0x1c>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -12412,7 +12740,7 @@ _sk_load_bgra_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,17,255,255,255 // jmpq c948 <_sk_load_bgra_hsw+0x1c>
+ .byte 233,17,255,255,255 // jmpq cdc0 <_sk_load_bgra_hsw+0x1c>
.byte 144 // nop
.byte 129,255,255,255,159,255 // cmp $0xff9fffff,%edi
.byte 255 // (bad)
@@ -12440,16 +12768,16 @@ _sk_load_bgra_dst_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne cac0 <_sk_load_bgra_dst_hsw+0x6c>
+ .byte 117,86 // jne cf38 <_sk_load_bgra_dst_hsw+0x6c>
.byte 196,193,126,111,60,144 // vmovdqu (%r8,%rdx,4),%ymm7
- .byte 197,197,219,37,200,221,2,0 // vpand 0x2ddc8(%rip),%ymm7,%ymm4 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x744>
+ .byte 197,197,219,37,240,238,2,0 // vpand 0x2eef0(%rip),%ymm7,%ymm4 # 3bde0 <_sk_srcover_bgra_8888_sse2_lowp+0x740>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,159,217,2,0 // vbroadcastss 0x2d99f(%rip),%ymm8 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,203,234,2,0 // vbroadcastss 0x2eacb(%rip),%ymm8 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
- .byte 196,226,69,0,37,205,221,2,0 // vpshufb 0x2ddcd(%rip),%ymm7,%ymm4 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x764>
+ .byte 196,226,69,0,37,245,238,2,0 // vpshufb 0x2eef5(%rip),%ymm7,%ymm4 # 3be00 <_sk_srcover_bgra_8888_sse2_lowp+0x760>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,232 // vmulps %ymm8,%ymm4,%ymm5
- .byte 196,226,69,0,37,219,221,2,0 // vpshufb 0x2dddb(%rip),%ymm7,%ymm4 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x784>
+ .byte 196,226,69,0,37,3,239,2,0 // vpshufb 0x2ef03(%rip),%ymm7,%ymm4 # 3be20 <_sk_srcover_bgra_8888_sse2_lowp+0x780>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -12462,21 +12790,21 @@ _sk_load_bgra_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,162 // ja ca70 <_sk_load_bgra_dst_hsw+0x1c>
+ .byte 119,162 // ja cee8 <_sk_load_bgra_dst_hsw+0x1c>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,136,0,0,0 // lea 0x88(%rip),%r9 # cb60 <_sk_load_bgra_dst_hsw+0x10c>
+ .byte 76,141,13,136,0,0,0 // lea 0x88(%rip),%r9 # cfd8 <_sk_load_bgra_dst_hsw+0x10c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,60,144 // vmovd (%r8,%rdx,4),%xmm7
- .byte 235,135 // jmp ca70 <_sk_load_bgra_dst_hsw+0x1c>
+ .byte 235,135 // jmp cee8 <_sk_load_bgra_dst_hsw+0x1c>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,193,122,126,36,144 // vmovq (%r8,%rdx,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,96,255,255,255 // jmpq ca70 <_sk_load_bgra_dst_hsw+0x1c>
+ .byte 233,96,255,255,255 // jmpq cee8 <_sk_load_bgra_dst_hsw+0x1c>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -12489,7 +12817,7 @@ _sk_load_bgra_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,193,122,111,36,144 // vmovdqu (%r8,%rdx,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,17,255,255,255 // jmpq ca70 <_sk_load_bgra_dst_hsw+0x1c>
+ .byte 233,17,255,255,255 // jmpq cee8 <_sk_load_bgra_dst_hsw+0x1c>
.byte 144 // nop
.byte 129,255,255,255,159,255 // cmp $0xff9fffff,%edi
.byte 255 // (bad)
@@ -12529,14 +12857,14 @@ _sk_gather_bgra_hsw:
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,205,220,2,0 // vpand 0x2dccd(%rip),%ymm8,%ymm0 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x7a4>
+ .byte 197,189,219,5,245,237,2,0 // vpand 0x2edf5(%rip),%ymm8,%ymm0 # 3be40 <_sk_srcover_bgra_8888_sse2_lowp+0x7a0>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,68,216,2,0 // vbroadcastss 0x2d844(%rip),%ymm3 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,112,233,2,0 // vbroadcastss 0x2e970(%rip),%ymm3 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
- .byte 196,226,61,0,5,211,220,2,0 // vpshufb 0x2dcd3(%rip),%ymm8,%ymm0 # 3a8c0 <_sk_srcover_bgra_8888_sse2_lowp+0x7c4>
+ .byte 196,226,61,0,5,251,237,2,0 // vpshufb 0x2edfb(%rip),%ymm8,%ymm0 # 3be60 <_sk_srcover_bgra_8888_sse2_lowp+0x7c0>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 197,252,89,203 // vmulps %ymm3,%ymm0,%ymm1
- .byte 196,226,61,0,5,226,220,2,0 // vpshufb 0x2dce2(%rip),%ymm8,%ymm0 # 3a8e0 <_sk_srcover_bgra_8888_sse2_lowp+0x7e4>
+ .byte 196,226,61,0,5,10,238,2,0 // vpshufb 0x2ee0a(%rip),%ymm8,%ymm0 # 3be80 <_sk_srcover_bgra_8888_sse2_lowp+0x7e0>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
.byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
@@ -12556,9 +12884,9 @@ _sk_store_bgra_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9
- .byte 196,98,125,24,21,112,215,2,0 // vbroadcastss 0x2d770(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,156,232,2,0 // vbroadcastss 0x2e89c(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,142,215,2,0 // vbroadcastss 0x2d78e(%rip),%ymm11 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,186,232,2,0 // vbroadcastss 0x2e8ba(%rip),%ymm11 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
@@ -12580,7 +12908,7 @@ _sk_store_bgra_hsw:
.byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne ccbd <_sk_store_bgra_hsw+0xa4>
+ .byte 117,10 // jne d135 <_sk_store_bgra_hsw+0xa4>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12588,17 +12916,17 @@ _sk_store_bgra_hsw:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja ccb9 <_sk_store_bgra_hsw+0xa0>
+ .byte 119,242 // ja d131 <_sk_store_bgra_hsw+0xa0>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # cd24 <_sk_store_bgra_hsw+0x10b>
+ .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # d19c <_sk_store_bgra_hsw+0x10b>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp ccb9 <_sk_store_bgra_hsw+0xa0>
+ .byte 235,215 // jmp d131 <_sk_store_bgra_hsw+0xa0>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 235,199 // jmp ccb9 <_sk_store_bgra_hsw+0xa0>
+ .byte 235,199 // jmp d131 <_sk_store_bgra_hsw+0xa0>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -12606,7 +12934,7 @@ _sk_store_bgra_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,150 // jmp ccb9 <_sk_store_bgra_hsw+0xa0>
+ .byte 235,150 // jmp d131 <_sk_store_bgra_hsw+0xa0>
.byte 144 // nop
.byte 182,255 // mov $0xff,%dh
.byte 255 // (bad)
@@ -12629,6 +12957,299 @@ _sk_store_bgra_hsw:
.byte 255 // (bad)
.byte 255 // .byte 0xff
+HIDDEN _sk_load_1010102_hsw
+.globl _sk_load_1010102_hsw
+FUNCTION(_sk_load_1010102_hsw)
+_sk_load_1010102_hsw:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,64,8 // movslq 0x8(%rax),%r8
+ .byte 76,15,175,193 // imul %rcx,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,100 // jne d232 <_sk_load_1010102_hsw+0x7a>
+ .byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
+ .byte 196,226,125,88,21,143,232,2,0 // vpbroadcastd 0x2e88f(%rip),%ymm2 # 3ba6c <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 197,229,219,194 // vpand %ymm2,%ymm3,%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,98,125,24,5,130,232,2,0 // vbroadcastss 0x2e882(%rip),%ymm8 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
+ .byte 197,245,114,211,10 // vpsrld $0xa,%ymm3,%ymm1
+ .byte 197,245,219,202 // vpand %ymm2,%ymm1,%ymm1
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
+ .byte 197,181,114,211,20 // vpsrld $0x14,%ymm3,%ymm9
+ .byte 197,181,219,210 // vpand %ymm2,%ymm9,%ymm2
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
+ .byte 197,229,114,211,30 // vpsrld $0x1e,%ymm3,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 196,98,125,24,5,147,231,2,0 // vbroadcastss 0x2e793(%rip),%ymm8 # 3b9bc <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 137,248 // mov %edi,%eax
+ .byte 36,7 // and $0x7,%al
+ .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
+ .byte 254,200 // dec %al
+ .byte 60,6 // cmp $0x6,%al
+ .byte 119,148 // ja d1d4 <_sk_load_1010102_hsw+0x1c>
+ .byte 15,182,192 // movzbl %al,%eax
+ .byte 76,141,13,138,0,0,0 // lea 0x8a(%rip),%r9 # d2d4 <_sk_load_1010102_hsw+0x11c>
+ .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
+ .byte 76,1,200 // add %r9,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
+ .byte 233,118,255,255,255 // jmpq d1d4 <_sk_load_1010102_hsw+0x1c>
+ .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
+ .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
+ .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
+ .byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
+ .byte 196,193,122,126,4,144 // vmovq (%r8,%rdx,4),%xmm0
+ .byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
+ .byte 233,79,255,255,255 // jmpq d1d4 <_sk_load_1010102_hsw+0x1c>
+ .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
+ .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
+ .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
+ .byte 196,227,117,2,216,64 // vpblendd $0x40,%ymm0,%ymm1,%ymm3
+ .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
+ .byte 196,195,121,34,68,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
+ .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
+ .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
+ .byte 196,195,121,34,68,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
+ .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
+ .byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
+ .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
+ .byte 233,0,255,255,255 // jmpq d1d4 <_sk_load_1010102_hsw+0x1c>
+ .byte 127,255 // jg d2d5 <_sk_load_1010102_hsw+0x11d>
+ .byte 255 // (bad)
+ .byte 255,160,255,255,255,138 // jmpq *-0x75000001(%rax)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 239 // out %eax,(%dx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 219,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,199 // inc %edi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+ .byte 177,255 // mov $0xff,%cl
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_load_1010102_dst_hsw
+.globl _sk_load_1010102_dst_hsw
+FUNCTION(_sk_load_1010102_dst_hsw)
+_sk_load_1010102_dst_hsw:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,64,8 // movslq 0x8(%rax),%r8
+ .byte 76,15,175,193 // imul %rcx,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,100 // jne d36a <_sk_load_1010102_dst_hsw+0x7a>
+ .byte 196,193,126,111,60,144 // vmovdqu (%r8,%rdx,4),%ymm7
+ .byte 196,226,125,88,53,87,231,2,0 // vpbroadcastd 0x2e757(%rip),%ymm6 # 3ba6c <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 197,197,219,230 // vpand %ymm6,%ymm7,%ymm4
+ .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
+ .byte 196,98,125,24,5,74,231,2,0 // vbroadcastss 0x2e74a(%rip),%ymm8 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
+ .byte 197,213,114,215,10 // vpsrld $0xa,%ymm7,%ymm5
+ .byte 197,213,219,238 // vpand %ymm6,%ymm5,%ymm5
+ .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
+ .byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
+ .byte 197,181,114,215,20 // vpsrld $0x14,%ymm7,%ymm9
+ .byte 197,181,219,246 // vpand %ymm6,%ymm9,%ymm6
+ .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
+ .byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
+ .byte 197,197,114,215,30 // vpsrld $0x1e,%ymm7,%ymm7
+ .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
+ .byte 196,98,125,24,5,91,230,2,0 // vbroadcastss 0x2e65b(%rip),%ymm8 # 3b9bc <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 137,248 // mov %edi,%eax
+ .byte 36,7 // and $0x7,%al
+ .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
+ .byte 254,200 // dec %al
+ .byte 60,6 // cmp $0x6,%al
+ .byte 119,148 // ja d30c <_sk_load_1010102_dst_hsw+0x1c>
+ .byte 15,182,192 // movzbl %al,%eax
+ .byte 76,141,13,138,0,0,0 // lea 0x8a(%rip),%r9 # d40c <_sk_load_1010102_dst_hsw+0x11c>
+ .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
+ .byte 76,1,200 // add %r9,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,193,121,110,60,144 // vmovd (%r8,%rdx,4),%xmm7
+ .byte 233,118,255,255,255 // jmpq d30c <_sk_load_1010102_dst_hsw+0x1c>
+ .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
+ .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
+ .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
+ .byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
+ .byte 196,193,122,126,36,144 // vmovq (%r8,%rdx,4),%xmm4
+ .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
+ .byte 233,79,255,255,255 // jmpq d30c <_sk_load_1010102_dst_hsw+0x1c>
+ .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
+ .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
+ .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
+ .byte 196,227,85,2,252,64 // vpblendd $0x40,%ymm4,%ymm5,%ymm7
+ .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
+ .byte 196,195,89,34,100,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
+ .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
+ .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
+ .byte 196,195,89,34,100,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
+ .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
+ .byte 196,193,122,111,36,144 // vmovdqu (%r8,%rdx,4),%xmm4
+ .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
+ .byte 233,0,255,255,255 // jmpq d30c <_sk_load_1010102_dst_hsw+0x1c>
+ .byte 127,255 // jg d40d <_sk_load_1010102_dst_hsw+0x11d>
+ .byte 255 // (bad)
+ .byte 255,160,255,255,255,138 // jmpq *-0x75000001(%rax)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 239 // out %eax,(%dx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 219,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,199 // inc %edi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+ .byte 177,255 // mov $0xff,%cl
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_gather_1010102_hsw
+.globl _sk_gather_1010102_hsw
+FUNCTION(_sk_gather_1010102_hsw)
+_sk_gather_1010102_hsw:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
+ .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
+ .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
+ .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
+ .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
+ .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
+ .byte 196,226,125,88,80,8 // vpbroadcastd 0x8(%rax),%ymm2
+ .byte 196,226,109,64,201 // vpmulld %ymm1,%ymm2,%ymm1
+ .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
+ .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
+ .byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
+ .byte 196,226,125,88,21,236,229,2,0 // vpbroadcastd 0x2e5ec(%rip),%ymm2 # 3ba6c <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 197,189,219,194 // vpand %ymm2,%ymm8,%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,226,125,24,29,223,229,2,0 // vbroadcastss 0x2e5df(%rip),%ymm3 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
+ .byte 196,193,117,114,208,10 // vpsrld $0xa,%ymm8,%ymm1
+ .byte 197,245,219,202 // vpand %ymm2,%ymm1,%ymm1
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
+ .byte 196,193,53,114,208,20 // vpsrld $0x14,%ymm8,%ymm9
+ .byte 197,181,219,210 // vpand %ymm2,%ymm9,%ymm2
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
+ .byte 196,193,101,114,208,30 // vpsrld $0x1e,%ymm8,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 196,98,125,24,5,240,228,2,0 // vbroadcastss 0x2e4f0(%rip),%ymm8 # 3b9bc <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_store_1010102_hsw
+.globl _sk_store_1010102_hsw
+FUNCTION(_sk_store_1010102_hsw)
+_sk_store_1010102_hsw:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,64,8 // movslq 0x8(%rax),%r8
+ .byte 76,15,175,193 // imul %rcx,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,21,88,228,2,0 // vbroadcastss 0x2e458(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,98,125,24,29,110,229,2,0 // vbroadcastss 0x2e56e(%rip),%ymm11 # 3ba74 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
+ .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
+ .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
+ .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,29,114,244,10 // vpslld $0xa,%ymm12,%ymm12
+ .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
+ .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
+ .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
+ .byte 196,193,37,114,243,20 // vpslld $0x14,%ymm11,%ymm11
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,98,125,24,21,31,229,2,0 // vbroadcastss 0x2e51f(%rip),%ymm10 # 3ba78 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
+ .byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
+ .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
+ .byte 196,193,61,114,240,30 // vpslld $0x1e,%ymm8,%ymm8
+ .byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8
+ .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,10 // jne d582 <_sk_store_1010102_hsw+0xad>
+ .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 137,248 // mov %edi,%eax
+ .byte 36,7 // and $0x7,%al
+ .byte 254,200 // dec %al
+ .byte 60,6 // cmp $0x6,%al
+ .byte 119,242 // ja d57e <_sk_store_1010102_hsw+0xa9>
+ .byte 15,182,192 // movzbl %al,%eax
+ .byte 76,141,13,82,0,0,0 // lea 0x52(%rip),%r9 # d5e8 <_sk_store_1010102_hsw+0x113>
+ .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
+ .byte 76,1,200 // add %r9,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
+ .byte 235,215 // jmp d57e <_sk_store_1010102_hsw+0xa9>
+ .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
+ .byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
+ .byte 235,199 // jmp d57e <_sk_store_1010102_hsw+0xa9>
+ .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
+ .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
+ .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
+ .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
+ .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
+ .byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
+ .byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
+ .byte 235,150 // jmp d57e <_sk_store_1010102_hsw+0xa9>
+ .byte 183,255 // mov $0xff,%bh
+ .byte 255 // (bad)
+ .byte 255,199 // inc %edi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 191,255,255,255,248 // mov $0xf8ffffff,%edi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 235,255 // jmp d5f9 <_sk_store_1010102_hsw+0x124>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 221,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,207 // dec %edi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
HIDDEN _sk_load_f16_hsw
.globl _sk_load_f16_hsw
FUNCTION(_sk_load_f16_hsw)
@@ -12639,7 +13260,7 @@ _sk_load_f16_hsw:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne cdbb <_sk_load_f16_hsw+0x7b>
+ .byte 117,101 // jne d67f <_sk_load_f16_hsw+0x7b>
.byte 196,65,121,16,4,208 // vmovupd (%r8,%rdx,8),%xmm8
.byte 196,193,121,16,84,208,16 // vmovupd 0x10(%r8,%rdx,8),%xmm2
.byte 196,193,121,16,92,208,32 // vmovupd 0x20(%r8,%rdx,8),%xmm3
@@ -12665,29 +13286,29 @@ _sk_load_f16_hsw:
.byte 196,65,123,16,4,208 // vmovsd (%r8,%rdx,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je ce21 <_sk_load_f16_hsw+0xe1>
+ .byte 116,85 // je d6e5 <_sk_load_f16_hsw+0xe1>
.byte 196,65,57,22,68,208,8 // vmovhpd 0x8(%r8,%rdx,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb ce21 <_sk_load_f16_hsw+0xe1>
+ .byte 114,72 // jb d6e5 <_sk_load_f16_hsw+0xe1>
.byte 196,193,123,16,84,208,16 // vmovsd 0x10(%r8,%rdx,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je ce2e <_sk_load_f16_hsw+0xee>
+ .byte 116,72 // je d6f2 <_sk_load_f16_hsw+0xee>
.byte 196,193,105,22,84,208,24 // vmovhpd 0x18(%r8,%rdx,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb ce2e <_sk_load_f16_hsw+0xee>
+ .byte 114,59 // jb d6f2 <_sk_load_f16_hsw+0xee>
.byte 196,193,123,16,92,208,32 // vmovsd 0x20(%r8,%rdx,8),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je cd71 <_sk_load_f16_hsw+0x31>
+ .byte 15,132,109,255,255,255 // je d635 <_sk_load_f16_hsw+0x31>
.byte 196,193,97,22,92,208,40 // vmovhpd 0x28(%r8,%rdx,8),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb cd71 <_sk_load_f16_hsw+0x31>
+ .byte 15,130,92,255,255,255 // jb d635 <_sk_load_f16_hsw+0x31>
.byte 196,65,122,126,76,208,48 // vmovq 0x30(%r8,%rdx,8),%xmm9
- .byte 233,80,255,255,255 // jmpq cd71 <_sk_load_f16_hsw+0x31>
+ .byte 233,80,255,255,255 // jmpq d635 <_sk_load_f16_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,67,255,255,255 // jmpq cd71 <_sk_load_f16_hsw+0x31>
+ .byte 233,67,255,255,255 // jmpq d635 <_sk_load_f16_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,58,255,255,255 // jmpq cd71 <_sk_load_f16_hsw+0x31>
+ .byte 233,58,255,255,255 // jmpq d635 <_sk_load_f16_hsw+0x31>
HIDDEN _sk_load_f16_dst_hsw
.globl _sk_load_f16_dst_hsw
@@ -12699,7 +13320,7 @@ _sk_load_f16_dst_hsw:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne ceb2 <_sk_load_f16_dst_hsw+0x7b>
+ .byte 117,101 // jne d776 <_sk_load_f16_dst_hsw+0x7b>
.byte 196,65,121,16,4,208 // vmovupd (%r8,%rdx,8),%xmm8
.byte 196,193,121,16,116,208,16 // vmovupd 0x10(%r8,%rdx,8),%xmm6
.byte 196,193,121,16,124,208,32 // vmovupd 0x20(%r8,%rdx,8),%xmm7
@@ -12725,29 +13346,29 @@ _sk_load_f16_dst_hsw:
.byte 196,65,123,16,4,208 // vmovsd (%r8,%rdx,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je cf18 <_sk_load_f16_dst_hsw+0xe1>
+ .byte 116,85 // je d7dc <_sk_load_f16_dst_hsw+0xe1>
.byte 196,65,57,22,68,208,8 // vmovhpd 0x8(%r8,%rdx,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb cf18 <_sk_load_f16_dst_hsw+0xe1>
+ .byte 114,72 // jb d7dc <_sk_load_f16_dst_hsw+0xe1>
.byte 196,193,123,16,116,208,16 // vmovsd 0x10(%r8,%rdx,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je cf25 <_sk_load_f16_dst_hsw+0xee>
+ .byte 116,72 // je d7e9 <_sk_load_f16_dst_hsw+0xee>
.byte 196,193,73,22,116,208,24 // vmovhpd 0x18(%r8,%rdx,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb cf25 <_sk_load_f16_dst_hsw+0xee>
+ .byte 114,59 // jb d7e9 <_sk_load_f16_dst_hsw+0xee>
.byte 196,193,123,16,124,208,32 // vmovsd 0x20(%r8,%rdx,8),%xmm7
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je ce68 <_sk_load_f16_dst_hsw+0x31>
+ .byte 15,132,109,255,255,255 // je d72c <_sk_load_f16_dst_hsw+0x31>
.byte 196,193,65,22,124,208,40 // vmovhpd 0x28(%r8,%rdx,8),%xmm7,%xmm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb ce68 <_sk_load_f16_dst_hsw+0x31>
+ .byte 15,130,92,255,255,255 // jb d72c <_sk_load_f16_dst_hsw+0x31>
.byte 196,65,122,126,76,208,48 // vmovq 0x30(%r8,%rdx,8),%xmm9
- .byte 233,80,255,255,255 // jmpq ce68 <_sk_load_f16_dst_hsw+0x31>
+ .byte 233,80,255,255,255 // jmpq d72c <_sk_load_f16_dst_hsw+0x31>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,67,255,255,255 // jmpq ce68 <_sk_load_f16_dst_hsw+0x31>
+ .byte 233,67,255,255,255 // jmpq d72c <_sk_load_f16_dst_hsw+0x31>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,58,255,255,255 // jmpq ce68 <_sk_load_f16_dst_hsw+0x31>
+ .byte 233,58,255,255,255 // jmpq d72c <_sk_load_f16_dst_hsw+0x31>
HIDDEN _sk_gather_f16_hsw
.globl _sk_gather_f16_hsw
@@ -12818,7 +13439,7 @@ _sk_store_f16_hsw:
.byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
.byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne d05c <_sk_store_f16_hsw+0x75>
+ .byte 117,31 // jne d920 <_sk_store_f16_hsw+0x75>
.byte 196,65,122,127,28,208 // vmovdqu %xmm11,(%r8,%rdx,8)
.byte 196,65,122,127,84,208,16 // vmovdqu %xmm10,0x10(%r8,%rdx,8)
.byte 196,65,122,127,76,208,32 // vmovdqu %xmm9,0x20(%r8,%rdx,8)
@@ -12827,22 +13448,22 @@ _sk_store_f16_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,208 // vmovq %xmm11,(%r8,%rdx,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je d058 <_sk_store_f16_hsw+0x71>
+ .byte 116,240 // je d91c <_sk_store_f16_hsw+0x71>
.byte 196,65,121,23,92,208,8 // vmovhpd %xmm11,0x8(%r8,%rdx,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb d058 <_sk_store_f16_hsw+0x71>
+ .byte 114,227 // jb d91c <_sk_store_f16_hsw+0x71>
.byte 196,65,121,214,84,208,16 // vmovq %xmm10,0x10(%r8,%rdx,8)
- .byte 116,218 // je d058 <_sk_store_f16_hsw+0x71>
+ .byte 116,218 // je d91c <_sk_store_f16_hsw+0x71>
.byte 196,65,121,23,84,208,24 // vmovhpd %xmm10,0x18(%r8,%rdx,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb d058 <_sk_store_f16_hsw+0x71>
+ .byte 114,205 // jb d91c <_sk_store_f16_hsw+0x71>
.byte 196,65,121,214,76,208,32 // vmovq %xmm9,0x20(%r8,%rdx,8)
- .byte 116,196 // je d058 <_sk_store_f16_hsw+0x71>
+ .byte 116,196 // je d91c <_sk_store_f16_hsw+0x71>
.byte 196,65,121,23,76,208,40 // vmovhpd %xmm9,0x28(%r8,%rdx,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb d058 <_sk_store_f16_hsw+0x71>
+ .byte 114,183 // jb d91c <_sk_store_f16_hsw+0x71>
.byte 196,65,121,214,68,208,48 // vmovq %xmm8,0x30(%r8,%rdx,8)
- .byte 235,174 // jmp d058 <_sk_store_f16_hsw+0x71>
+ .byte 235,174 // jmp d91c <_sk_store_f16_hsw+0x71>
HIDDEN _sk_load_u16_be_hsw
.globl _sk_load_u16_be_hsw
@@ -12855,7 +13476,7 @@ _sk_load_u16_be_hsw:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,204,0,0,0 // jne d197 <_sk_load_u16_be_hsw+0xed>
+ .byte 15,133,204,0,0,0 // jne da5b <_sk_load_u16_be_hsw+0xed>
.byte 196,1,121,16,4,65 // vmovupd (%r9,%r8,2),%xmm8
.byte 196,129,121,16,84,65,16 // vmovupd 0x10(%r9,%r8,2),%xmm2
.byte 196,129,121,16,92,65,32 // vmovupd 0x20(%r9,%r8,2),%xmm3
@@ -12874,7 +13495,7 @@ _sk_load_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,20,211,2,0 // vbroadcastss 0x2d314(%rip),%ymm10 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,21,244,223,2,0 // vbroadcastss 0x2dff4(%rip),%ymm10 # 3b9e4 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -12902,29 +13523,29 @@ _sk_load_u16_be_hsw:
.byte 196,1,123,16,4,65 // vmovsd (%r9,%r8,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je d1fd <_sk_load_u16_be_hsw+0x153>
+ .byte 116,85 // je dac1 <_sk_load_u16_be_hsw+0x153>
.byte 196,1,57,22,68,65,8 // vmovhpd 0x8(%r9,%r8,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb d1fd <_sk_load_u16_be_hsw+0x153>
+ .byte 114,72 // jb dac1 <_sk_load_u16_be_hsw+0x153>
.byte 196,129,123,16,84,65,16 // vmovsd 0x10(%r9,%r8,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je d20a <_sk_load_u16_be_hsw+0x160>
+ .byte 116,72 // je dace <_sk_load_u16_be_hsw+0x160>
.byte 196,129,105,22,84,65,24 // vmovhpd 0x18(%r9,%r8,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb d20a <_sk_load_u16_be_hsw+0x160>
+ .byte 114,59 // jb dace <_sk_load_u16_be_hsw+0x160>
.byte 196,129,123,16,92,65,32 // vmovsd 0x20(%r9,%r8,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,6,255,255,255 // je d0e6 <_sk_load_u16_be_hsw+0x3c>
+ .byte 15,132,6,255,255,255 // je d9aa <_sk_load_u16_be_hsw+0x3c>
.byte 196,129,97,22,92,65,40 // vmovhpd 0x28(%r9,%r8,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,245,254,255,255 // jb d0e6 <_sk_load_u16_be_hsw+0x3c>
+ .byte 15,130,245,254,255,255 // jb d9aa <_sk_load_u16_be_hsw+0x3c>
.byte 196,1,122,126,76,65,48 // vmovq 0x30(%r9,%r8,2),%xmm9
- .byte 233,233,254,255,255 // jmpq d0e6 <_sk_load_u16_be_hsw+0x3c>
+ .byte 233,233,254,255,255 // jmpq d9aa <_sk_load_u16_be_hsw+0x3c>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,220,254,255,255 // jmpq d0e6 <_sk_load_u16_be_hsw+0x3c>
+ .byte 233,220,254,255,255 // jmpq d9aa <_sk_load_u16_be_hsw+0x3c>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,211,254,255,255 // jmpq d0e6 <_sk_load_u16_be_hsw+0x3c>
+ .byte 233,211,254,255,255 // jmpq d9aa <_sk_load_u16_be_hsw+0x3c>
HIDDEN _sk_load_rgb_u16_be_hsw
.globl _sk_load_rgb_u16_be_hsw
@@ -12937,7 +13558,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,205,0,0,0 // jne d2fd <_sk_load_rgb_u16_be_hsw+0xea>
+ .byte 15,133,205,0,0,0 // jne dbc1 <_sk_load_rgb_u16_be_hsw+0xea>
.byte 196,1,122,111,28,65 // vmovdqu (%r9,%r8,2),%xmm11
.byte 196,129,122,111,92,65,12 // vmovdqu 0xc(%r9,%r8,2),%xmm3
.byte 196,129,122,111,84,65,24 // vmovdqu 0x18(%r9,%r8,2),%xmm2
@@ -12962,7 +13583,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,145,209,2,0 // vbroadcastss 0x2d191(%rip),%ymm9 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,113,222,2,0 // vbroadcastss 0x2de71(%rip),%ymm9 # 3b9e4 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -12978,69 +13599,69 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,177,208,2,0 // vbroadcastss 0x2d0b1(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,145,221,2,0 // vbroadcastss 0x2dd91(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,65 // vmovd (%r9,%r8,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,65,4,2 // vpinsrw $0x2,0x4(%r9,%r8,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne d335 <_sk_load_rgb_u16_be_hsw+0x122>
+ .byte 117,31 // jne dbf9 <_sk_load_rgb_u16_be_hsw+0x122>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,48,255,255,255 // jmpq d265 <_sk_load_rgb_u16_be_hsw+0x52>
+ .byte 233,48,255,255,255 // jmpq db29 <_sk_load_rgb_u16_be_hsw+0x52>
.byte 196,129,121,110,68,65,6 // vmovd 0x6(%r9,%r8,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,65,10,2 // vpinsrw $0x2,0xa(%r9,%r8,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb d37f <_sk_load_rgb_u16_be_hsw+0x16c>
+ .byte 114,48 // jb dc43 <_sk_load_rgb_u16_be_hsw+0x16c>
.byte 196,129,121,110,68,65,12 // vmovd 0xc(%r9,%r8,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,65,16,2 // vpinsrw $0x2,0x10(%r9,%r8,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne d399 <_sk_load_rgb_u16_be_hsw+0x186>
+ .byte 117,48 // jne dc5d <_sk_load_rgb_u16_be_hsw+0x186>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,230,254,255,255 // jmpq d265 <_sk_load_rgb_u16_be_hsw+0x52>
+ .byte 233,230,254,255,255 // jmpq db29 <_sk_load_rgb_u16_be_hsw+0x52>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,204,254,255,255 // jmpq d265 <_sk_load_rgb_u16_be_hsw+0x52>
+ .byte 233,204,254,255,255 // jmpq db29 <_sk_load_rgb_u16_be_hsw+0x52>
.byte 196,129,121,110,68,65,18 // vmovd 0x12(%r9,%r8,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,65,22,2 // vpinsrw $0x2,0x16(%r9,%r8,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb d3da <_sk_load_rgb_u16_be_hsw+0x1c7>
+ .byte 114,39 // jb dc9e <_sk_load_rgb_u16_be_hsw+0x1c7>
.byte 196,129,121,110,68,65,24 // vmovd 0x18(%r9,%r8,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,65,28,2 // vpinsrw $0x2,0x1c(%r9,%r8,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne d3eb <_sk_load_rgb_u16_be_hsw+0x1d8>
+ .byte 117,30 // jne dcaf <_sk_load_rgb_u16_be_hsw+0x1d8>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,139,254,255,255 // jmpq d265 <_sk_load_rgb_u16_be_hsw+0x52>
+ .byte 233,139,254,255,255 // jmpq db29 <_sk_load_rgb_u16_be_hsw+0x52>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,122,254,255,255 // jmpq d265 <_sk_load_rgb_u16_be_hsw+0x52>
+ .byte 233,122,254,255,255 // jmpq db29 <_sk_load_rgb_u16_be_hsw+0x52>
.byte 196,129,121,110,68,65,30 // vmovd 0x1e(%r9,%r8,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,65,34,2 // vpinsrw $0x2,0x22(%r9,%r8,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb d41e <_sk_load_rgb_u16_be_hsw+0x20b>
+ .byte 114,25 // jb dce2 <_sk_load_rgb_u16_be_hsw+0x20b>
.byte 196,129,121,110,68,65,36 // vmovd 0x24(%r9,%r8,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,65,40,2 // vpinsrw $0x2,0x28(%r9,%r8,2),%xmm0,%xmm0
- .byte 233,71,254,255,255 // jmpq d265 <_sk_load_rgb_u16_be_hsw+0x52>
+ .byte 233,71,254,255,255 // jmpq db29 <_sk_load_rgb_u16_be_hsw+0x52>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,62,254,255,255 // jmpq d265 <_sk_load_rgb_u16_be_hsw+0x52>
+ .byte 233,62,254,255,255 // jmpq db29 <_sk_load_rgb_u16_be_hsw+0x52>
HIDDEN _sk_store_u16_be_hsw
.globl _sk_store_u16_be_hsw
@@ -13054,9 +13675,9 @@ _sk_store_u16_be_hsw:
.byte 76,3,8 // add (%rax),%r9
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,91,207,2,0 // vbroadcastss 0x2cf5b(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,59,220,2,0 // vbroadcastss 0x2dc3b(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,105,208,2,0 // vbroadcastss 0x2d069(%rip),%ymm11 # 3a4c8 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 196,98,125,24,29,89,221,2,0 // vbroadcastss 0x2dd59(%rip),%ymm11 # 3ba7c <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm12
@@ -13100,7 +13721,7 @@ _sk_store_u16_be_hsw:
.byte 196,65,25,98,200 // vpunpckldq %xmm8,%xmm12,%xmm9
.byte 196,65,25,106,192 // vpunpckhdq %xmm8,%xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne d55e <_sk_store_u16_be_hsw+0x137>
+ .byte 117,31 // jne de22 <_sk_store_u16_be_hsw+0x137>
.byte 196,1,122,127,28,65 // vmovdqu %xmm11,(%r9,%r8,2)
.byte 196,1,122,127,84,65,16 // vmovdqu %xmm10,0x10(%r9,%r8,2)
.byte 196,1,122,127,76,65,32 // vmovdqu %xmm9,0x20(%r9,%r8,2)
@@ -13109,22 +13730,22 @@ _sk_store_u16_be_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,1,121,214,28,65 // vmovq %xmm11,(%r9,%r8,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je d55a <_sk_store_u16_be_hsw+0x133>
+ .byte 116,240 // je de1e <_sk_store_u16_be_hsw+0x133>
.byte 196,1,121,23,92,65,8 // vmovhpd %xmm11,0x8(%r9,%r8,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb d55a <_sk_store_u16_be_hsw+0x133>
+ .byte 114,227 // jb de1e <_sk_store_u16_be_hsw+0x133>
.byte 196,1,121,214,84,65,16 // vmovq %xmm10,0x10(%r9,%r8,2)
- .byte 116,218 // je d55a <_sk_store_u16_be_hsw+0x133>
+ .byte 116,218 // je de1e <_sk_store_u16_be_hsw+0x133>
.byte 196,1,121,23,84,65,24 // vmovhpd %xmm10,0x18(%r9,%r8,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb d55a <_sk_store_u16_be_hsw+0x133>
+ .byte 114,205 // jb de1e <_sk_store_u16_be_hsw+0x133>
.byte 196,1,121,214,76,65,32 // vmovq %xmm9,0x20(%r9,%r8,2)
- .byte 116,196 // je d55a <_sk_store_u16_be_hsw+0x133>
+ .byte 116,196 // je de1e <_sk_store_u16_be_hsw+0x133>
.byte 196,1,121,23,76,65,40 // vmovhpd %xmm9,0x28(%r9,%r8,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb d55a <_sk_store_u16_be_hsw+0x133>
+ .byte 114,183 // jb de1e <_sk_store_u16_be_hsw+0x133>
.byte 196,1,121,214,68,65,48 // vmovq %xmm8,0x30(%r9,%r8,2)
- .byte 235,174 // jmp d55a <_sk_store_u16_be_hsw+0x133>
+ .byte 235,174 // jmp de1e <_sk_store_u16_be_hsw+0x133>
HIDDEN _sk_load_f32_hsw
.globl _sk_load_f32_hsw
@@ -13133,7 +13754,7 @@ _sk_load_f32_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,91,1,0,0 // ja d717 <_sk_load_f32_hsw+0x16b>
+ .byte 15,135,91,1,0,0 // ja dfdb <_sk_load_f32_hsw+0x16b>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
.byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
@@ -13144,7 +13765,7 @@ _sk_load_f32_hsw:
.byte 76,15,175,201 // imul %rcx,%r9
.byte 73,193,225,2 // shl $0x2,%r9
.byte 76,3,8 // add (%rax),%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # d728 <_sk_load_f32_hsw+0x17c>
+ .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # dfec <_sk_load_f32_hsw+0x17c>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
@@ -13207,7 +13828,7 @@ _sk_load_f32_hsw:
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp d6f1 <_sk_load_f32_hsw+0x145>
+ .byte 235,203 // jmp dfb5 <_sk_load_f32_hsw+0x145>
.byte 102,144 // xchg %ax,%ax
.byte 27,255 // sbb %edi,%edi
.byte 255 // (bad)
@@ -13219,7 +13840,7 @@ _sk_load_f32_hsw:
.byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
.byte 255,70,255 // incl -0x1(%rsi)
.byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2900d744 <_sk_srcover_bgra_8888_sse2_lowp+0x28fd3648>
+ .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2900e008 <_sk_srcover_bgra_8888_sse2_lowp+0x28fd2968>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -13231,7 +13852,7 @@ _sk_load_f32_dst_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,91,1,0,0 // ja d8b3 <_sk_load_f32_dst_hsw+0x16b>
+ .byte 15,135,91,1,0,0 // ja e177 <_sk_load_f32_dst_hsw+0x16b>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
.byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
@@ -13242,7 +13863,7 @@ _sk_load_f32_dst_hsw:
.byte 76,15,175,201 // imul %rcx,%r9
.byte 73,193,225,2 // shl $0x2,%r9
.byte 76,3,8 // add (%rax),%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # d8c4 <_sk_load_f32_dst_hsw+0x17c>
+ .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # e188 <_sk_load_f32_dst_hsw+0x17c>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
@@ -13305,7 +13926,7 @@ _sk_load_f32_dst_hsw:
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp d88d <_sk_load_f32_dst_hsw+0x145>
+ .byte 235,203 // jmp e151 <_sk_load_f32_dst_hsw+0x145>
.byte 102,144 // xchg %ax,%ax
.byte 27,255 // sbb %edi,%edi
.byte 255 // (bad)
@@ -13317,7 +13938,7 @@ _sk_load_f32_dst_hsw:
.byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
.byte 255,70,255 // incl -0x1(%rsi)
.byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2900d8e0 <_sk_srcover_bgra_8888_sse2_lowp+0x28fd37e4>
+ .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2900e1a4 <_sk_srcover_bgra_8888_sse2_lowp+0x28fd2b04>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -13341,7 +13962,7 @@ _sk_store_f32_hsw:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne d95d <_sk_store_f32_hsw+0x79>
+ .byte 117,55 // jne e221 <_sk_store_f32_hsw+0x79>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -13354,22 +13975,22 @@ _sk_store_f32_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,1,121,17,20,129 // vmovupd %xmm10,(%r9,%r8,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je d959 <_sk_store_f32_hsw+0x75>
+ .byte 116,240 // je e21d <_sk_store_f32_hsw+0x75>
.byte 196,1,121,17,76,129,16 // vmovupd %xmm9,0x10(%r9,%r8,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb d959 <_sk_store_f32_hsw+0x75>
+ .byte 114,227 // jb e21d <_sk_store_f32_hsw+0x75>
.byte 196,1,121,17,68,129,32 // vmovupd %xmm8,0x20(%r9,%r8,4)
- .byte 116,218 // je d959 <_sk_store_f32_hsw+0x75>
+ .byte 116,218 // je e21d <_sk_store_f32_hsw+0x75>
.byte 196,1,121,17,92,129,48 // vmovupd %xmm11,0x30(%r9,%r8,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb d959 <_sk_store_f32_hsw+0x75>
+ .byte 114,205 // jb e21d <_sk_store_f32_hsw+0x75>
.byte 196,3,125,25,84,129,64,1 // vextractf128 $0x1,%ymm10,0x40(%r9,%r8,4)
- .byte 116,195 // je d959 <_sk_store_f32_hsw+0x75>
+ .byte 116,195 // je e21d <_sk_store_f32_hsw+0x75>
.byte 196,3,125,25,76,129,80,1 // vextractf128 $0x1,%ymm9,0x50(%r9,%r8,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb d959 <_sk_store_f32_hsw+0x75>
+ .byte 114,181 // jb e21d <_sk_store_f32_hsw+0x75>
.byte 196,3,125,25,68,129,96,1 // vextractf128 $0x1,%ymm8,0x60(%r9,%r8,4)
- .byte 235,171 // jmp d959 <_sk_store_f32_hsw+0x75>
+ .byte 235,171 // jmp e21d <_sk_store_f32_hsw+0x75>
HIDDEN _sk_repeat_x_hsw
.globl _sk_repeat_x_hsw
@@ -13408,7 +14029,7 @@ _sk_mirror_x_hsw:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,147,201,2,0 // vmulss 0x2c993(%rip),%xmm9,%xmm0 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,5,115,214,2,0 // vmulss 0x2d673(%rip),%xmm9,%xmm0 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -13431,7 +14052,7 @@ _sk_mirror_y_hsw:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,66,201,2,0 // vmulss 0x2c942(%rip),%xmm9,%xmm1 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,13,34,214,2,0 // vmulss 0x2d622(%rip),%xmm9,%xmm1 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -13449,7 +14070,7 @@ FUNCTION(_sk_clamp_x_1_hsw)
_sk_clamp_x_1_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,10,201,2,0 // vbroadcastss 0x2c90a(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,234,213,2,0 // vbroadcastss 0x2d5ea(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13462,7 +14083,7 @@ _sk_repeat_x_1_hsw:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,228,200,2,0 // vbroadcastss 0x2c8e4(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,196,213,2,0 // vbroadcastss 0x2d5c4(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13471,9 +14092,9 @@ HIDDEN _sk_mirror_x_1_hsw
.globl _sk_mirror_x_1_hsw
FUNCTION(_sk_mirror_x_1_hsw)
_sk_mirror_x_1_hsw:
- .byte 196,98,125,24,5,234,200,2,0 // vbroadcastss 0x2c8ea(%rip),%ymm8 # 3a3c4 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,202,213,2,0 // vbroadcastss 0x2d5ca(%rip),%ymm8 # 3b968 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,192,200,2,0 // vbroadcastss 0x2c8c0(%rip),%ymm9 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,160,213,2,0 // vbroadcastss 0x2d5a0(%rip),%ymm9 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -13483,7 +14104,7 @@ _sk_mirror_x_1_hsw:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,144,200,2,0 // vbroadcastss 0x2c890(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,112,213,2,0 // vbroadcastss 0x2d570(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13492,11 +14113,11 @@ HIDDEN _sk_luminance_to_alpha_hsw
.globl _sk_luminance_to_alpha_hsw
FUNCTION(_sk_luminance_to_alpha_hsw)
_sk_luminance_to_alpha_hsw:
- .byte 196,226,125,24,29,162,201,2,0 // vbroadcastss 0x2c9a2(%rip),%ymm3 # 3a4d0 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
- .byte 196,98,125,24,5,149,201,2,0 // vbroadcastss 0x2c995(%rip),%ymm8 # 3a4cc <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 196,226,125,24,29,146,214,2,0 // vbroadcastss 0x2d692(%rip),%ymm3 # 3ba84 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 196,98,125,24,5,133,214,2,0 // vbroadcastss 0x2d685(%rip),%ymm8 # 3ba80 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 196,226,125,184,203 // vfmadd231ps %ymm3,%ymm0,%ymm1
- .byte 196,226,125,24,29,138,201,2,0 // vbroadcastss 0x2c98a(%rip),%ymm3 # 3a4d4 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
+ .byte 196,226,125,24,29,122,214,2,0 // vbroadcastss 0x2d67a(%rip),%ymm3 # 3ba88 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
.byte 196,226,109,168,217 // vfmadd213ps %ymm1,%ymm2,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -13695,9 +14316,9 @@ _sk_evenly_spaced_gradient_hsw:
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 77,137,202 // mov %r9,%r10
.byte 73,255,202 // dec %r10
- .byte 120,7 // js de42 <_sk_evenly_spaced_gradient_hsw+0x18>
+ .byte 120,7 // js e706 <_sk_evenly_spaced_gradient_hsw+0x18>
.byte 196,193,242,42,202 // vcvtsi2ss %r10,%xmm1,%xmm1
- .byte 235,22 // jmp de58 <_sk_evenly_spaced_gradient_hsw+0x2e>
+ .byte 235,22 // jmp e71c <_sk_evenly_spaced_gradient_hsw+0x2e>
.byte 77,137,211 // mov %r10,%r11
.byte 73,209,235 // shr %r11
.byte 65,131,226,1 // and $0x1,%r10d
@@ -13708,7 +14329,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,126,91,225 // vcvttps2dq %ymm1,%ymm12
.byte 73,131,249,8 // cmp $0x8,%r9
- .byte 119,73 // ja deb4 <_sk_evenly_spaced_gradient_hsw+0x8a>
+ .byte 119,73 // ja e778 <_sk_evenly_spaced_gradient_hsw+0x8a>
.byte 196,66,29,22,0 // vpermps (%r8),%ymm12,%ymm8
.byte 76,139,64,40 // mov 0x28(%rax),%r8
.byte 196,66,29,22,8 // vpermps (%r8),%ymm12,%ymm9
@@ -13724,7 +14345,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 196,194,29,22,24 // vpermps (%r8),%ymm12,%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,98,29,22,16 // vpermps (%rax),%ymm12,%ymm10
- .byte 233,147,0,0,0 // jmpq df47 <_sk_evenly_spaced_gradient_hsw+0x11d>
+ .byte 233,147,0,0,0 // jmpq e80b <_sk_evenly_spaced_gradient_hsw+0x11d>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
@@ -13771,11 +14392,11 @@ _sk_gradient_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 15,134,220,0,0,0 // jbe e04e <_sk_gradient_hsw+0xeb>
+ .byte 15,134,220,0,0,0 // jbe e912 <_sk_gradient_hsw+0xeb>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,39,196,2,0 // vbroadcastss 0x2c427(%rip),%ymm2 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,226,125,24,21,7,209,2,0 // vbroadcastss 0x2d107(%rip),%ymm2 # 3b954 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
.byte 197,228,194,216,2 // vcmpleps %ymm0,%ymm3,%ymm3
@@ -13783,10 +14404,10 @@ _sk_gradient_hsw:
.byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9
.byte 73,255,194 // inc %r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,227 // jne df8e <_sk_gradient_hsw+0x2b>
+ .byte 117,227 // jne e852 <_sk_gradient_hsw+0x2b>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,134,158,0,0,0 // jbe e057 <_sk_gradient_hsw+0xf4>
+ .byte 15,134,158,0,0,0 // jbe e91b <_sk_gradient_hsw+0xf4>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -13818,7 +14439,7 @@ _sk_gradient_hsw:
.byte 196,130,5,146,28,136 // vgatherdps %ymm15,(%r8,%ymm9,4),%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,34,13,146,28,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm11
- .byte 235,77 // jmp e09b <_sk_gradient_hsw+0x138>
+ .byte 235,77 // jmp e95f <_sk_gradient_hsw+0x138>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8
@@ -13878,24 +14499,24 @@ _sk_xy_to_unit_angle_hsw:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,162,195,2,0 // vbroadcastss 0x2c3a2(%rip),%ymm13 # 3a4d8 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- .byte 196,98,125,24,53,157,195,2,0 // vbroadcastss 0x2c39d(%rip),%ymm14 # 3a4dc <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 196,98,125,24,45,146,208,2,0 // vbroadcastss 0x2d092(%rip),%ymm13 # 3ba8c <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,53,141,208,2,0 // vbroadcastss 0x2d08d(%rip),%ymm14 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
- .byte 196,98,125,24,45,147,195,2,0 // vbroadcastss 0x2c393(%rip),%ymm13 # 3a4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 196,98,125,24,45,131,208,2,0 // vbroadcastss 0x2d083(%rip),%ymm13 # 3ba94 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 196,66,29,184,238 // vfmadd231ps %ymm14,%ymm12,%ymm13
- .byte 196,98,125,24,53,137,195,2,0 // vbroadcastss 0x2c389(%rip),%ymm14 # 3a4e4 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,53,121,208,2,0 // vbroadcastss 0x2d079(%rip),%ymm14 # 3ba98 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
.byte 196,65,36,89,222 // vmulps %ymm14,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,116,195,2,0 // vbroadcastss 0x2c374(%rip),%ymm10 # 3a4e8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,21,100,208,2,0 // vbroadcastss 0x2d064(%rip),%ymm10 # 3ba9c <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,26,194,2,0 // vbroadcastss 0x2c21a(%rip),%ymm10 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,250,206,2,0 // vbroadcastss 0x2cefa(%rip),%ymm10 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,4,194,2,0 // vbroadcastss 0x2c204(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,228,206,2,0 // vbroadcastss 0x2cee4(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -13917,7 +14538,7 @@ HIDDEN _sk_negate_x_hsw
.globl _sk_negate_x_hsw
FUNCTION(_sk_negate_x_hsw)
_sk_negate_x_hsw:
- .byte 196,98,125,24,5,15,195,2,0 // vbroadcastss 0x2c30f(%rip),%ymm8 # 3a4ec <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,5,255,207,2,0 // vbroadcastss 0x2cfff(%rip),%ymm8 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13997,7 +14618,7 @@ HIDDEN _sk_alter_2pt_conical_unswap_hsw
.globl _sk_alter_2pt_conical_unswap_hsw
FUNCTION(_sk_alter_2pt_conical_unswap_hsw)
_sk_alter_2pt_conical_unswap_hsw:
- .byte 196,98,125,24,5,38,193,2,0 // vbroadcastss 0x2c126(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,6,206,2,0 // vbroadcastss 0x2ce06(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14048,7 +14669,7 @@ HIDDEN _sk_save_xy_hsw
FUNCTION(_sk_save_xy_hsw)
_sk_save_xy_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,170,192,2,0 // vbroadcastss 0x2c0aa(%rip),%ymm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,138,205,2,0 // vbroadcastss 0x2cd8a(%rip),%ymm8 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -14082,9 +14703,9 @@ HIDDEN _sk_bilinear_nx_hsw
FUNCTION(_sk_bilinear_nx_hsw)
_sk_bilinear_nx_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,124,193,2,0 // vbroadcastss 0x2c17c(%rip),%ymm0 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,226,125,24,5,108,206,2,0 // vbroadcastss 0x2ce6c(%rip),%ymm0 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,43,192,2,0 // vbroadcastss 0x2c02b(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,11,205,2,0 // vbroadcastss 0x2cd0b(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14095,7 +14716,7 @@ HIDDEN _sk_bilinear_px_hsw
FUNCTION(_sk_bilinear_px_hsw)
_sk_bilinear_px_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,8,192,2,0 // vbroadcastss 0x2c008(%rip),%ymm0 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,232,204,2,0 // vbroadcastss 0x2cce8(%rip),%ymm0 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -14107,9 +14728,9 @@ HIDDEN _sk_bilinear_ny_hsw
FUNCTION(_sk_bilinear_ny_hsw)
_sk_bilinear_ny_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,45,193,2,0 // vbroadcastss 0x2c12d(%rip),%ymm1 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,226,125,24,13,29,206,2,0 // vbroadcastss 0x2ce1d(%rip),%ymm1 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,219,191,2,0 // vbroadcastss 0x2bfdb(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,187,204,2,0 // vbroadcastss 0x2ccbb(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14120,7 +14741,7 @@ HIDDEN _sk_bilinear_py_hsw
FUNCTION(_sk_bilinear_py_hsw)
_sk_bilinear_py_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,184,191,2,0 // vbroadcastss 0x2bfb8(%rip),%ymm1 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,13,152,204,2,0 // vbroadcastss 0x2cc98(%rip),%ymm1 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -14132,13 +14753,13 @@ HIDDEN _sk_bicubic_n3x_hsw
FUNCTION(_sk_bicubic_n3x_hsw)
_sk_bicubic_n3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,224,192,2,0 // vbroadcastss 0x2c0e0(%rip),%ymm0 # 3a4f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,226,125,24,5,208,205,2,0 // vbroadcastss 0x2cdd0(%rip),%ymm0 # 3baa8 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,139,191,2,0 // vbroadcastss 0x2bf8b(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,107,204,2,0 // vbroadcastss 0x2cc6b(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,233,191,2,0 // vbroadcastss 0x2bfe9(%rip),%ymm10 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,184,192,2,0 // vbroadcastss 0x2c0b8(%rip),%ymm11 # 3a4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,21,201,204,2,0 // vbroadcastss 0x2ccc9(%rip),%ymm10 # 3b9c4 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,168,205,2,0 // vbroadcastss 0x2cda8(%rip),%ymm11 # 3baac <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -14150,16 +14771,16 @@ HIDDEN _sk_bicubic_n1x_hsw
FUNCTION(_sk_bicubic_n1x_hsw)
_sk_bicubic_n1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,143,192,2,0 // vbroadcastss 0x2c08f(%rip),%ymm0 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,226,125,24,5,127,205,2,0 // vbroadcastss 0x2cd7f(%rip),%ymm0 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,62,191,2,0 // vbroadcastss 0x2bf3e(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,30,204,2,0 // vbroadcastss 0x2cc1e(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,129,192,2,0 // vbroadcastss 0x2c081(%rip),%ymm9 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 196,98,125,24,21,116,192,2,0 // vbroadcastss 0x2c074(%rip),%ymm10 # 3a4fc <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,98,125,24,13,113,205,2,0 // vbroadcastss 0x2cd71(%rip),%ymm9 # 3bab4 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,98,125,24,21,100,205,2,0 // vbroadcastss 0x2cd64(%rip),%ymm10 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,18,191,2,0 // vbroadcastss 0x2bf12(%rip),%ymm9 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,242,203,2,0 // vbroadcastss 0x2cbf2(%rip),%ymm9 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,96,192,2,0 // vbroadcastss 0x2c060(%rip),%ymm10 # 3a504 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,21,80,205,2,0 // vbroadcastss 0x2cd50(%rip),%ymm10 # 3bab8 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,0,1,0,0 // vmovups %ymm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14170,14 +14791,14 @@ HIDDEN _sk_bicubic_p1x_hsw
FUNCTION(_sk_bicubic_p1x_hsw)
_sk_bicubic_p1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,232,190,2,0 // vbroadcastss 0x2bee8(%rip),%ymm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,200,203,2,0 // vbroadcastss 0x2cbc8(%rip),%ymm8 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,43,192,2,0 // vbroadcastss 0x2c02b(%rip),%ymm10 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 196,98,125,24,29,30,192,2,0 // vbroadcastss 0x2c01e(%rip),%ymm11 # 3a4fc <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,98,125,24,21,27,205,2,0 // vbroadcastss 0x2cd1b(%rip),%ymm10 # 3bab4 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,98,125,24,29,14,205,2,0 // vbroadcastss 0x2cd0e(%rip),%ymm11 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,19,192,2,0 // vbroadcastss 0x2c013(%rip),%ymm8 # 3a504 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,5,3,205,2,0 // vbroadcastss 0x2cd03(%rip),%ymm8 # 3bab8 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14188,12 +14809,12 @@ HIDDEN _sk_bicubic_p3x_hsw
FUNCTION(_sk_bicubic_p3x_hsw)
_sk_bicubic_p3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,243,191,2,0 // vbroadcastss 0x2bff3(%rip),%ymm0 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,226,125,24,5,227,204,2,0 // vbroadcastss 0x2cce3(%rip),%ymm0 # 3bab4 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,249,190,2,0 // vbroadcastss 0x2bef9(%rip),%ymm10 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,200,191,2,0 // vbroadcastss 0x2bfc8(%rip),%ymm11 # 3a4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,21,217,203,2,0 // vbroadcastss 0x2cbd9(%rip),%ymm10 # 3b9c4 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,184,204,2,0 // vbroadcastss 0x2ccb8(%rip),%ymm11 # 3baac <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -14205,13 +14826,13 @@ HIDDEN _sk_bicubic_n3y_hsw
FUNCTION(_sk_bicubic_n3y_hsw)
_sk_bicubic_n3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,163,191,2,0 // vbroadcastss 0x2bfa3(%rip),%ymm1 # 3a4f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,226,125,24,13,147,204,2,0 // vbroadcastss 0x2cc93(%rip),%ymm1 # 3baa8 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,77,190,2,0 // vbroadcastss 0x2be4d(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,45,203,2,0 // vbroadcastss 0x2cb2d(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,171,190,2,0 // vbroadcastss 0x2beab(%rip),%ymm10 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,122,191,2,0 // vbroadcastss 0x2bf7a(%rip),%ymm11 # 3a4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,21,139,203,2,0 // vbroadcastss 0x2cb8b(%rip),%ymm10 # 3b9c4 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,106,204,2,0 // vbroadcastss 0x2cc6a(%rip),%ymm11 # 3baac <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -14223,16 +14844,16 @@ HIDDEN _sk_bicubic_n1y_hsw
FUNCTION(_sk_bicubic_n1y_hsw)
_sk_bicubic_n1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,81,191,2,0 // vbroadcastss 0x2bf51(%rip),%ymm1 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,226,125,24,13,65,204,2,0 // vbroadcastss 0x2cc41(%rip),%ymm1 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,255,189,2,0 // vbroadcastss 0x2bdff(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,223,202,2,0 // vbroadcastss 0x2cadf(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,66,191,2,0 // vbroadcastss 0x2bf42(%rip),%ymm9 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 196,98,125,24,21,53,191,2,0 // vbroadcastss 0x2bf35(%rip),%ymm10 # 3a4fc <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,98,125,24,13,50,204,2,0 // vbroadcastss 0x2cc32(%rip),%ymm9 # 3bab4 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,98,125,24,21,37,204,2,0 // vbroadcastss 0x2cc25(%rip),%ymm10 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,211,189,2,0 // vbroadcastss 0x2bdd3(%rip),%ymm9 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,179,202,2,0 // vbroadcastss 0x2cab3(%rip),%ymm9 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,33,191,2,0 // vbroadcastss 0x2bf21(%rip),%ymm10 # 3a504 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,21,17,204,2,0 // vbroadcastss 0x2cc11(%rip),%ymm10 # 3bab8 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,64,1,0,0 // vmovups %ymm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14243,14 +14864,14 @@ HIDDEN _sk_bicubic_p1y_hsw
FUNCTION(_sk_bicubic_p1y_hsw)
_sk_bicubic_p1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,169,189,2,0 // vbroadcastss 0x2bda9(%rip),%ymm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,137,202,2,0 // vbroadcastss 0x2ca89(%rip),%ymm8 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
.byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,235,190,2,0 // vbroadcastss 0x2beeb(%rip),%ymm10 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 196,98,125,24,29,222,190,2,0 // vbroadcastss 0x2bede(%rip),%ymm11 # 3a4fc <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,98,125,24,21,219,203,2,0 // vbroadcastss 0x2cbdb(%rip),%ymm10 # 3bab4 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,98,125,24,29,206,203,2,0 // vbroadcastss 0x2cbce(%rip),%ymm11 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,211,190,2,0 // vbroadcastss 0x2bed3(%rip),%ymm8 # 3a504 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,5,195,203,2,0 // vbroadcastss 0x2cbc3(%rip),%ymm8 # 3bab8 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14261,12 +14882,12 @@ HIDDEN _sk_bicubic_p3y_hsw
FUNCTION(_sk_bicubic_p3y_hsw)
_sk_bicubic_p3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,179,190,2,0 // vbroadcastss 0x2beb3(%rip),%ymm1 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,226,125,24,13,163,203,2,0 // vbroadcastss 0x2cba3(%rip),%ymm1 # 3bab4 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,184,189,2,0 // vbroadcastss 0x2bdb8(%rip),%ymm10 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,135,190,2,0 // vbroadcastss 0x2be87(%rip),%ymm11 # 3a4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,21,152,202,2,0 // vbroadcastss 0x2ca98(%rip),%ymm10 # 3b9c4 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,119,203,2,0 // vbroadcastss 0x2cb77(%rip),%ymm11 # 3baac <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -14406,7 +15027,7 @@ _sk_clut_3D_hsw:
.byte 196,98,93,64,218 // vpmulld %ymm2,%ymm4,%ymm11
.byte 72,139,0 // mov (%rax),%rax
.byte 197,165,254,193 // vpaddd %ymm1,%ymm11,%ymm0
- .byte 196,98,125,88,61,73,188,2,0 // vpbroadcastd 0x2bc49(%rip),%ymm15 # 3a50c <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,88,61,57,201,2,0 // vpbroadcastd 0x2c939(%rip),%ymm15 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
.byte 196,194,125,64,199 // vpmulld %ymm15,%ymm0,%ymm0
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
@@ -14418,13 +15039,13 @@ _sk_clut_3D_hsw:
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,60,144 // vgatherdps %ymm5,(%rax,%ymm2,4),%ymm7
.byte 197,252,17,188,36,0,2,0,0 // vmovups %ymm7,0x200(%rsp)
- .byte 196,226,125,88,61,175,186,2,0 // vpbroadcastd 0x2baaf(%rip),%ymm7 # 3a3b8 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,226,125,88,61,143,199,2,0 // vpbroadcastd 0x2c78f(%rip),%ymm7 # 3b95c <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 197,253,254,199 // vpaddd %ymm7,%ymm0,%ymm0
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,20,128 // vgatherdps %ymm5,(%rax,%ymm0,4),%ymm2
.byte 197,252,17,148,36,32,1,0,0 // vmovups %ymm2,0x120(%rsp)
- .byte 196,226,125,24,5,219,187,2,0 // vbroadcastss 0x2bbdb(%rip),%ymm0 # 3a508 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,5,203,200,2,0 // vbroadcastss 0x2c8cb(%rip),%ymm0 # 3babc <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
.byte 197,172,88,232 // vaddps %ymm0,%ymm10,%ymm5
.byte 197,254,91,237 // vcvttps2dq %ymm5,%ymm5
.byte 196,226,93,64,213 // vpmulld %ymm5,%ymm4,%ymm2
@@ -14686,7 +15307,7 @@ _sk_clut_4D_hsw:
.byte 197,254,127,132,36,0,1,0,0 // vmovdqu %ymm0,0x100(%rsp)
.byte 196,98,109,64,200 // vpmulld %ymm0,%ymm2,%ymm9
.byte 197,181,254,199 // vpaddd %ymm7,%ymm9,%ymm0
- .byte 196,98,125,88,21,116,182,2,0 // vpbroadcastd 0x2b674(%rip),%ymm10 # 3a50c <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,88,21,100,195,2,0 // vpbroadcastd 0x2c364(%rip),%ymm10 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
.byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -14698,13 +15319,13 @@ _sk_clut_4D_hsw:
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,98,61,146,28,168 // vgatherdps %ymm8,(%rax,%ymm5,4),%ymm11
.byte 197,124,17,156,36,192,0,0,0 // vmovups %ymm11,0xc0(%rsp)
- .byte 196,98,125,88,29,215,180,2,0 // vpbroadcastd 0x2b4d7(%rip),%ymm11 # 3a3b8 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,88,29,183,193,2,0 // vpbroadcastd 0x2c1b7(%rip),%ymm11 # 3b95c <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,193,125,254,195 // vpaddd %ymm11,%ymm0,%ymm0
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,226,61,146,44,128 // vgatherdps %ymm8,(%rax,%ymm0,4),%ymm5
.byte 197,252,17,108,36,32 // vmovups %ymm5,0x20(%rsp)
- .byte 196,226,125,24,5,4,182,2,0 // vbroadcastss 0x2b604(%rip),%ymm0 # 3a508 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,5,244,194,2,0 // vbroadcastss 0x2c2f4(%rip),%ymm0 # 3babc <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
.byte 197,116,88,192 // vaddps %ymm0,%ymm1,%ymm8
.byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
.byte 196,194,109,64,232 // vpmulld %ymm8,%ymm2,%ymm5
@@ -15137,7 +15758,7 @@ _sk_clut_4D_hsw:
.byte 196,193,100,92,210 // vsubps %ymm10,%ymm3,%ymm2
.byte 196,194,77,168,210 // vfmadd213ps %ymm10,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,250,170,2,0 // vbroadcastss 0x2aafa(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,218,183,2,0 // vbroadcastss 0x2b7da(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,16,164,36,96,6,0,0 // vmovups 0x660(%rsp),%ymm4
.byte 197,252,16,172,36,128,6,0,0 // vmovups 0x680(%rsp),%ymm5
.byte 197,252,16,180,36,160,6,0,0 // vmovups 0x6a0(%rsp),%ymm6
@@ -15149,14 +15770,14 @@ HIDDEN _sk_gauss_a_to_rgba_hsw
.globl _sk_gauss_a_to_rgba_hsw
FUNCTION(_sk_gauss_a_to_rgba_hsw)
_sk_gauss_a_to_rgba_hsw:
- .byte 196,226,125,24,5,44,172,2,0 // vbroadcastss 0x2ac2c(%rip),%ymm0 # 3a514 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- .byte 196,226,125,24,13,31,172,2,0 // vbroadcastss 0x2ac1f(%rip),%ymm1 # 3a510 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,226,125,24,5,28,185,2,0 // vbroadcastss 0x2b91c(%rip),%ymm0 # 3bac8 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
+ .byte 196,226,125,24,13,15,185,2,0 // vbroadcastss 0x2b90f(%rip),%ymm1 # 3bac4 <_sk_srcover_bgra_8888_sse2_lowp+0x424>
.byte 196,226,101,168,200 // vfmadd213ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,25,172,2,0 // vbroadcastss 0x2ac19(%rip),%ymm0 # 3a518 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
+ .byte 196,226,125,24,5,9,185,2,0 // vbroadcastss 0x2b909(%rip),%ymm0 # 3bacc <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
- .byte 196,226,125,24,13,15,172,2,0 // vbroadcastss 0x2ac0f(%rip),%ymm1 # 3a51c <_sk_srcover_bgra_8888_sse2_lowp+0x420>
+ .byte 196,226,125,24,13,255,184,2,0 // vbroadcastss 0x2b8ff(%rip),%ymm1 # 3bad0 <_sk_srcover_bgra_8888_sse2_lowp+0x430>
.byte 196,226,101,184,200 // vfmadd231ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,5,172,2,0 // vbroadcastss 0x2ac05(%rip),%ymm0 # 3a520 <_sk_srcover_bgra_8888_sse2_lowp+0x424>
+ .byte 196,226,125,24,5,245,184,2,0 // vbroadcastss 0x2b8f5(%rip),%ymm0 # 3bad4 <_sk_srcover_bgra_8888_sse2_lowp+0x434>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -15174,7 +15795,7 @@ _sk_bilerp_clamp_8888_hsw:
.byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp)
.byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp)
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,37,79,170,2,0 // vbroadcastss 0x2aa4f(%rip),%ymm4 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,37,47,183,2,0 // vbroadcastss 0x2b72f(%rip),%ymm4 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,88,212 // vaddps %ymm4,%ymm0,%ymm2
.byte 196,227,125,8,218,1 // vroundps $0x1,%ymm2,%ymm3
.byte 197,108,92,235 // vsubps %ymm3,%ymm2,%ymm13
@@ -15182,7 +15803,7 @@ _sk_bilerp_clamp_8888_hsw:
.byte 197,244,88,204 // vaddps %ymm4,%ymm1,%ymm1
.byte 196,227,125,8,209,1 // vroundps $0x1,%ymm1,%ymm2
.byte 197,244,92,210 // vsubps %ymm2,%ymm1,%ymm2
- .byte 196,226,125,24,13,37,170,2,0 // vbroadcastss 0x2aa25(%rip),%ymm1 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,5,183,2,0 // vbroadcastss 0x2b705(%rip),%ymm1 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,92,221 // vsubps %ymm13,%ymm1,%ymm3
.byte 197,252,17,156,36,192,0,0,0 // vmovups %ymm3,0xc0(%rsp)
.byte 197,252,17,148,36,128,0,0,0 // vmovups %ymm2,0x80(%rsp)
@@ -15197,8 +15818,8 @@ _sk_bilerp_clamp_8888_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 196,226,125,24,72,8 // vbroadcastss 0x8(%rax),%ymm1
.byte 197,252,17,76,36,64 // vmovups %ymm1,0x40(%rsp)
- .byte 197,250,16,13,19,171,2,0 // vmovss 0x2ab13(%rip),%xmm1 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
- .byte 196,226,125,24,61,62,170,2,0 // vbroadcastss 0x2aa3e(%rip),%ymm7 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 197,250,16,13,3,184,2,0 // vmovss 0x2b803(%rip),%xmm1 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,226,125,24,61,30,183,2,0 // vbroadcastss 0x2b71e(%rip),%ymm7 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -15209,14 +15830,14 @@ _sk_bilerp_clamp_8888_hsw:
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,220,95,201 // vmaxps %ymm1,%ymm4,%ymm1
.byte 197,248,41,108,36,144 // vmovaps %xmm5,-0x70(%rsp)
- .byte 197,248,46,45,12,171,2,0 // vucomiss 0x2ab0c(%rip),%xmm5 # 3a52c <_sk_srcover_bgra_8888_sse2_lowp+0x430>
+ .byte 197,248,46,45,252,183,2,0 // vucomiss 0x2b7fc(%rip),%xmm5 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 197,124,16,164,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm12
- .byte 119,6 // ja fa31 <_sk_bilerp_clamp_8888_hsw+0x101>
+ .byte 119,6 // ja 102f5 <_sk_bilerp_clamp_8888_hsw+0x101>
.byte 197,124,16,100,36,32 // vmovups 0x20(%rsp),%ymm12
.byte 197,244,93,76,36,96 // vminps 0x60(%rsp),%ymm1,%ymm1
.byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
.byte 196,226,117,64,100,36,64 // vpmulld 0x40(%rsp),%ymm1,%ymm4
- .byte 197,250,16,53,166,170,2,0 // vmovss 0x2aaa6(%rip),%xmm6 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 197,250,16,53,150,183,2,0 // vmovss 0x2b796(%rip),%xmm6 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,226,125,24,206 // vbroadcastss %xmm6,%ymm1
.byte 197,244,88,200 // vaddps %ymm0,%ymm1,%ymm1
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -15227,36 +15848,36 @@ _sk_bilerp_clamp_8888_hsw:
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,65,45,239,210 // vpxor %ymm10,%ymm10,%ymm10
.byte 196,66,85,144,20,136 // vpgatherdd %ymm5,(%r8,%ymm1,4),%ymm10
- .byte 197,173,219,13,129,174,2,0 // vpand 0x2ae81(%rip),%ymm10,%ymm1 # 3a900 <_sk_srcover_bgra_8888_sse2_lowp+0x804>
+ .byte 197,173,219,13,93,187,2,0 // vpand 0x2bb5d(%rip),%ymm10,%ymm1 # 3bea0 <_sk_srcover_bgra_8888_sse2_lowp+0x800>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 197,116,89,223 // vmulps %ymm7,%ymm1,%ymm11
- .byte 196,226,45,0,13,144,174,2,0 // vpshufb 0x2ae90(%rip),%ymm10,%ymm1 # 3a920 <_sk_srcover_bgra_8888_sse2_lowp+0x824>
+ .byte 196,226,45,0,13,108,187,2,0 // vpshufb 0x2bb6c(%rip),%ymm10,%ymm1 # 3bec0 <_sk_srcover_bgra_8888_sse2_lowp+0x820>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 197,244,89,239 // vmulps %ymm7,%ymm1,%ymm5
- .byte 196,226,45,0,13,159,174,2,0 // vpshufb 0x2ae9f(%rip),%ymm10,%ymm1 # 3a940 <_sk_srcover_bgra_8888_sse2_lowp+0x844>
+ .byte 196,226,45,0,13,123,187,2,0 // vpshufb 0x2bb7b(%rip),%ymm10,%ymm1 # 3bee0 <_sk_srcover_bgra_8888_sse2_lowp+0x840>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
.byte 196,193,45,114,210,24 // vpsrld $0x18,%ymm10,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
.byte 197,44,89,255 // vmulps %ymm7,%ymm10,%ymm15
- .byte 197,248,46,53,108,170,2,0 // vucomiss 0x2aa6c(%rip),%xmm6 # 3a52c <_sk_srcover_bgra_8888_sse2_lowp+0x430>
+ .byte 197,248,46,53,92,183,2,0 // vucomiss 0x2b75c(%rip),%xmm6 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 196,65,124,40,213 // vmovaps %ymm13,%ymm10
- .byte 119,9 // ja fad0 <_sk_bilerp_clamp_8888_hsw+0x1a0>
+ .byte 119,9 // ja 10394 <_sk_bilerp_clamp_8888_hsw+0x1a0>
.byte 197,124,16,148,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm10
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,66,45,184,203 // vfmadd231ps %ymm11,%ymm10,%ymm9
.byte 196,98,45,184,197 // vfmadd231ps %ymm5,%ymm10,%ymm8
.byte 196,226,45,184,209 // vfmadd231ps %ymm1,%ymm10,%ymm2
.byte 196,194,45,184,223 // vfmadd231ps %ymm15,%ymm10,%ymm3
- .byte 197,202,88,53,187,168,2,0 // vaddss 0x2a8bb(%rip),%xmm6,%xmm6 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,250,16,13,175,168,2,0 // vmovss 0x2a8af(%rip),%xmm1 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,202,88,53,155,181,2,0 // vaddss 0x2b59b(%rip),%xmm6,%xmm6 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 197,250,16,13,143,181,2,0 // vmovss 0x2b58f(%rip),%xmm1 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,248,46,206 // vucomiss %xmm6,%xmm1
- .byte 15,131,71,255,255,255 // jae fa4a <_sk_bilerp_clamp_8888_hsw+0x11a>
+ .byte 15,131,71,255,255,255 // jae 1030e <_sk_bilerp_clamp_8888_hsw+0x11a>
.byte 197,248,40,108,36,144 // vmovaps -0x70(%rsp),%xmm5
- .byte 197,210,88,45,155,168,2,0 // vaddss 0x2a89b(%rip),%xmm5,%xmm5 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,250,16,13,143,168,2,0 // vmovss 0x2a88f(%rip),%xmm1 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,210,88,45,123,181,2,0 // vaddss 0x2b57b(%rip),%xmm5,%xmm5 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 197,250,16,13,111,181,2,0 // vmovss 0x2b56f(%rip),%xmm1 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,248,46,205 // vucomiss %xmm5,%xmm1
- .byte 15,131,217,254,255,255 // jae f9fc <_sk_bilerp_clamp_8888_hsw+0xcc>
+ .byte 15,131,217,254,255,255 // jae 102c0 <_sk_bilerp_clamp_8888_hsw+0xcc>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,124,41,200 // vmovaps %ymm9,%ymm0
.byte 197,124,41,193 // vmovaps %ymm8,%ymm1
@@ -15291,13 +15912,13 @@ _sk_start_pipeline_avx:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae fc1a <_sk_start_pipeline_avx+0xca>
+ .byte 15,131,151,0,0,0 // jae 104de <_sk_start_pipeline_avx+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja fbdc <_sk_start_pipeline_avx+0x8c>
+ .byte 119,67 // ja 104a0 <_sk_start_pipeline_avx+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -15316,10 +15937,10 @@ _sk_start_pipeline_avx:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe fb9d <_sk_start_pipeline_avx+0x4d>
+ .byte 118,193 // jbe 10461 <_sk_start_pipeline_avx+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je fc0d <_sk_start_pipeline_avx+0xbd>
+ .byte 116,41 // je 104d1 <_sk_start_pipeline_avx+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -15333,7 +15954,7 @@ _sk_start_pipeline_avx:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne fb8f <_sk_start_pipeline_avx+0x3f>
+ .byte 15,133,117,255,255,255 // jne 10453 <_sk_start_pipeline_avx+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -15364,10 +15985,10 @@ _sk_seed_shader_avx:
.byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,70,167,2,0 // vbroadcastss 0x2a746(%rip),%ymm2 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,21,38,180,2,0 // vbroadcastss 0x2b426(%rip),%ymm2 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,59,167,2,0 // vbroadcastss 0x2a73b(%rip),%ymm2 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,21,27,180,2,0 // vbroadcastss 0x2b41b(%rip),%ymm2 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -15381,46 +16002,46 @@ FUNCTION(_sk_dither_avx)
_sk_dither_avx:
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
- .byte 197,57,254,13,231,176,2,0 // vpaddd 0x2b0e7(%rip),%xmm8,%xmm9 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xc84>
- .byte 197,57,254,5,239,176,2,0 // vpaddd 0x2b0ef(%rip),%xmm8,%xmm8 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xc94>
+ .byte 197,57,254,13,195,189,2,0 // vpaddd 0x2bdc3(%rip),%xmm8,%xmm9 # 3c320 <_sk_srcover_bgra_8888_sse2_lowp+0xc80>
+ .byte 197,57,254,5,203,189,2,0 // vpaddd 0x2bdcb(%rip),%xmm8,%xmm8 # 3c330 <_sk_srcover_bgra_8888_sse2_lowp+0xc90>
.byte 196,67,53,24,208,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm10
.byte 197,121,110,217 // vmovd %ecx,%xmm11
.byte 196,65,121,112,219,0 // vpshufd $0x0,%xmm11,%xmm11
.byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
.byte 196,65,36,87,218 // vxorps %ymm10,%ymm11,%ymm11
- .byte 196,98,125,24,21,235,166,2,0 // vbroadcastss 0x2a6eb(%rip),%ymm10 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,24,21,203,179,2,0 // vbroadcastss 0x2b3cb(%rip),%ymm10 # 3b954 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,36,84,210 // vandps %ymm10,%ymm11,%ymm10
.byte 196,193,25,114,242,5 // vpslld $0x5,%xmm10,%xmm12
.byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
.byte 196,193,41,114,242,5 // vpslld $0x5,%xmm10,%xmm10
.byte 196,67,29,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm12,%ymm10
- .byte 197,123,18,37,198,184,2,0 // vmovddup 0x2b8c6(%rip),%xmm12 # 3b5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x14b4>
+ .byte 197,123,18,37,226,197,2,0 // vmovddup 0x2c5e2(%rip),%xmm12 # 3cb90 <_sk_srcover_bgra_8888_sse2_lowp+0x14f0>
.byte 196,65,49,219,236 // vpand %xmm12,%xmm9,%xmm13
.byte 196,193,17,114,245,4 // vpslld $0x4,%xmm13,%xmm13
.byte 196,65,57,219,228 // vpand %xmm12,%xmm8,%xmm12
.byte 196,193,25,114,244,4 // vpslld $0x4,%xmm12,%xmm12
.byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,169,166,2,0 // vbroadcastss 0x2a6a9(%rip),%ymm13 # 3a3b8 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,24,45,137,179,2,0 // vbroadcastss 0x2b389(%rip),%ymm13 # 3b95c <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,65,36,84,237 // vandps %ymm13,%ymm11,%ymm13
.byte 196,193,9,114,245,2 // vpslld $0x2,%xmm13,%xmm14
.byte 196,67,125,25,237,1 // vextractf128 $0x1,%ymm13,%xmm13
.byte 196,193,17,114,245,2 // vpslld $0x2,%xmm13,%xmm13
.byte 196,67,13,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm14,%ymm13
- .byte 197,123,18,53,132,184,2,0 // vmovddup 0x2b884(%rip),%xmm14 # 3b5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x14bc>
+ .byte 197,123,18,53,160,197,2,0 // vmovddup 0x2c5a0(%rip),%xmm14 # 3cb98 <_sk_srcover_bgra_8888_sse2_lowp+0x14f8>
.byte 196,65,49,219,254 // vpand %xmm14,%xmm9,%xmm15
.byte 196,65,1,254,255 // vpaddd %xmm15,%xmm15,%xmm15
.byte 196,65,57,219,246 // vpand %xmm14,%xmm8,%xmm14
.byte 196,65,9,254,246 // vpaddd %xmm14,%xmm14,%xmm14
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
.byte 196,65,12,86,228 // vorps %ymm12,%ymm14,%ymm12
- .byte 196,98,125,24,53,88,166,2,0 // vbroadcastss 0x2a658(%rip),%ymm14 # 3a3b4 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
+ .byte 196,98,125,24,53,56,179,2,0 // vbroadcastss 0x2b338(%rip),%ymm14 # 3b958 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
.byte 196,193,9,114,211,1 // vpsrld $0x1,%xmm11,%xmm14
.byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
.byte 196,193,33,114,211,1 // vpsrld $0x1,%xmm11,%xmm11
.byte 196,67,13,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm14,%ymm11
.byte 196,65,20,86,219 // vorps %ymm11,%ymm13,%ymm11
- .byte 197,123,18,45,58,184,2,0 // vmovddup 0x2b83a(%rip),%xmm13 # 3b5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x14c4>
+ .byte 197,123,18,45,86,197,2,0 // vmovddup 0x2c556(%rip),%xmm13 # 3cba0 <_sk_srcover_bgra_8888_sse2_lowp+0x1500>
.byte 196,65,49,219,205 // vpand %xmm13,%xmm9,%xmm9
.byte 196,65,57,219,197 // vpand %xmm13,%xmm8,%xmm8
.byte 196,193,49,114,209,2 // vpsrld $0x2,%xmm9,%xmm9
@@ -15431,9 +16052,9 @@ _sk_dither_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,60,86,195 // vorps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,251,165,2,0 // vbroadcastss 0x2a5fb(%rip),%ymm9 # 3a3bc <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
+ .byte 196,98,125,24,13,219,178,2,0 // vbroadcastss 0x2b2db(%rip),%ymm9 # 3b960 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,241,165,2,0 // vbroadcastss 0x2a5f1(%rip),%ymm9 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
+ .byte 196,98,125,24,13,209,178,2,0 // vbroadcastss 0x2b2d1(%rip),%ymm9 # 3b964 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
@@ -15467,7 +16088,7 @@ HIDDEN _sk_black_color_avx
FUNCTION(_sk_black_color_avx)
_sk_black_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,121,165,2,0 // vbroadcastss 0x2a579(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,89,178,2,0 // vbroadcastss 0x2b259(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -15478,7 +16099,7 @@ HIDDEN _sk_white_color_avx
FUNCTION(_sk_white_color_avx)
_sk_white_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,96,165,2,0 // vbroadcastss 0x2a560(%rip),%ymm0 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,64,178,2,0 // vbroadcastss 0x2b240(%rip),%ymm0 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -15524,7 +16145,7 @@ HIDDEN _sk_srcatop_avx
FUNCTION(_sk_srcatop_avx)
_sk_srcatop_avx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,255,164,2,0 // vbroadcastss 0x2a4ff(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,223,177,2,0 // vbroadcastss 0x2b1df(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -15545,7 +16166,7 @@ HIDDEN _sk_dstatop_avx
FUNCTION(_sk_dstatop_avx)
_sk_dstatop_avx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
- .byte 196,98,125,24,13,189,164,2,0 // vbroadcastss 0x2a4bd(%rip),%ymm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,157,177,2,0 // vbroadcastss 0x2b19d(%rip),%ymm9 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,207 // vsubps %ymm7,%ymm9,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -15587,7 +16208,7 @@ HIDDEN _sk_srcout_avx
.globl _sk_srcout_avx
FUNCTION(_sk_srcout_avx)
_sk_srcout_avx:
- .byte 196,98,125,24,5,88,164,2,0 // vbroadcastss 0x2a458(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,56,177,2,0 // vbroadcastss 0x2b138(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -15600,7 +16221,7 @@ HIDDEN _sk_dstout_avx
.globl _sk_dstout_avx
FUNCTION(_sk_dstout_avx)
_sk_dstout_avx:
- .byte 196,226,125,24,5,55,164,2,0 // vbroadcastss 0x2a437(%rip),%ymm0 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,23,177,2,0 // vbroadcastss 0x2b117(%rip),%ymm0 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -15613,7 +16234,7 @@ HIDDEN _sk_srcover_avx
.globl _sk_srcover_avx
FUNCTION(_sk_srcover_avx)
_sk_srcover_avx:
- .byte 196,98,125,24,5,22,164,2,0 // vbroadcastss 0x2a416(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,246,176,2,0 // vbroadcastss 0x2b0f6(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -15630,7 +16251,7 @@ HIDDEN _sk_dstover_avx
.globl _sk_dstover_avx
FUNCTION(_sk_dstover_avx)
_sk_dstover_avx:
- .byte 196,98,125,24,5,229,163,2,0 // vbroadcastss 0x2a3e5(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,197,176,2,0 // vbroadcastss 0x2b0c5(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
@@ -15658,7 +16279,7 @@ HIDDEN _sk_multiply_avx
.globl _sk_multiply_avx
FUNCTION(_sk_multiply_avx)
_sk_multiply_avx:
- .byte 196,98,125,24,5,160,163,2,0 // vbroadcastss 0x2a3a0(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,128,176,2,0 // vbroadcastss 0x2b080(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -15689,7 +16310,7 @@ HIDDEN _sk_plus__avx
FUNCTION(_sk_plus__avx)
_sk_plus__avx:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,47,163,2,0 // vbroadcastss 0x2a32f(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,15,176,2,0 // vbroadcastss 0x2b00f(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -15723,7 +16344,7 @@ HIDDEN _sk_xor__avx
.globl _sk_xor__avx
FUNCTION(_sk_xor__avx)
_sk_xor__avx:
- .byte 196,98,125,24,5,206,162,2,0 // vbroadcastss 0x2a2ce(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,174,175,2,0 // vbroadcastss 0x2afae(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -15760,7 +16381,7 @@ _sk_darken_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,74,162,2,0 // vbroadcastss 0x2a24a(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,42,175,2,0 // vbroadcastss 0x2af2a(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15786,7 +16407,7 @@ _sk_lighten_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,242,161,2,0 // vbroadcastss 0x2a1f2(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,210,174,2,0 // vbroadcastss 0x2aed2(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15815,7 +16436,7 @@ _sk_difference_avx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,142,161,2,0 // vbroadcastss 0x2a18e(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,110,174,2,0 // vbroadcastss 0x2ae6e(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15838,7 +16459,7 @@ _sk_exclusion_avx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,69,161,2,0 // vbroadcastss 0x2a145(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,37,174,2,0 // vbroadcastss 0x2ae25(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15849,7 +16470,7 @@ HIDDEN _sk_colorburn_avx
.globl _sk_colorburn_avx
FUNCTION(_sk_colorburn_avx)
_sk_colorburn_avx:
- .byte 196,98,125,24,5,44,161,2,0 // vbroadcastss 0x2a12c(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,12,174,2,0 // vbroadcastss 0x2ae0c(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -15911,7 +16532,7 @@ HIDDEN _sk_colordodge_avx
FUNCTION(_sk_colordodge_avx)
_sk_colordodge_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,48,160,2,0 // vbroadcastss 0x2a030(%rip),%ymm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,16,173,2,0 // vbroadcastss 0x2ad10(%rip),%ymm9 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -15968,7 +16589,7 @@ HIDDEN _sk_hardlight_avx
.globl _sk_hardlight_avx
FUNCTION(_sk_hardlight_avx)
_sk_hardlight_avx:
- .byte 196,98,125,24,5,59,159,2,0 // vbroadcastss 0x29f3b(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,27,172,2,0 // vbroadcastss 0x2ac1b(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16023,7 +16644,7 @@ HIDDEN _sk_overlay_avx
.globl _sk_overlay_avx
FUNCTION(_sk_overlay_avx)
_sk_overlay_avx:
- .byte 196,98,125,24,5,96,158,2,0 // vbroadcastss 0x29e60(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,64,171,2,0 // vbroadcastss 0x2ab40(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16089,10 +16710,10 @@ _sk_softlight_avx:
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,65,60,89,216 // vmulps %ymm8,%ymm8,%ymm11
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,29,103,157,2,0 // vbroadcastss 0x29d67(%rip),%ymm11 # 3a3c4 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,29,71,170,2,0 // vbroadcastss 0x2aa47(%rip),%ymm11 # 3b968 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,65,28,88,235 // vaddps %ymm11,%ymm12,%ymm13
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,88,157,2,0 // vbroadcastss 0x29d58(%rip),%ymm13 # 3a3c8 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
+ .byte 196,98,125,24,45,56,170,2,0 // vbroadcastss 0x2aa38(%rip),%ymm13 # 3b96c <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
.byte 196,65,28,89,245 // vmulps %ymm13,%ymm12,%ymm14
.byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8
.byte 196,65,124,82,244 // vrsqrtps %ymm12,%ymm14
@@ -16103,7 +16724,7 @@ _sk_softlight_avx:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,2,157,2,0 // vbroadcastss 0x29d02(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,226,169,2,0 // vbroadcastss 0x2a9e2(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,60,92,228 // vsubps %ymm12,%ymm8,%ymm12
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
@@ -16230,12 +16851,12 @@ _sk_hue_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,229,154,2,0 // vbroadcastss 0x29ae5(%rip),%ymm14 # 3a3cc <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,197,167,2,0 // vbroadcastss 0x2a7c5(%rip),%ymm14 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,219,154,2,0 // vbroadcastss 0x29adb(%rip),%ymm15 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,61,187,167,2,0 // vbroadcastss 0x2a7bb(%rip),%ymm15 # 3b974 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,204,154,2,0 // vbroadcastss 0x29acc(%rip),%ymm0 # 3a3d4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,172,167,2,0 // vbroadcastss 0x2a7ac(%rip),%ymm0 # 3b978 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -16296,7 +16917,7 @@ _sk_hue_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,121,153,2,0 // vbroadcastss 0x29979(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,89,166,2,0 // vbroadcastss 0x2a659(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16353,12 +16974,12 @@ _sk_saturation_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,163,152,2,0 // vbroadcastss 0x298a3(%rip),%ymm14 # 3a3cc <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,131,165,2,0 // vbroadcastss 0x2a583(%rip),%ymm14 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,153,152,2,0 // vbroadcastss 0x29899(%rip),%ymm15 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,61,121,165,2,0 // vbroadcastss 0x2a579(%rip),%ymm15 # 3b974 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,138,152,2,0 // vbroadcastss 0x2988a(%rip),%ymm0 # 3a3d4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,106,165,2,0 // vbroadcastss 0x2a56a(%rip),%ymm0 # 3b978 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -16419,7 +17040,7 @@ _sk_saturation_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,55,151,2,0 // vbroadcastss 0x29737(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,23,164,2,0 // vbroadcastss 0x2a417(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16448,12 +17069,12 @@ _sk_color_avx:
.byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp)
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
- .byte 196,98,125,24,45,233,150,2,0 // vbroadcastss 0x296e9(%rip),%ymm13 # 3a3cc <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,201,163,2,0 // vbroadcastss 0x2a3c9(%rip),%ymm13 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,213 // vmulps %ymm13,%ymm4,%ymm10
- .byte 196,98,125,24,53,223,150,2,0 // vbroadcastss 0x296df(%rip),%ymm14 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,191,163,2,0 // vbroadcastss 0x2a3bf(%rip),%ymm14 # 3b974 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,222 // vmulps %ymm14,%ymm5,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,208,150,2,0 // vbroadcastss 0x296d0(%rip),%ymm15 # 3a3d4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,176,163,2,0 // vbroadcastss 0x2a3b0(%rip),%ymm15 # 3b978 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,65,76,89,223 // vmulps %ymm15,%ymm6,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -16516,7 +17137,7 @@ _sk_color_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,107,149,2,0 // vbroadcastss 0x2956b(%rip),%ymm0 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,75,162,2,0 // vbroadcastss 0x2a24b(%rip),%ymm0 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,84,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -16546,12 +17167,12 @@ _sk_luminosity_avx:
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,98,125,24,45,25,149,2,0 // vbroadcastss 0x29519(%rip),%ymm13 # 3a3cc <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,249,161,2,0 // vbroadcastss 0x2a1f9(%rip),%ymm13 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,108,89,213 // vmulps %ymm13,%ymm2,%ymm10
- .byte 196,98,125,24,53,15,149,2,0 // vbroadcastss 0x2950f(%rip),%ymm14 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,239,161,2,0 // vbroadcastss 0x2a1ef(%rip),%ymm14 # 3b974 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,116,89,222 // vmulps %ymm14,%ymm1,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,0,149,2,0 // vbroadcastss 0x29500(%rip),%ymm15 # 3a3d4 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,224,161,2,0 // vbroadcastss 0x2a1e0(%rip),%ymm15 # 3b978 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,65,28,89,223 // vmulps %ymm15,%ymm12,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -16614,7 +17235,7 @@ _sk_luminosity_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,155,147,2,0 // vbroadcastss 0x2939b(%rip),%ymm0 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,123,160,2,0 // vbroadcastss 0x2a07b(%rip),%ymm0 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -16644,9 +17265,9 @@ _sk_srcover_rgba_8888_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,87,1,0,0 // jne 111cd <_sk_srcover_rgba_8888_avx+0x171>
+ .byte 15,133,87,1,0,0 // jne 11a91 <_sk_srcover_rgba_8888_avx+0x171>
.byte 196,65,125,16,12,144 // vmovupd (%r8,%rdx,4),%ymm9
- .byte 197,125,40,5,252,152,2,0 // vmovapd 0x298fc(%rip),%ymm8 # 3a980 <_sk_srcover_bgra_8888_sse2_lowp+0x884>
+ .byte 197,125,40,5,216,165,2,0 // vmovapd 0x2a5d8(%rip),%ymm8 # 3bf20 <_sk_srcover_bgra_8888_sse2_lowp+0x880>
.byte 196,193,53,84,224 // vandpd %ymm8,%ymm9,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
@@ -16665,9 +17286,9 @@ _sk_srcover_rgba_8888_avx:
.byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
.byte 196,227,53,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm9,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,194,146,2,0 // vbroadcastss 0x292c2(%rip),%ymm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,162,159,2,0 // vbroadcastss 0x29fa2(%rip),%ymm9 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,211 // vsubps %ymm3,%ymm9,%ymm10
- .byte 196,98,125,24,13,225,146,2,0 // vbroadcastss 0x292e1(%rip),%ymm9 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,193,159,2,0 // vbroadcastss 0x29fc1(%rip),%ymm9 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,44,89,220 // vmulps %ymm4,%ymm10,%ymm11
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
@@ -16708,7 +17329,7 @@ _sk_srcover_rgba_8888_avx:
.byte 196,65,37,86,192 // vorpd %ymm8,%ymm11,%ymm8
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,59 // jne 111fe <_sk_srcover_rgba_8888_avx+0x1a2>
+ .byte 117,59 // jne 11ac2 <_sk_srcover_rgba_8888_avx+0x1a2>
.byte 196,65,124,17,4,144 // vmovups %ymm8,(%r8,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -16717,33 +17338,33 @@ _sk_srcover_rgba_8888_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,156,254,255,255 // ja 1107c <_sk_srcover_rgba_8888_avx+0x20>
+ .byte 15,135,156,254,255,255 // ja 11940 <_sk_srcover_rgba_8888_avx+0x20>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,254,0,0,0 // lea 0xfe(%rip),%r9 # 112e8 <_sk_srcover_rgba_8888_avx+0x28c>
+ .byte 76,141,13,254,0,0,0 // lea 0xfe(%rip),%r9 # 11bac <_sk_srcover_rgba_8888_avx+0x28c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,122,16,12,144 // vmovss (%r8,%rdx,4),%xmm9
- .byte 233,126,254,255,255 // jmpq 1107c <_sk_srcover_rgba_8888_avx+0x20>
+ .byte 233,126,254,255,255 // jmpq 11940 <_sk_srcover_rgba_8888_avx+0x20>
.byte 137,248 // mov %edi,%eax
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,193 // ja 111c9 <_sk_srcover_rgba_8888_avx+0x16d>
+ .byte 119,193 // ja 11a8d <_sk_srcover_rgba_8888_avx+0x16d>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 11304 <_sk_srcover_rgba_8888_avx+0x2a8>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 11bc8 <_sk_srcover_rgba_8888_avx+0x2a8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,166 // jmp 111c9 <_sk_srcover_rgba_8888_avx+0x16d>
+ .byte 235,166 // jmp 11a8d <_sk_srcover_rgba_8888_avx+0x16d>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,193,123,16,36,144 // vmovsd (%r8,%rdx,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,50,254,255,255 // jmpq 1107c <_sk_srcover_rgba_8888_avx+0x20>
+ .byte 233,50,254,255,255 // jmpq 11940 <_sk_srcover_rgba_8888_avx+0x20>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -16757,10 +17378,10 @@ _sk_srcover_rgba_8888_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,193,121,16,36,144 // vmovupd (%r8,%rdx,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,221,253,255,255 // jmpq 1107c <_sk_srcover_rgba_8888_avx+0x20>
+ .byte 233,221,253,255,255 // jmpq 11940 <_sk_srcover_rgba_8888_avx+0x20>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,23,255,255,255 // jmpq 111c9 <_sk_srcover_rgba_8888_avx+0x16d>
+ .byte 233,23,255,255,255 // jmpq 11a8d <_sk_srcover_rgba_8888_avx+0x16d>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -16768,7 +17389,7 @@ _sk_srcover_rgba_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,121,17,4,144 // vmovupd %xmm8,(%r8,%rdx,4)
- .byte 233,227,254,255,255 // jmpq 111c9 <_sk_srcover_rgba_8888_avx+0x16d>
+ .byte 233,227,254,255,255 // jmpq 11a8d <_sk_srcover_rgba_8888_avx+0x16d>
.byte 102,144 // xchg %ax,%ax
.byte 11,255 // or %edi,%edi
.byte 255 // (bad)
@@ -16781,7 +17402,7 @@ _sk_srcover_rgba_8888_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 112fd <_sk_srcover_rgba_8888_avx+0x2a1>
+ .byte 126,255 // jle 11bc1 <_sk_srcover_rgba_8888_avx+0x2a1>
.byte 255 // (bad)
.byte 255,98,255 // jmpq *-0x1(%rdx)
.byte 255 // (bad)
@@ -16813,9 +17434,9 @@ _sk_srcover_bgra_8888_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,87,1,0,0 // jne 11491 <_sk_srcover_bgra_8888_avx+0x171>
+ .byte 15,133,87,1,0,0 // jne 11d55 <_sk_srcover_bgra_8888_avx+0x171>
.byte 196,65,125,16,12,144 // vmovupd (%r8,%rdx,4),%ymm9
- .byte 197,125,40,5,88,150,2,0 // vmovapd 0x29658(%rip),%ymm8 # 3a9a0 <_sk_srcover_bgra_8888_sse2_lowp+0x8a4>
+ .byte 197,125,40,5,52,163,2,0 // vmovapd 0x2a334(%rip),%ymm8 # 3bf40 <_sk_srcover_bgra_8888_sse2_lowp+0x8a0>
.byte 196,193,53,84,232 // vandpd %ymm8,%ymm9,%ymm5
.byte 197,252,91,245 // vcvtdq2ps %ymm5,%ymm6
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
@@ -16834,9 +17455,9 @@ _sk_srcover_bgra_8888_avx:
.byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
.byte 196,227,53,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm9,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,254,143,2,0 // vbroadcastss 0x28ffe(%rip),%ymm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,222,156,2,0 // vbroadcastss 0x29cde(%rip),%ymm9 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,211 // vsubps %ymm3,%ymm9,%ymm10
- .byte 196,98,125,24,13,29,144,2,0 // vbroadcastss 0x2901d(%rip),%ymm9 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,253,156,2,0 // vbroadcastss 0x29cfd(%rip),%ymm9 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,44,89,220 // vmulps %ymm4,%ymm10,%ymm11
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
@@ -16877,7 +17498,7 @@ _sk_srcover_bgra_8888_avx:
.byte 196,65,37,86,192 // vorpd %ymm8,%ymm11,%ymm8
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,59 // jne 114c2 <_sk_srcover_bgra_8888_avx+0x1a2>
+ .byte 117,59 // jne 11d86 <_sk_srcover_bgra_8888_avx+0x1a2>
.byte 196,65,124,17,4,144 // vmovups %ymm8,(%r8,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -16886,33 +17507,33 @@ _sk_srcover_bgra_8888_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,156,254,255,255 // ja 11340 <_sk_srcover_bgra_8888_avx+0x20>
+ .byte 15,135,156,254,255,255 // ja 11c04 <_sk_srcover_bgra_8888_avx+0x20>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,254,0,0,0 // lea 0xfe(%rip),%r9 # 115ac <_sk_srcover_bgra_8888_avx+0x28c>
+ .byte 76,141,13,254,0,0,0 // lea 0xfe(%rip),%r9 # 11e70 <_sk_srcover_bgra_8888_avx+0x28c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,122,16,12,144 // vmovss (%r8,%rdx,4),%xmm9
- .byte 233,126,254,255,255 // jmpq 11340 <_sk_srcover_bgra_8888_avx+0x20>
+ .byte 233,126,254,255,255 // jmpq 11c04 <_sk_srcover_bgra_8888_avx+0x20>
.byte 137,248 // mov %edi,%eax
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,193 // ja 1148d <_sk_srcover_bgra_8888_avx+0x16d>
+ .byte 119,193 // ja 11d51 <_sk_srcover_bgra_8888_avx+0x16d>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 115c8 <_sk_srcover_bgra_8888_avx+0x2a8>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 11e8c <_sk_srcover_bgra_8888_avx+0x2a8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,166 // jmp 1148d <_sk_srcover_bgra_8888_avx+0x16d>
+ .byte 235,166 // jmp 11d51 <_sk_srcover_bgra_8888_avx+0x16d>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,193,123,16,36,144 // vmovsd (%r8,%rdx,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,50,254,255,255 // jmpq 11340 <_sk_srcover_bgra_8888_avx+0x20>
+ .byte 233,50,254,255,255 // jmpq 11c04 <_sk_srcover_bgra_8888_avx+0x20>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -16926,10 +17547,10 @@ _sk_srcover_bgra_8888_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,193,121,16,36,144 // vmovupd (%r8,%rdx,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,221,253,255,255 // jmpq 11340 <_sk_srcover_bgra_8888_avx+0x20>
+ .byte 233,221,253,255,255 // jmpq 11c04 <_sk_srcover_bgra_8888_avx+0x20>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,23,255,255,255 // jmpq 1148d <_sk_srcover_bgra_8888_avx+0x16d>
+ .byte 233,23,255,255,255 // jmpq 11d51 <_sk_srcover_bgra_8888_avx+0x16d>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -16937,7 +17558,7 @@ _sk_srcover_bgra_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,121,17,4,144 // vmovupd %xmm8,(%r8,%rdx,4)
- .byte 233,227,254,255,255 // jmpq 1148d <_sk_srcover_bgra_8888_avx+0x16d>
+ .byte 233,227,254,255,255 // jmpq 11d51 <_sk_srcover_bgra_8888_avx+0x16d>
.byte 102,144 // xchg %ax,%ax
.byte 11,255 // or %edi,%edi
.byte 255 // (bad)
@@ -16950,7 +17571,7 @@ _sk_srcover_bgra_8888_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 115c1 <_sk_srcover_bgra_8888_avx+0x2a1>
+ .byte 126,255 // jle 11e85 <_sk_srcover_bgra_8888_avx+0x2a1>
.byte 255 // (bad)
.byte 255,98,255 // jmpq *-0x1(%rdx)
.byte 255 // (bad)
@@ -16988,7 +17609,7 @@ HIDDEN _sk_clamp_1_avx
.globl _sk_clamp_1_avx
FUNCTION(_sk_clamp_1_avx)
_sk_clamp_1_avx:
- .byte 196,98,125,24,5,162,141,2,0 // vbroadcastss 0x28da2(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,130,154,2,0 // vbroadcastss 0x29a82(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -17000,7 +17621,7 @@ HIDDEN _sk_clamp_a_avx
.globl _sk_clamp_a_avx
FUNCTION(_sk_clamp_a_avx)
_sk_clamp_a_avx:
- .byte 196,98,125,24,5,129,141,2,0 // vbroadcastss 0x28d81(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,97,154,2,0 // vbroadcastss 0x29a61(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -17012,7 +17633,7 @@ HIDDEN _sk_clamp_a_dst_avx
.globl _sk_clamp_a_dst_avx
FUNCTION(_sk_clamp_a_dst_avx)
_sk_clamp_a_dst_avx:
- .byte 196,98,125,24,5,99,141,2,0 // vbroadcastss 0x28d63(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,67,154,2,0 // vbroadcastss 0x29a43(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -17045,7 +17666,7 @@ HIDDEN _sk_invert_avx
.globl _sk_invert_avx
FUNCTION(_sk_invert_avx)
_sk_invert_avx:
- .byte 196,98,125,24,5,30,141,2,0 // vbroadcastss 0x28d1e(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,254,153,2,0 // vbroadcastss 0x299fe(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -17099,9 +17720,9 @@ HIDDEN _sk_unpremul_avx
.globl _sk_unpremul_avx
FUNCTION(_sk_unpremul_avx)
_sk_unpremul_avx:
- .byte 196,98,125,24,5,185,140,2,0 // vbroadcastss 0x28cb9(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,153,153,2,0 // vbroadcastss 0x29999(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,220,140,2,0 // vbroadcastss 0x28cdc(%rip),%ymm9 # 3a3dc <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
+ .byte 196,98,125,24,13,188,153,2,0 // vbroadcastss 0x299bc(%rip),%ymm9 # 3b980 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
.byte 196,65,60,194,201,1 // vcmpltps %ymm9,%ymm8,%ymm9
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
@@ -17111,21 +17732,37 @@ _sk_unpremul_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
+HIDDEN _sk_force_opaque_avx
+.globl _sk_force_opaque_avx
+FUNCTION(_sk_force_opaque_avx)
+_sk_force_opaque_avx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,96,153,2,0 // vbroadcastss 0x29960(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_force_opaque_dst_avx
+.globl _sk_force_opaque_dst_avx
+FUNCTION(_sk_force_opaque_dst_avx)
+_sk_force_opaque_dst_avx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,61,83,153,2,0 // vbroadcastss 0x29953(%rip),%ymm7 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 255,224 // jmpq *%rax
+
HIDDEN _sk_from_srgb_avx
.globl _sk_from_srgb_avx
FUNCTION(_sk_from_srgb_avx)
_sk_from_srgb_avx:
- .byte 196,98,125,24,5,182,140,2,0 // vbroadcastss 0x28cb6(%rip),%ymm8 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,124,153,2,0 // vbroadcastss 0x2997c(%rip),%ymm8 # 3b984 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,144,140,2,0 // vbroadcastss 0x28c90(%rip),%ymm11 # 3a3cc <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,86,153,2,0 // vbroadcastss 0x29956(%rip),%ymm11 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,89,227 // vmulps %ymm11,%ymm0,%ymm12
- .byte 196,98,125,24,45,154,140,2,0 // vbroadcastss 0x28c9a(%rip),%ymm13 # 3a3e4 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,45,96,153,2,0 // vbroadcastss 0x29960(%rip),%ymm13 # 3b988 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,139,140,2,0 // vbroadcastss 0x28c8b(%rip),%ymm12 # 3a3e8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,37,81,153,2,0 // vbroadcastss 0x29951(%rip),%ymm12 # 3b98c <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,129,140,2,0 // vbroadcastss 0x28c81(%rip),%ymm14 # 3a3ec <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,53,71,153,2,0 // vbroadcastss 0x29947(%rip),%ymm14 # 3b990 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,124,194,198,1 // vcmpltps %ymm14,%ymm0,%ymm0
.byte 196,195,45,74,193,0 // vblendvps %ymm0,%ymm9,%ymm10,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -17151,17 +17788,17 @@ HIDDEN _sk_from_srgb_dst_avx
.globl _sk_from_srgb_dst_avx
FUNCTION(_sk_from_srgb_dst_avx)
_sk_from_srgb_dst_avx:
- .byte 196,98,125,24,5,10,140,2,0 // vbroadcastss 0x28c0a(%rip),%ymm8 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,208,152,2,0 // vbroadcastss 0x298d0(%rip),%ymm8 # 3b984 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,228,139,2,0 // vbroadcastss 0x28be4(%rip),%ymm11 # 3a3cc <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,170,152,2,0 // vbroadcastss 0x298aa(%rip),%ymm11 # 3b970 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,227 // vmulps %ymm11,%ymm4,%ymm12
- .byte 196,98,125,24,45,238,139,2,0 // vbroadcastss 0x28bee(%rip),%ymm13 # 3a3e4 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,45,180,152,2,0 // vbroadcastss 0x298b4(%rip),%ymm13 # 3b988 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,223,139,2,0 // vbroadcastss 0x28bdf(%rip),%ymm12 # 3a3e8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,37,165,152,2,0 // vbroadcastss 0x298a5(%rip),%ymm12 # 3b98c <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,213,139,2,0 // vbroadcastss 0x28bd5(%rip),%ymm14 # 3a3ec <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,53,155,152,2,0 // vbroadcastss 0x2989b(%rip),%ymm14 # 3b990 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,92,194,230,1 // vcmpltps %ymm14,%ymm4,%ymm4
.byte 196,195,45,74,225,64 // vblendvps %ymm4,%ymm9,%ymm10,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -17188,20 +17825,20 @@ HIDDEN _sk_to_srgb_avx
FUNCTION(_sk_to_srgb_avx)
_sk_to_srgb_avx:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,106,139,2,0 // vbroadcastss 0x28b6a(%rip),%ymm8 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
+ .byte 196,98,125,24,5,48,152,2,0 // vbroadcastss 0x29830(%rip),%ymm8 # 3b994 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,100,139,2,0 // vbroadcastss 0x28b64(%rip),%ymm11 # 3a3f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
+ .byte 196,98,125,24,29,42,152,2,0 // vbroadcastss 0x2982a(%rip),%ymm11 # 3b99c <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
.byte 196,65,52,89,227 // vmulps %ymm11,%ymm9,%ymm12
- .byte 196,98,125,24,45,82,139,2,0 // vbroadcastss 0x28b52(%rip),%ymm13 # 3a3f4 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
+ .byte 196,98,125,24,45,24,152,2,0 // vbroadcastss 0x29818(%rip),%ymm13 # 3b998 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,52,89,228 // vmulps %ymm12,%ymm9,%ymm12
- .byte 196,98,125,24,53,111,140,2,0 // vbroadcastss 0x28c6f(%rip),%ymm14 # 3a524 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
+ .byte 196,98,125,24,53,69,153,2,0 // vbroadcastss 0x29945(%rip),%ymm14 # 3bad8 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
.byte 196,65,28,88,230 // vaddps %ymm14,%ymm12,%ymm12
- .byte 196,98,125,24,61,101,140,2,0 // vbroadcastss 0x28c65(%rip),%ymm15 # 3a528 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
+ .byte 196,98,125,24,61,59,153,2,0 // vbroadcastss 0x2993b(%rip),%ymm15 # 3badc <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
- .byte 196,98,125,24,37,41,139,2,0 // vbroadcastss 0x28b29(%rip),%ymm12 # 3a404 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
+ .byte 196,98,125,24,37,239,151,2,0 // vbroadcastss 0x297ef(%rip),%ymm12 # 3b9a8 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
.byte 196,193,124,194,196,1 // vcmpltps %ymm12,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -17238,7 +17875,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,49,138,2,0 // vbroadcastss 0x28a31(%rip),%ymm11 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,247,150,2,0 // vbroadcastss 0x296f7(%rip),%ymm11 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
@@ -17248,19 +17885,19 @@ _sk_rgb_to_hsl_avx:
.byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
.byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,98,138,2,0 // vbroadcastss 0x28a62(%rip),%ymm11 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,29,40,151,2,0 // vbroadcastss 0x29728(%rip),%ymm11 # 3b9b4 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,80,138,2,0 // vbroadcastss 0x28a50(%rip),%ymm11 # 3a40c <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,29,22,151,2,0 // vbroadcastss 0x29716(%rip),%ymm11 # 3b9b0 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,227,117,74,202,224 // vblendvps %ymm14,%ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,56,138,2,0 // vbroadcastss 0x28a38(%rip),%ymm2 # 3a408 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,226,125,24,21,254,150,2,0 // vbroadcastss 0x296fe(%rip),%ymm2 # 3b9ac <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
.byte 196,227,13,74,210,208 // vblendvps %ymm13,%ymm2,%ymm14,%ymm2
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
.byte 196,227,117,74,194,0 // vblendvps %ymm0,%ymm2,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,37,175,137,2,0 // vbroadcastss 0x289af(%rip),%ymm12 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,37,117,150,2,0 // vbroadcastss 0x29675(%rip),%ymm12 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2
.byte 197,28,194,226,1 // vcmpltps %ymm2,%ymm12,%ymm12
.byte 196,65,36,92,216 // vsubps %ymm8,%ymm11,%ymm11
@@ -17270,7 +17907,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,198,128 // vblendvps %ymm8,%ymm14,%ymm0,%ymm0
.byte 196,195,117,74,206,128 // vblendvps %ymm8,%ymm14,%ymm1,%ymm1
- .byte 196,98,125,24,5,226,137,2,0 // vbroadcastss 0x289e2(%rip),%ymm8 # 3a414 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,5,168,150,2,0 // vbroadcastss 0x296a8(%rip),%ymm8 # 3b9b8 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -17287,7 +17924,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 196,98,125,24,5,59,137,2,0 // vbroadcastss 0x2893b(%rip),%ymm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,1,150,2,0 // vbroadcastss 0x29601(%rip),%ymm8 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,92,89,210 // vmulps %ymm2,%ymm4,%ymm10
.byte 196,65,92,92,218 // vsubps %ymm10,%ymm4,%ymm11
@@ -17295,23 +17932,23 @@ _sk_hsl_to_rgb_avx:
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
.byte 197,108,88,202 // vaddps %ymm2,%ymm2,%ymm9
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,129,137,2,0 // vbroadcastss 0x28981(%rip),%ymm11 # 3a418 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 196,98,125,24,29,71,150,2,0 // vbroadcastss 0x29647(%rip),%ymm11 # 3b9bc <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
.byte 196,65,100,88,219 // vaddps %ymm11,%ymm3,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,37,83,137,2,0 // vbroadcastss 0x28953(%rip),%ymm12 # 3a408 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,37,25,150,2,0 // vbroadcastss 0x29619(%rip),%ymm12 # 3b9ac <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,193,4,89,196 // vmulps %ymm12,%ymm15,%ymm0
- .byte 196,98,125,24,45,77,137,2,0 // vbroadcastss 0x2894d(%rip),%ymm13 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,45,19,150,2,0 // vbroadcastss 0x29613(%rip),%ymm13 # 3b9b4 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 197,20,92,240 // vsubps %ymm0,%ymm13,%ymm14
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14
- .byte 196,226,125,24,13,66,137,2,0 // vbroadcastss 0x28942(%rip),%ymm1 # 3a41c <_sk_srcover_bgra_8888_sse2_lowp+0x320>
+ .byte 196,226,125,24,13,8,150,2,0 // vbroadcastss 0x29608(%rip),%ymm1 # 3b9c0 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
.byte 196,193,116,194,255,2 // vcmpleps %ymm15,%ymm1,%ymm7
.byte 196,195,13,74,249,112 // vblendvps %ymm7,%ymm9,%ymm14,%ymm7
.byte 196,65,60,194,247,2 // vcmpleps %ymm15,%ymm8,%ymm14
.byte 196,227,45,74,255,224 // vblendvps %ymm14,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,53,25,137,2,0 // vbroadcastss 0x28919(%rip),%ymm14 # 3a414 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,53,223,149,2,0 // vbroadcastss 0x295df(%rip),%ymm14 # 3b9b8 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,65,12,194,255,2 // vcmpleps %ymm15,%ymm14,%ymm15
.byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -17330,7 +17967,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,164,89,247 // vmulps %ymm7,%ymm11,%ymm6
.byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6
.byte 196,227,77,74,237,0 // vblendvps %ymm0,%ymm5,%ymm6,%ymm5
- .byte 196,226,125,24,5,195,136,2,0 // vbroadcastss 0x288c3(%rip),%ymm0 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,226,125,24,5,137,149,2,0 // vbroadcastss 0x29589(%rip),%ymm0 # 3b9c4 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 197,228,88,192 // vaddps %ymm0,%ymm3,%ymm0
.byte 196,227,125,8,216,1 // vroundps $0x1,%ymm0,%ymm3
.byte 197,252,92,195 // vsubps %ymm3,%ymm0,%ymm0
@@ -17382,15 +18019,15 @@ _sk_scale_u8_avx:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,75 // jne 11c5d <_sk_scale_u8_avx+0x5d>
+ .byte 117,75 // jne 1253b <_sk_scale_u8_avx+0x5d>
.byte 196,66,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm8
- .byte 197,57,219,5,48,145,2,0 // vpand 0x29130(%rip),%xmm8,%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,57,219,5,242,157,2,0 // vpand 0x29df2(%rip),%xmm8,%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,224,135,2,0 // vbroadcastss 0x287e0(%rip),%ymm9 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,166,148,2,0 // vbroadcastss 0x294a6(%rip),%ymm9 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -17403,15 +18040,15 @@ _sk_scale_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,172 // ja 11c18 <_sk_scale_u8_avx+0x18>
+ .byte 119,172 // ja 124f6 <_sk_scale_u8_avx+0x18>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,122,0,0,0 // lea 0x7a(%rip),%r9 # 11cf0 <_sk_scale_u8_avx+0xf0>
+ .byte 76,141,13,124,0,0,0 // lea 0x7c(%rip),%r9 # 125d0 <_sk_scale_u8_avx+0xf2>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,142 // jmp 11c18 <_sk_scale_u8_avx+0x18>
+ .byte 235,142 // jmp 124f6 <_sk_scale_u8_avx+0x18>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -17419,7 +18056,7 @@ _sk_scale_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,101,255,255,255 // jmpq 11c18 <_sk_scale_u8_avx+0x18>
+ .byte 233,101,255,255,255 // jmpq 124f6 <_sk_scale_u8_avx+0x18>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -17430,22 +18067,24 @@ _sk_scale_u8_avx:
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,41,255,255,255 // jmpq 11c18 <_sk_scale_u8_avx+0x18>
- .byte 144 // nop
- .byte 143 // (bad)
+ .byte 233,41,255,255,255 // jmpq 124f6 <_sk_scale_u8_avx+0x18>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 141 // (bad)
+ .byte 255 // (bad)
.byte 255 // (bad)
+ .byte 255,168,255,255,255,152 // ljmp *-0x67000001(%rax)
.byte 255 // (bad)
- .byte 255,170,255,255,255,154 // ljmp *-0x65000001(%rdx)
.byte 255 // (bad)
+ .byte 255,231 // jmpq *%rdi
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf011d00 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd7c04>
.byte 255 // (bad)
+ .byte 220,255 // fdivr %st,%st(7)
.byte 255 // (bad)
- .byte 255,211 // callq *%rbx
+ .byte 255,209 // callq *%rcx
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,195 // inc %ebx
+ .byte 255,193 // inc %ecx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -17460,26 +18099,26 @@ _sk_scale_565_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,178,0,0,0 // jne 11dd7 <_sk_scale_565_avx+0xcb>
+ .byte 15,133,178,0,0,0 // jne 126b7 <_sk_scale_565_avx+0xcb>
.byte 196,65,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm8
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,222,134,2,0 // vbroadcastss 0x286de(%rip),%ymm9 # 3a428 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,24,13,162,147,2,0 // vbroadcastss 0x293a2(%rip),%ymm9 # 3b9cc <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,207,134,2,0 // vbroadcastss 0x286cf(%rip),%ymm10 # 3a42c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,147,147,2,0 // vbroadcastss 0x29393(%rip),%ymm10 # 3b9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,197,134,2,0 // vbroadcastss 0x286c5(%rip),%ymm10 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,24,21,137,147,2,0 // vbroadcastss 0x29389(%rip),%ymm10 # 3b9d4 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,182,134,2,0 // vbroadcastss 0x286b6(%rip),%ymm11 # 3a434 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,122,147,2,0 // vbroadcastss 0x2937a(%rip),%ymm11 # 3b9d8 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,172,134,2,0 // vbroadcastss 0x286ac(%rip),%ymm11 # 3a438 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,24,29,112,147,2,0 // vbroadcastss 0x29370(%rip),%ymm11 # 3b9dc <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,157,134,2,0 // vbroadcastss 0x2869d(%rip),%ymm11 # 3a43c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,97,147,2,0 // vbroadcastss 0x29361(%rip),%ymm11 # 3b9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -17498,27 +18137,27 @@ _sk_scale_565_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,65,255,255,255 // ja 11d2b <_sk_scale_565_avx+0x1f>
+ .byte 15,135,65,255,255,255 // ja 1260b <_sk_scale_565_avx+0x1f>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,100,0,0,0 // lea 0x64(%rip),%r9 # 11e58 <_sk_scale_565_avx+0x14c>
+ .byte 76,141,13,100,0,0,0 // lea 0x64(%rip),%r9 # 12738 <_sk_scale_565_avx+0x14c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,32,255,255,255 // jmpq 11d2b <_sk_scale_565_avx+0x1f>
+ .byte 233,32,255,255,255 // jmpq 1260b <_sk_scale_565_avx+0x1f>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,2,255,255,255 // jmpq 11d2b <_sk_scale_565_avx+0x1f>
+ .byte 233,2,255,255,255 // jmpq 1260b <_sk_scale_565_avx+0x1f>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,65,57,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,65,57,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,212,254,255,255 // jmpq 11d2b <_sk_scale_565_avx+0x1f>
+ .byte 233,212,254,255,255 // jmpq 1260b <_sk_scale_565_avx+0x1f>
.byte 144 // nop
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -17570,15 +18209,15 @@ _sk_lerp_u8_avx:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 11f34 <_sk_lerp_u8_avx+0x81>
+ .byte 117,111 // jne 12814 <_sk_lerp_u8_avx+0x81>
.byte 196,66,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm8
- .byte 197,57,219,5,125,142,2,0 // vpand 0x28e7d(%rip),%xmm8,%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,57,219,5,61,155,2,0 // vpand 0x29b3d(%rip),%xmm8,%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,45,133,2,0 // vbroadcastss 0x2852d(%rip),%ymm9 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,241,145,2,0 // vbroadcastss 0x291f1(%rip),%ymm9 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
@@ -17599,15 +18238,15 @@ _sk_lerp_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,136 // ja 11ecb <_sk_lerp_u8_avx+0x18>
+ .byte 119,136 // ja 127ab <_sk_lerp_u8_avx+0x18>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,127,0,0,0 // lea 0x7f(%rip),%r9 # 11fcc <_sk_lerp_u8_avx+0x119>
+ .byte 76,141,13,127,0,0,0 // lea 0x7f(%rip),%r9 # 128ac <_sk_lerp_u8_avx+0x119>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,103,255,255,255 // jmpq 11ecb <_sk_lerp_u8_avx+0x18>
+ .byte 233,103,255,255,255 // jmpq 127ab <_sk_lerp_u8_avx+0x18>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -17615,7 +18254,7 @@ _sk_lerp_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,62,255,255,255 // jmpq 11ecb <_sk_lerp_u8_avx+0x18>
+ .byte 233,62,255,255,255 // jmpq 127ab <_sk_lerp_u8_avx+0x18>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -17626,7 +18265,7 @@ _sk_lerp_u8_avx:
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,2,255,255,255 // jmpq 11ecb <_sk_lerp_u8_avx+0x18>
+ .byte 233,2,255,255,255 // jmpq 127ab <_sk_lerp_u8_avx+0x18>
.byte 15,31,0 // nopl (%rax)
.byte 138,255 // mov %bh,%bh
.byte 255 // (bad)
@@ -17657,26 +18296,26 @@ _sk_lerp_565_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,214,0,0,0 // jne 120d7 <_sk_lerp_565_avx+0xef>
+ .byte 15,133,214,0,0,0 // jne 129b7 <_sk_lerp_565_avx+0xef>
.byte 196,65,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm8
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,2,132,2,0 // vbroadcastss 0x28402(%rip),%ymm9 # 3a428 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,24,13,198,144,2,0 // vbroadcastss 0x290c6(%rip),%ymm9 # 3b9cc <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,243,131,2,0 // vbroadcastss 0x283f3(%rip),%ymm10 # 3a42c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,183,144,2,0 // vbroadcastss 0x290b7(%rip),%ymm10 # 3b9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,233,131,2,0 // vbroadcastss 0x283e9(%rip),%ymm10 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,24,21,173,144,2,0 // vbroadcastss 0x290ad(%rip),%ymm10 # 3b9d4 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,218,131,2,0 // vbroadcastss 0x283da(%rip),%ymm11 # 3a434 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,158,144,2,0 // vbroadcastss 0x2909e(%rip),%ymm11 # 3b9d8 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,208,131,2,0 // vbroadcastss 0x283d0(%rip),%ymm11 # 3a438 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,24,29,148,144,2,0 // vbroadcastss 0x29094(%rip),%ymm11 # 3b9dc <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,193,131,2,0 // vbroadcastss 0x283c1(%rip),%ymm11 # 3a43c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,133,144,2,0 // vbroadcastss 0x29085(%rip),%ymm11 # 3b9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -17703,27 +18342,27 @@ _sk_lerp_565_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,29,255,255,255 // ja 12007 <_sk_lerp_565_avx+0x1f>
+ .byte 15,135,29,255,255,255 // ja 128e7 <_sk_lerp_565_avx+0x1f>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,100,0,0,0 // lea 0x64(%rip),%r9 # 12158 <_sk_lerp_565_avx+0x170>
+ .byte 76,141,13,100,0,0,0 // lea 0x64(%rip),%r9 # 12a38 <_sk_lerp_565_avx+0x170>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,252,254,255,255 // jmpq 12007 <_sk_lerp_565_avx+0x1f>
+ .byte 233,252,254,255,255 // jmpq 128e7 <_sk_lerp_565_avx+0x1f>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,222,254,255,255 // jmpq 12007 <_sk_lerp_565_avx+0x1f>
+ .byte 233,222,254,255,255 // jmpq 128e7 <_sk_lerp_565_avx+0x1f>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,65,57,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,65,57,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm8,%xmm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,176,254,255,255 // jmpq 12007 <_sk_lerp_565_avx+0x1f>
+ .byte 233,176,254,255,255 // jmpq 128e7 <_sk_lerp_565_avx+0x1f>
.byte 144 // nop
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -17753,9 +18392,9 @@ _sk_load_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,4,2,0,0 // jne 1238c <_sk_load_tables_avx+0x218>
+ .byte 15,133,4,2,0,0 // jne 12c6c <_sk_load_tables_avx+0x218>
.byte 196,65,125,16,20,144 // vmovupd (%r8,%rdx,4),%ymm10
- .byte 197,125,40,13,42,136,2,0 // vmovapd 0x2882a(%rip),%ymm9 # 3a9c0 <_sk_srcover_bgra_8888_sse2_lowp+0x8c4>
+ .byte 197,125,40,13,234,148,2,0 // vmovapd 0x294ea(%rip),%ymm9 # 3bf60 <_sk_srcover_bgra_8888_sse2_lowp+0x8c0>
.byte 196,193,45,84,201 // vandpd %ymm9,%ymm10,%ymm1
.byte 196,227,125,25,200,1 // vextractf128 $0x1,%ymm1,%xmm0
.byte 196,193,249,126,192 // vmovq %xmm0,%r8
@@ -17847,7 +18486,7 @@ _sk_load_tables_avx:
.byte 196,193,65,114,213,24 // vpsrld $0x18,%xmm13,%xmm7
.byte 196,227,101,24,223,1 // vinsertf128 $0x1,%xmm7,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,61,166,128,2,0 // vbroadcastss 0x280a6(%rip),%ymm7 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,61,106,141,2,0 // vbroadcastss 0x28d6a(%rip),%ymm7 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
@@ -17857,21 +18496,21 @@ _sk_load_tables_avx:
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,233,253,255,255 // ja 1218e <_sk_load_tables_avx+0x1a>
+ .byte 15,135,233,253,255,255 // ja 12a6e <_sk_load_tables_avx+0x1a>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 12444 <_sk_load_tables_avx+0x2d0>
+ .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 12d24 <_sk_load_tables_avx+0x2d0>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,65,122,16,20,144 // vmovss (%r8,%rdx,4),%xmm10
- .byte 233,201,253,255,255 // jmpq 1218e <_sk_load_tables_avx+0x1a>
+ .byte 233,201,253,255,255 // jmpq 12a6e <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,208,4 // vblendps $0x4,%ymm0,%ymm1,%ymm10
.byte 196,193,123,16,4,144 // vmovsd (%r8,%rdx,4),%xmm0
.byte 196,99,45,13,208,1 // vblendpd $0x1,%ymm0,%ymm10,%ymm10
- .byte 233,162,253,255,255 // jmpq 1218e <_sk_load_tables_avx+0x1a>
+ .byte 233,162,253,255,255 // jmpq 12a6e <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -17885,9 +18524,9 @@ _sk_load_tables_avx:
.byte 196,99,45,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm10,%ymm10
.byte 196,193,121,16,4,144 // vmovupd (%r8,%rdx,4),%xmm0
.byte 196,67,125,13,210,12 // vblendpd $0xc,%ymm10,%ymm0,%ymm10
- .byte 233,77,253,255,255 // jmpq 1218e <_sk_load_tables_avx+0x1a>
+ .byte 233,77,253,255,255 // jmpq 12a6e <_sk_load_tables_avx+0x1a>
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 12445 <_sk_load_tables_avx+0x2d1>
+ .byte 118,255 // jbe 12d25 <_sk_load_tables_avx+0x2d1>
.byte 255 // (bad)
.byte 255,151,255,255,255,129 // callq *-0x7e000001(%rdi)
.byte 255 // (bad)
@@ -17917,7 +18556,7 @@ _sk_load_tables_u16_be_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
.byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,75,2,0,0 // jne 126cd <_sk_load_tables_u16_be_avx+0x26d>
+ .byte 15,133,75,2,0,0 // jne 12fad <_sk_load_tables_u16_be_avx+0x26d>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -17933,7 +18572,7 @@ _sk_load_tables_u16_be_avx:
.byte 197,177,108,208 // vpunpcklqdq %xmm0,%xmm9,%xmm2
.byte 197,49,109,232 // vpunpckhqdq %xmm0,%xmm9,%xmm13
.byte 196,65,57,108,212 // vpunpcklqdq %xmm12,%xmm8,%xmm10
- .byte 197,121,111,29,124,136,2,0 // vmovdqa 0x2887c(%rip),%xmm11 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,121,111,29,60,149,2,0 // vmovdqa 0x2953c(%rip),%xmm11 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,193,105,219,195 // vpand %xmm11,%xmm2,%xmm0
.byte 197,249,112,208,78 // vpshufd $0x4e,%xmm0,%xmm2
.byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
@@ -18027,7 +18666,7 @@ _sk_load_tables_u16_be_avx:
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
.byte 196,227,77,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm6,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,53,135,125,2,0 // vbroadcastss 0x27d87(%rip),%ymm6 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,226,125,24,53,75,138,2,0 // vbroadcastss 0x28a4b(%rip),%ymm6 # 3b9e4 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 197,228,89,222 // vmulps %ymm6,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
@@ -18036,29 +18675,29 @@ _sk_load_tables_u16_be_avx:
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 12733 <_sk_load_tables_u16_be_avx+0x2d3>
+ .byte 116,85 // je 13013 <_sk_load_tables_u16_be_avx+0x2d3>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 12733 <_sk_load_tables_u16_be_avx+0x2d3>
+ .byte 114,72 // jb 13013 <_sk_load_tables_u16_be_avx+0x2d3>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 12740 <_sk_load_tables_u16_be_avx+0x2e0>
+ .byte 116,72 // je 13020 <_sk_load_tables_u16_be_avx+0x2e0>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 12740 <_sk_load_tables_u16_be_avx+0x2e0>
+ .byte 114,59 // jb 13020 <_sk_load_tables_u16_be_avx+0x2e0>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,135,253,255,255 // je 1249d <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 15,132,135,253,255,255 // je 12d7d <_sk_load_tables_u16_be_avx+0x3d>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,118,253,255,255 // jb 1249d <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 15,130,118,253,255,255 // jb 12d7d <_sk_load_tables_u16_be_avx+0x3d>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,106,253,255,255 // jmpq 1249d <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,106,253,255,255 // jmpq 12d7d <_sk_load_tables_u16_be_avx+0x3d>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,93,253,255,255 // jmpq 1249d <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,93,253,255,255 // jmpq 12d7d <_sk_load_tables_u16_be_avx+0x3d>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,84,253,255,255 // jmpq 1249d <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,84,253,255,255 // jmpq 12d7d <_sk_load_tables_u16_be_avx+0x3d>
HIDDEN _sk_load_tables_rgb_u16_be_avx
.globl _sk_load_tables_rgb_u16_be_avx
@@ -18070,7 +18709,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
.byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,54,2,0,0 // jne 1299d <_sk_load_tables_rgb_u16_be_avx+0x254>
+ .byte 15,133,54,2,0,0 // jne 1327d <_sk_load_tables_rgb_u16_be_avx+0x254>
.byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
.byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
.byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
@@ -18091,7 +18730,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 197,105,108,216 // vpunpcklqdq %xmm0,%xmm2,%xmm11
.byte 197,241,108,211 // vpunpcklqdq %xmm3,%xmm1,%xmm2
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,121,111,53,124,133,2,0 // vmovdqa 0x2857c(%rip),%xmm14 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,121,111,53,60,146,2,0 // vmovdqa 0x2923c(%rip),%xmm14 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,193,105,219,214 // vpand %xmm14,%xmm2,%xmm2
.byte 197,249,112,218,78 // vpshufd $0x4e,%xmm2,%xmm3
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
@@ -18177,7 +18816,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,29,122,2,0 // vbroadcastss 0x27a1d(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,225,134,2,0 // vbroadcastss 0x286e1(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
.byte 255,224 // jmpq *%rax
@@ -18185,63 +18824,63 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 129d5 <_sk_load_tables_rgb_u16_be_avx+0x28c>
+ .byte 117,31 // jne 132b5 <_sk_load_tables_rgb_u16_be_avx+0x28c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,199,253,255,255 // jmpq 1279c <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,199,253,255,255 // jmpq 1307c <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 12a1f <_sk_load_tables_rgb_u16_be_avx+0x2d6>
+ .byte 114,48 // jb 132ff <_sk_load_tables_rgb_u16_be_avx+0x2d6>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 12a39 <_sk_load_tables_rgb_u16_be_avx+0x2f0>
+ .byte 117,48 // jne 13319 <_sk_load_tables_rgb_u16_be_avx+0x2f0>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,125,253,255,255 // jmpq 1279c <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,125,253,255,255 // jmpq 1307c <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,99,253,255,255 // jmpq 1279c <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,99,253,255,255 // jmpq 1307c <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 12a7a <_sk_load_tables_rgb_u16_be_avx+0x331>
+ .byte 114,39 // jb 1335a <_sk_load_tables_rgb_u16_be_avx+0x331>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 12a8b <_sk_load_tables_rgb_u16_be_avx+0x342>
+ .byte 117,30 // jne 1336b <_sk_load_tables_rgb_u16_be_avx+0x342>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,34,253,255,255 // jmpq 1279c <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,34,253,255,255 // jmpq 1307c <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,17,253,255,255 // jmpq 1279c <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,17,253,255,255 // jmpq 1307c <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 12abe <_sk_load_tables_rgb_u16_be_avx+0x375>
+ .byte 114,25 // jb 1339e <_sk_load_tables_rgb_u16_be_avx+0x375>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,222,252,255,255 // jmpq 1279c <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,222,252,255,255 // jmpq 1307c <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,213,252,255,255 // jmpq 1279c <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,213,252,255,255 // jmpq 1307c <_sk_load_tables_rgb_u16_be_avx+0x53>
HIDDEN _sk_byte_tables_avx
.globl _sk_byte_tables_avx
@@ -18254,9 +18893,9 @@ _sk_byte_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,5,191,120,2,0 // vbroadcastss 0x278bf(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,131,133,2,0 // vbroadcastss 0x28583(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,221,120,2,0 // vbroadcastss 0x278dd(%rip),%ymm10 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,161,133,2,0 // vbroadcastss 0x285a1(%rip),%ymm10 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,125,91,216 // vcvtps2dq %ymm0,%ymm11
.byte 196,65,249,126,216 // vmovq %xmm11,%r8
@@ -18394,7 +19033,7 @@ _sk_byte_tables_avx:
.byte 196,194,121,49,205 // vpmovzxbd %xmm13,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,142,118,2,0 // vbroadcastss 0x2768e(%rip),%ymm9 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,82,131,2,0 // vbroadcastss 0x28352(%rip),%ymm9 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1
.byte 196,194,121,49,214 // vpmovzxbd %xmm14,%xmm2
@@ -18432,7 +19071,7 @@ _sk_byte_tables_rgb_avx:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,21,121,117,2,0 // vbroadcastss 0x27579(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,61,130,2,0 // vbroadcastss 0x2823d(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,194 // vminps %ymm10,%ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,216 // vcvtps2dq %ymm0,%ymm11
@@ -18537,7 +19176,7 @@ _sk_byte_tables_rgb_avx:
.byte 196,194,121,49,205 // vpmovzxbd %xmm13,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,247,115,2,0 // vbroadcastss 0x273f7(%rip),%ymm9 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,187,128,2,0 // vbroadcastss 0x280bb(%rip),%ymm9 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1
.byte 196,194,121,49,214 // vpmovzxbd %xmm14,%xmm2
@@ -18571,7 +19210,7 @@ _sk_table_r_avx:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,13,6,115,2,0 // vbroadcastss 0x27306(%rip),%ymm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,202,127,2,0 // vbroadcastss 0x27fca(%rip),%ymm9 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,193 // vminps %ymm9,%ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
@@ -18626,7 +19265,7 @@ _sk_table_g_avx:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1
- .byte 196,98,125,24,13,45,114,2,0 // vbroadcastss 0x2722d(%rip),%ymm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,241,126,2,0 // vbroadcastss 0x27ef1(%rip),%ymm9 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,93,201 // vminps %ymm9,%ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
@@ -18681,7 +19320,7 @@ _sk_table_b_avx:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,180,95,210 // vmaxps %ymm2,%ymm9,%ymm2
- .byte 196,98,125,24,13,84,113,2,0 // vbroadcastss 0x27154(%rip),%ymm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,24,126,2,0 // vbroadcastss 0x27e18(%rip),%ymm9 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
@@ -18736,7 +19375,7 @@ _sk_table_a_avx:
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 197,180,95,219 // vmaxps %ymm3,%ymm9,%ymm3
- .byte 196,98,125,24,13,123,112,2,0 // vbroadcastss 0x2707b(%rip),%ymm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,63,125,2,0 // vbroadcastss 0x27d3f(%rip),%ymm9 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,217 // vminps %ymm9,%ymm3,%ymm3
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
@@ -18792,36 +19431,36 @@ _sk_parametric_r_avx:
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,36,194,208,0 // vcmpeqps %ymm0,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,30,112,2,0 // vbroadcastss 0x2701e(%rip),%ymm14 # 3a444 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,53,226,124,2,0 // vbroadcastss 0x27ce2(%rip),%ymm14 # 3b9e8 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,20,112,2,0 // vbroadcastss 0x27014(%rip),%ymm14 # 3a448 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,216,124,2,0 // vbroadcastss 0x27cd8(%rip),%ymm14 # 3b9ec <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,102,111,2,0 // vbroadcastss 0x26f66(%rip),%ymm14 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,53,42,124,2,0 // vbroadcastss 0x27c2a(%rip),%ymm14 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,252,111,2,0 // vbroadcastss 0x26ffc(%rip),%ymm14 # 3a44c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,192,124,2,0 // vbroadcastss 0x27cc0(%rip),%ymm14 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,242,111,2,0 // vbroadcastss 0x26ff2(%rip),%ymm14 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,53,182,124,2,0 // vbroadcastss 0x27cb6(%rip),%ymm14 # 3b9f4 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,227,111,2,0 // vbroadcastss 0x26fe3(%rip),%ymm14 # 3a454 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,167,124,2,0 // vbroadcastss 0x27ca7(%rip),%ymm14 # 3b9f8 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,217,111,2,0 // vbroadcastss 0x26fd9(%rip),%ymm14 # 3a458 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,157,124,2,0 // vbroadcastss 0x27c9d(%rip),%ymm14 # 3b9fc <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,186,111,2,0 // vbroadcastss 0x26fba(%rip),%ymm13 # 3a45c <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,126,124,2,0 // vbroadcastss 0x27c7e(%rip),%ymm13 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,176,111,2,0 // vbroadcastss 0x26fb0(%rip),%ymm13 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,116,124,2,0 // vbroadcastss 0x27c74(%rip),%ymm13 # 3ba04 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
.byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,161,111,2,0 // vbroadcastss 0x26fa1(%rip),%ymm13 # 3a464 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,45,101,124,2,0 // vbroadcastss 0x27c65(%rip),%ymm13 # 3ba08 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,151,111,2,0 // vbroadcastss 0x26f97(%rip),%ymm13 # 3a468 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,91,124,2,0 // vbroadcastss 0x27c5b(%rip),%ymm13 # 3ba0c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,136,111,2,0 // vbroadcastss 0x26f88(%rip),%ymm12 # 3a46c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,76,124,2,0 // vbroadcastss 0x27c4c(%rip),%ymm12 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,208,160 // vblendvps %ymm10,%ymm0,%ymm11,%ymm10
@@ -18829,7 +19468,7 @@ _sk_parametric_r_avx:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,154,110,2,0 // vbroadcastss 0x26e9a(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,94,123,2,0 // vbroadcastss 0x27b5e(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18853,36 +19492,36 @@ _sk_parametric_g_avx:
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,36,194,209,0 // vcmpeqps %ymm1,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,213,110,2,0 // vbroadcastss 0x26ed5(%rip),%ymm14 # 3a444 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,53,153,123,2,0 // vbroadcastss 0x27b99(%rip),%ymm14 # 3b9e8 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,203,110,2,0 // vbroadcastss 0x26ecb(%rip),%ymm14 # 3a448 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,143,123,2,0 // vbroadcastss 0x27b8f(%rip),%ymm14 # 3b9ec <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,29,110,2,0 // vbroadcastss 0x26e1d(%rip),%ymm14 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,53,225,122,2,0 // vbroadcastss 0x27ae1(%rip),%ymm14 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,179,110,2,0 // vbroadcastss 0x26eb3(%rip),%ymm14 # 3a44c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,119,123,2,0 // vbroadcastss 0x27b77(%rip),%ymm14 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,169,110,2,0 // vbroadcastss 0x26ea9(%rip),%ymm14 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,53,109,123,2,0 // vbroadcastss 0x27b6d(%rip),%ymm14 # 3b9f4 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,154,110,2,0 // vbroadcastss 0x26e9a(%rip),%ymm14 # 3a454 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,94,123,2,0 // vbroadcastss 0x27b5e(%rip),%ymm14 # 3b9f8 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,144,110,2,0 // vbroadcastss 0x26e90(%rip),%ymm14 # 3a458 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,84,123,2,0 // vbroadcastss 0x27b54(%rip),%ymm14 # 3b9fc <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,113,110,2,0 // vbroadcastss 0x26e71(%rip),%ymm13 # 3a45c <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,53,123,2,0 // vbroadcastss 0x27b35(%rip),%ymm13 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,103,110,2,0 // vbroadcastss 0x26e67(%rip),%ymm13 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,43,123,2,0 // vbroadcastss 0x27b2b(%rip),%ymm13 # 3ba04 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
.byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,88,110,2,0 // vbroadcastss 0x26e58(%rip),%ymm13 # 3a464 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,45,28,123,2,0 // vbroadcastss 0x27b1c(%rip),%ymm13 # 3ba08 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,78,110,2,0 // vbroadcastss 0x26e4e(%rip),%ymm13 # 3a468 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,18,123,2,0 // vbroadcastss 0x27b12(%rip),%ymm13 # 3ba0c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,63,110,2,0 // vbroadcastss 0x26e3f(%rip),%ymm12 # 3a46c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,3,123,2,0 // vbroadcastss 0x27b03(%rip),%ymm12 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,209,160 // vblendvps %ymm10,%ymm1,%ymm11,%ymm10
@@ -18890,7 +19529,7 @@ _sk_parametric_g_avx:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 196,98,125,24,5,81,109,2,0 // vbroadcastss 0x26d51(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,21,122,2,0 // vbroadcastss 0x27a15(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18914,36 +19553,36 @@ _sk_parametric_b_avx:
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,36,194,210,0 // vcmpeqps %ymm2,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,140,109,2,0 // vbroadcastss 0x26d8c(%rip),%ymm14 # 3a444 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,53,80,122,2,0 // vbroadcastss 0x27a50(%rip),%ymm14 # 3b9e8 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,130,109,2,0 // vbroadcastss 0x26d82(%rip),%ymm14 # 3a448 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,70,122,2,0 // vbroadcastss 0x27a46(%rip),%ymm14 # 3b9ec <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,212,108,2,0 // vbroadcastss 0x26cd4(%rip),%ymm14 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,53,152,121,2,0 // vbroadcastss 0x27998(%rip),%ymm14 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,106,109,2,0 // vbroadcastss 0x26d6a(%rip),%ymm14 # 3a44c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,46,122,2,0 // vbroadcastss 0x27a2e(%rip),%ymm14 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,96,109,2,0 // vbroadcastss 0x26d60(%rip),%ymm14 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,53,36,122,2,0 // vbroadcastss 0x27a24(%rip),%ymm14 # 3b9f4 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,81,109,2,0 // vbroadcastss 0x26d51(%rip),%ymm14 # 3a454 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,21,122,2,0 // vbroadcastss 0x27a15(%rip),%ymm14 # 3b9f8 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,71,109,2,0 // vbroadcastss 0x26d47(%rip),%ymm14 # 3a458 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,11,122,2,0 // vbroadcastss 0x27a0b(%rip),%ymm14 # 3b9fc <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,40,109,2,0 // vbroadcastss 0x26d28(%rip),%ymm13 # 3a45c <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,236,121,2,0 // vbroadcastss 0x279ec(%rip),%ymm13 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,30,109,2,0 // vbroadcastss 0x26d1e(%rip),%ymm13 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,226,121,2,0 // vbroadcastss 0x279e2(%rip),%ymm13 # 3ba04 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
.byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,15,109,2,0 // vbroadcastss 0x26d0f(%rip),%ymm13 # 3a464 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,45,211,121,2,0 // vbroadcastss 0x279d3(%rip),%ymm13 # 3ba08 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,5,109,2,0 // vbroadcastss 0x26d05(%rip),%ymm13 # 3a468 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,201,121,2,0 // vbroadcastss 0x279c9(%rip),%ymm13 # 3ba0c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,246,108,2,0 // vbroadcastss 0x26cf6(%rip),%ymm12 # 3a46c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,186,121,2,0 // vbroadcastss 0x279ba(%rip),%ymm12 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,210,160 // vblendvps %ymm10,%ymm2,%ymm11,%ymm10
@@ -18951,7 +19590,7 @@ _sk_parametric_b_avx:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,8,108,2,0 // vbroadcastss 0x26c08(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,204,120,2,0 // vbroadcastss 0x278cc(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18975,36 +19614,36 @@ _sk_parametric_a_avx:
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,36,194,211,0 // vcmpeqps %ymm3,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,67,108,2,0 // vbroadcastss 0x26c43(%rip),%ymm14 # 3a444 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,53,7,121,2,0 // vbroadcastss 0x27907(%rip),%ymm14 # 3b9e8 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,57,108,2,0 // vbroadcastss 0x26c39(%rip),%ymm14 # 3a448 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,253,120,2,0 // vbroadcastss 0x278fd(%rip),%ymm14 # 3b9ec <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,139,107,2,0 // vbroadcastss 0x26b8b(%rip),%ymm14 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,53,79,120,2,0 // vbroadcastss 0x2784f(%rip),%ymm14 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,33,108,2,0 // vbroadcastss 0x26c21(%rip),%ymm14 # 3a44c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,229,120,2,0 // vbroadcastss 0x278e5(%rip),%ymm14 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,23,108,2,0 // vbroadcastss 0x26c17(%rip),%ymm14 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,53,219,120,2,0 // vbroadcastss 0x278db(%rip),%ymm14 # 3b9f4 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,8,108,2,0 // vbroadcastss 0x26c08(%rip),%ymm14 # 3a454 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,204,120,2,0 // vbroadcastss 0x278cc(%rip),%ymm14 # 3b9f8 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,254,107,2,0 // vbroadcastss 0x26bfe(%rip),%ymm14 # 3a458 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,194,120,2,0 // vbroadcastss 0x278c2(%rip),%ymm14 # 3b9fc <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,223,107,2,0 // vbroadcastss 0x26bdf(%rip),%ymm13 # 3a45c <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,163,120,2,0 // vbroadcastss 0x278a3(%rip),%ymm13 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,213,107,2,0 // vbroadcastss 0x26bd5(%rip),%ymm13 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,153,120,2,0 // vbroadcastss 0x27899(%rip),%ymm13 # 3ba04 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
.byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,198,107,2,0 // vbroadcastss 0x26bc6(%rip),%ymm13 # 3a464 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,45,138,120,2,0 // vbroadcastss 0x2788a(%rip),%ymm13 # 3ba08 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,188,107,2,0 // vbroadcastss 0x26bbc(%rip),%ymm13 # 3a468 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,128,120,2,0 // vbroadcastss 0x27880(%rip),%ymm13 # 3ba0c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,173,107,2,0 // vbroadcastss 0x26bad(%rip),%ymm12 # 3a46c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,113,120,2,0 // vbroadcastss 0x27871(%rip),%ymm12 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,211,160 // vblendvps %ymm10,%ymm3,%ymm11,%ymm10
@@ -19012,7 +19651,7 @@ _sk_parametric_a_avx:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
- .byte 196,98,125,24,5,191,106,2,0 // vbroadcastss 0x26abf(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,131,119,2,0 // vbroadcastss 0x27783(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19031,22 +19670,22 @@ _sk_gamma_avx:
.byte 197,252,17,76,36,128 // vmovups %ymm1,-0x80(%rsp)
.byte 197,252,40,224 // vmovaps %ymm0,%ymm4
.byte 197,252,91,204 // vcvtdq2ps %ymm4,%ymm1
- .byte 196,226,125,24,5,10,107,2,0 // vbroadcastss 0x26b0a(%rip),%ymm0 # 3a444 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,226,125,24,5,206,119,2,0 // vbroadcastss 0x277ce(%rip),%ymm0 # 3b9e8 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,124,40,192 // vmovaps %ymm0,%ymm8
.byte 197,124,17,68,36,160 // vmovups %ymm8,-0x60(%rsp)
- .byte 196,98,125,24,13,247,106,2,0 // vbroadcastss 0x26af7(%rip),%ymm9 # 3a448 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,13,187,119,2,0 // vbroadcastss 0x277bb(%rip),%ymm9 # 3b9ec <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,193,92,84,209 // vandps %ymm9,%ymm4,%ymm2
- .byte 196,98,125,24,21,73,106,2,0 // vbroadcastss 0x26a49(%rip),%ymm10 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,13,119,2,0 // vbroadcastss 0x2770d(%rip),%ymm10 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,108,86,210 // vorps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,29,223,106,2,0 // vbroadcastss 0x26adf(%rip),%ymm11 # 3a44c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,29,163,119,2,0 // vbroadcastss 0x277a3(%rip),%ymm11 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,213,106,2,0 // vbroadcastss 0x26ad5(%rip),%ymm12 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,37,153,119,2,0 // vbroadcastss 0x27799(%rip),%ymm12 # 3b9f4 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,193,108,89,220 // vmulps %ymm12,%ymm2,%ymm3
.byte 197,244,92,203 // vsubps %ymm3,%ymm1,%ymm1
- .byte 196,98,125,24,45,199,106,2,0 // vbroadcastss 0x26ac7(%rip),%ymm13 # 3a454 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,139,119,2,0 // vbroadcastss 0x2778b(%rip),%ymm13 # 3b9f8 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,193,108,88,213 // vaddps %ymm13,%ymm2,%ymm2
- .byte 196,98,125,24,53,189,106,2,0 // vbroadcastss 0x26abd(%rip),%ymm14 # 3a458 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,129,119,2,0 // vbroadcastss 0x27781(%rip),%ymm14 # 3b9fc <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 197,140,94,210 // vdivps %ymm2,%ymm14,%ymm2
.byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -19054,19 +19693,19 @@ _sk_gamma_avx:
.byte 197,244,89,206 // vmulps %ymm6,%ymm1,%ymm1
.byte 196,227,125,8,209,1 // vroundps $0x1,%ymm1,%ymm2
.byte 197,244,92,234 // vsubps %ymm2,%ymm1,%ymm5
- .byte 196,98,125,24,61,155,106,2,0 // vbroadcastss 0x26a9b(%rip),%ymm15 # 3a45c <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,61,95,119,2,0 // vbroadcastss 0x2775f(%rip),%ymm15 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,193,116,88,207 // vaddps %ymm15,%ymm1,%ymm1
- .byte 196,226,125,24,61,145,106,2,0 // vbroadcastss 0x26a91(%rip),%ymm7 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,226,125,24,61,85,119,2,0 // vbroadcastss 0x27755(%rip),%ymm7 # 3ba04 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 197,212,89,215 // vmulps %ymm7,%ymm5,%ymm2
.byte 197,244,92,194 // vsubps %ymm2,%ymm1,%ymm0
- .byte 196,226,125,24,29,132,106,2,0 // vbroadcastss 0x26a84(%rip),%ymm3 # 3a464 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,226,125,24,29,72,119,2,0 // vbroadcastss 0x27748(%rip),%ymm3 # 3ba08 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 197,228,92,237 // vsubps %ymm5,%ymm3,%ymm5
- .byte 196,226,125,24,21,123,106,2,0 // vbroadcastss 0x26a7b(%rip),%ymm2 # 3a468 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,226,125,24,21,63,119,2,0 // vbroadcastss 0x2773f(%rip),%ymm2 # 3ba0c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,236,94,237 // vdivps %ymm5,%ymm2,%ymm5
.byte 197,252,88,197 // vaddps %ymm5,%ymm0,%ymm0
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 197,220,194,205,0 // vcmpeqps %ymm5,%ymm4,%ymm1
- .byte 196,226,125,24,37,101,106,2,0 // vbroadcastss 0x26a65(%rip),%ymm4 # 3a46c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,226,125,24,37,41,119,2,0 // vbroadcastss 0x27729(%rip),%ymm4 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,227,125,74,197,16 // vblendvps %ymm1,%ymm5,%ymm0,%ymm0
@@ -19148,23 +19787,23 @@ _sk_gamma_dst_avx:
.byte 197,252,17,76,36,96 // vmovups %ymm1,0x60(%rsp)
.byte 197,252,17,68,36,64 // vmovups %ymm0,0x40(%rsp)
.byte 197,252,91,196 // vcvtdq2ps %ymm4,%ymm0
- .byte 196,226,125,24,29,186,104,2,0 // vbroadcastss 0x268ba(%rip),%ymm3 # 3a444 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,226,125,24,29,126,117,2,0 // vbroadcastss 0x2757e(%rip),%ymm3 # 3b9e8 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,177,104,2,0 // vbroadcastss 0x268b1(%rip),%ymm1 # 3a448 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,226,125,24,13,117,117,2,0 // vbroadcastss 0x27575(%rip),%ymm1 # 3b9ec <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 197,252,17,12,36 // vmovups %ymm1,(%rsp)
.byte 197,220,84,201 // vandps %ymm1,%ymm4,%ymm1
- .byte 196,226,125,24,21,255,103,2,0 // vbroadcastss 0x267ff(%rip),%ymm2 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,21,195,116,2,0 // vbroadcastss 0x274c3(%rip),%ymm2 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,17,84,36,224 // vmovups %ymm2,-0x20(%rsp)
.byte 197,244,86,202 // vorps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,144,104,2,0 // vbroadcastss 0x26890(%rip),%ymm2 # 3a44c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,226,125,24,21,84,117,2,0 // vbroadcastss 0x27554(%rip),%ymm2 # 3b9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp)
.byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0
- .byte 196,98,125,24,37,129,104,2,0 // vbroadcastss 0x26881(%rip),%ymm12 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,37,69,117,2,0 // vbroadcastss 0x27545(%rip),%ymm12 # 3b9f4 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2
.byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0
- .byte 196,98,125,24,45,115,104,2,0 // vbroadcastss 0x26873(%rip),%ymm13 # 3a454 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,55,117,2,0 // vbroadcastss 0x27537(%rip),%ymm13 # 3b9f8 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,193,116,88,205 // vaddps %ymm13,%ymm1,%ymm1
- .byte 196,98,125,24,53,105,104,2,0 // vbroadcastss 0x26869(%rip),%ymm14 # 3a458 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,45,117,2,0 // vbroadcastss 0x2752d(%rip),%ymm14 # 3b9fc <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 197,140,94,201 // vdivps %ymm1,%ymm14,%ymm1
.byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -19172,19 +19811,19 @@ _sk_gamma_dst_avx:
.byte 197,252,89,197 // vmulps %ymm5,%ymm0,%ymm0
.byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 196,98,125,24,61,71,104,2,0 // vbroadcastss 0x26847(%rip),%ymm15 # 3a45c <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,61,11,117,2,0 // vbroadcastss 0x2750b(%rip),%ymm15 # 3ba00 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 196,98,125,24,29,61,104,2,0 // vbroadcastss 0x2683d(%rip),%ymm11 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,1,117,2,0 // vbroadcastss 0x27501(%rip),%ymm11 # 3ba04 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0
- .byte 196,98,125,24,21,47,104,2,0 // vbroadcastss 0x2682f(%rip),%ymm10 # 3a464 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,21,243,116,2,0 // vbroadcastss 0x274f3(%rip),%ymm10 # 3ba08 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 197,172,92,241 // vsubps %ymm1,%ymm10,%ymm6
- .byte 196,98,125,24,13,38,104,2,0 // vbroadcastss 0x26826(%rip),%ymm9 # 3a468 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,13,234,116,2,0 // vbroadcastss 0x274ea(%rip),%ymm9 # 3ba0c <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,180,94,246 // vdivps %ymm6,%ymm9,%ymm6
.byte 197,252,88,198 // vaddps %ymm6,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,220,194,225,0 // vcmpeqps %ymm1,%ymm4,%ymm4
- .byte 196,226,125,24,61,16,104,2,0 // vbroadcastss 0x26810(%rip),%ymm7 # 3a46c <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,226,125,24,61,212,116,2,0 // vbroadcastss 0x274d4(%rip),%ymm7 # 3ba10 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,227,125,74,193,64 // vblendvps %ymm4,%ymm1,%ymm0,%ymm0
@@ -19258,31 +19897,31 @@ HIDDEN _sk_lab_to_xyz_avx
.globl _sk_lab_to_xyz_avx
FUNCTION(_sk_lab_to_xyz_avx)
_sk_lab_to_xyz_avx:
- .byte 196,98,125,24,5,187,102,2,0 // vbroadcastss 0x266bb(%rip),%ymm8 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0x374>
+ .byte 196,98,125,24,5,127,115,2,0 // vbroadcastss 0x2737f(%rip),%ymm8 # 3ba14 <_sk_srcover_bgra_8888_sse2_lowp+0x374>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,21,102,2,0 // vbroadcastss 0x26615(%rip),%ymm8 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,5,217,114,2,0 // vbroadcastss 0x272d9(%rip),%ymm8 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,163,102,2,0 // vbroadcastss 0x266a3(%rip),%ymm9 # 3a474 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
+ .byte 196,98,125,24,13,103,115,2,0 // vbroadcastss 0x27367(%rip),%ymm9 # 3ba18 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
.byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2
- .byte 196,98,125,24,5,143,102,2,0 // vbroadcastss 0x2668f(%rip),%ymm8 # 3a478 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
+ .byte 196,98,125,24,5,83,115,2,0 // vbroadcastss 0x27353(%rip),%ymm8 # 3ba1c <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,133,102,2,0 // vbroadcastss 0x26685(%rip),%ymm8 # 3a47c <_sk_srcover_bgra_8888_sse2_lowp+0x380>
+ .byte 196,98,125,24,5,73,115,2,0 // vbroadcastss 0x27349(%rip),%ymm8 # 3ba20 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,123,102,2,0 // vbroadcastss 0x2667b(%rip),%ymm8 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0x384>
+ .byte 196,98,125,24,5,63,115,2,0 // vbroadcastss 0x2733f(%rip),%ymm8 # 3ba24 <_sk_srcover_bgra_8888_sse2_lowp+0x384>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 197,252,88,201 // vaddps %ymm1,%ymm0,%ymm1
- .byte 196,98,125,24,5,109,102,2,0 // vbroadcastss 0x2666d(%rip),%ymm8 # 3a484 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
+ .byte 196,98,125,24,5,49,115,2,0 // vbroadcastss 0x27331(%rip),%ymm8 # 3ba28 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,252,92,210 // vsubps %ymm2,%ymm0,%ymm2
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,86,102,2,0 // vbroadcastss 0x26656(%rip),%ymm9 # 3a488 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
+ .byte 196,98,125,24,13,26,115,2,0 // vbroadcastss 0x2731a(%rip),%ymm9 # 3ba2c <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
.byte 196,65,52,194,208,1 // vcmpltps %ymm8,%ymm9,%ymm10
- .byte 196,98,125,24,29,75,102,2,0 // vbroadcastss 0x2664b(%rip),%ymm11 # 3a48c <_sk_srcover_bgra_8888_sse2_lowp+0x390>
+ .byte 196,98,125,24,29,15,115,2,0 // vbroadcastss 0x2730f(%rip),%ymm11 # 3ba30 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,65,102,2,0 // vbroadcastss 0x26641(%rip),%ymm12 # 3a490 <_sk_srcover_bgra_8888_sse2_lowp+0x394>
+ .byte 196,98,125,24,37,5,115,2,0 // vbroadcastss 0x27305(%rip),%ymm12 # 3ba34 <_sk_srcover_bgra_8888_sse2_lowp+0x394>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -19297,9 +19936,9 @@ _sk_lab_to_xyz_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 196,226,125,24,5,247,101,2,0 // vbroadcastss 0x265f7(%rip),%ymm0 # 3a494 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
+ .byte 196,226,125,24,5,187,114,2,0 // vbroadcastss 0x272bb(%rip),%ymm0 # 3ba38 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,238,101,2,0 // vbroadcastss 0x265ee(%rip),%ymm8 # 3a498 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
+ .byte 196,98,125,24,5,178,114,2,0 // vbroadcastss 0x272b2(%rip),%ymm8 # 3ba3c <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19313,15 +19952,15 @@ _sk_load_a8_avx:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 13f09 <_sk_load_a8_avx+0x56>
+ .byte 117,68 // jne 147e9 <_sk_load_a8_avx+0x56>
.byte 196,194,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm0
- .byte 197,249,219,5,125,110,2,0 // vpand 0x26e7d(%rip),%xmm0,%xmm0 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,249,219,5,61,123,2,0 // vpand 0x27b3d(%rip),%xmm0,%xmm0 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,47,101,2,0 // vbroadcastss 0x2652f(%rip),%ymm1 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,243,113,2,0 // vbroadcastss 0x271f3(%rip),%ymm1 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -19333,15 +19972,15 @@ _sk_load_a8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,180 // ja 13ecb <_sk_load_a8_avx+0x18>
+ .byte 119,180 // ja 147ab <_sk_load_a8_avx+0x18>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,119,0,0,0 // lea 0x77(%rip),%r9 # 13f98 <_sk_load_a8_avx+0xe5>
+ .byte 76,141,13,119,0,0,0 // lea 0x77(%rip),%r9 # 14878 <_sk_load_a8_avx+0xe5>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,150 // jmp 13ecb <_sk_load_a8_avx+0x18>
+ .byte 235,150 // jmp 147ab <_sk_load_a8_avx+0x18>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -19349,7 +19988,7 @@ _sk_load_a8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,110,255,255,255 // jmpq 13ecb <_sk_load_a8_avx+0x18>
+ .byte 233,110,255,255,255 // jmpq 147ab <_sk_load_a8_avx+0x18>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -19360,7 +19999,7 @@ _sk_load_a8_avx:
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,51,255,255,255 // jmpq 13ecb <_sk_load_a8_avx+0x18>
+ .byte 233,51,255,255,255 // jmpq 147ab <_sk_load_a8_avx+0x18>
.byte 146 // xchg %eax,%edx
.byte 255 // (bad)
.byte 255 // (bad)
@@ -19390,15 +20029,15 @@ _sk_load_a8_dst_avx:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 1400a <_sk_load_a8_dst_avx+0x56>
+ .byte 117,68 // jne 148ea <_sk_load_a8_dst_avx+0x56>
.byte 196,194,121,48,36,16 // vpmovzxbw (%r8,%rdx,1),%xmm4
- .byte 197,217,219,37,124,109,2,0 // vpand 0x26d7c(%rip),%xmm4,%xmm4 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,217,219,37,60,122,2,0 // vpand 0x27a3c(%rip),%xmm4,%xmm4 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,46,100,2,0 // vbroadcastss 0x2642e(%rip),%ymm5 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,242,112,2,0 // vbroadcastss 0x270f2(%rip),%ymm5 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -19410,15 +20049,15 @@ _sk_load_a8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,180 // ja 13fcc <_sk_load_a8_dst_avx+0x18>
+ .byte 119,180 // ja 148ac <_sk_load_a8_dst_avx+0x18>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,122,0,0,0 // lea 0x7a(%rip),%r9 # 1409c <_sk_load_a8_dst_avx+0xe8>
+ .byte 76,141,13,122,0,0,0 // lea 0x7a(%rip),%r9 # 1497c <_sk_load_a8_dst_avx+0xe8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,150 // jmp 13fcc <_sk_load_a8_dst_avx+0x18>
+ .byte 235,150 // jmp 148ac <_sk_load_a8_dst_avx+0x18>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -19426,7 +20065,7 @@ _sk_load_a8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,110,255,255,255 // jmpq 13fcc <_sk_load_a8_dst_avx+0x18>
+ .byte 233,110,255,255,255 // jmpq 148ac <_sk_load_a8_dst_avx+0x18>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -19437,7 +20076,7 @@ _sk_load_a8_dst_avx:
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,51,255,255,255 // jmpq 13fcc <_sk_load_a8_dst_avx+0x18>
+ .byte 233,51,255,255,255 // jmpq 148ac <_sk_load_a8_dst_avx+0x18>
.byte 15,31,0 // nopl (%rax)
.byte 143 // (bad)
.byte 255 // (bad)
@@ -19528,7 +20167,7 @@ _sk_gather_a8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,58,98,2,0 // vbroadcastss 0x2623a(%rip),%ymm1 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,254,110,2,0 // vbroadcastss 0x26efe(%rip),%ymm1 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -19551,16 +20190,16 @@ _sk_store_a8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,135,97,2,0 // vbroadcastss 0x26187(%rip),%ymm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,75,110,2,0 // vbroadcastss 0x26e4b(%rip),%ymm9 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,165,97,2,0 // vbroadcastss 0x261a5(%rip),%ymm9 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,105,110,2,0 // vbroadcastss 0x26e69(%rip),%ymm9 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1425b <_sk_store_a8_avx+0x55>
+ .byte 117,10 // jne 14b3b <_sk_store_a8_avx+0x55>
.byte 196,65,121,214,4,16 // vmovq %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19568,25 +20207,25 @@ _sk_store_a8_avx:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 14257 <_sk_store_a8_avx+0x51>
+ .byte 119,242 // ja 14b37 <_sk_store_a8_avx+0x51>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,88,0,0,0 // lea 0x58(%rip),%r9 # 142cc <_sk_store_a8_avx+0xc6>
+ .byte 76,141,13,88,0,0,0 // lea 0x58(%rip),%r9 # 14bac <_sk_store_a8_avx+0xc6>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,20,4,16,0 // vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,209 // jmp 14257 <_sk_store_a8_avx+0x51>
+ .byte 235,209 // jmp 14b37 <_sk_store_a8_avx+0x51>
.byte 196,67,121,20,68,16,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%rdx,1)
- .byte 196,98,57,0,5,201,106,2,0 // vpshufb 0x26ac9(%rip),%xmm8,%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
+ .byte 196,98,57,0,5,137,119,2,0 // vpshufb 0x27789(%rip),%xmm8,%xmm8 # 3c300 <_sk_srcover_bgra_8888_sse2_lowp+0xc60>
.byte 196,67,121,21,4,16,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,183 // jmp 14257 <_sk_store_a8_avx+0x51>
+ .byte 235,183 // jmp 14b37 <_sk_store_a8_avx+0x51>
.byte 196,67,121,20,68,16,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%rdx,1)
.byte 196,67,121,20,68,16,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%rdx,1)
.byte 196,67,121,20,68,16,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%rdx,1)
- .byte 196,98,57,0,5,175,106,2,0 // vpshufb 0x26aaf(%rip),%xmm8,%xmm8 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xc74>
+ .byte 196,98,57,0,5,111,119,2,0 // vpshufb 0x2776f(%rip),%xmm8,%xmm8 # 3c310 <_sk_srcover_bgra_8888_sse2_lowp+0xc70>
.byte 196,65,121,126,4,16 // vmovd %xmm8,(%r8,%rdx,1)
- .byte 235,142 // jmp 14257 <_sk_store_a8_avx+0x51>
+ .byte 235,142 // jmp 14b37 <_sk_store_a8_avx+0x51>
.byte 15,31,0 // nopl (%rax)
.byte 177,255 // mov $0xff,%cl
.byte 255 // (bad)
@@ -19617,18 +20256,18 @@ _sk_load_g8_avx:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne 14343 <_sk_load_g8_avx+0x5b>
+ .byte 117,73 // jne 14c23 <_sk_load_g8_avx+0x5b>
.byte 196,194,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm0
- .byte 197,249,219,5,72,106,2,0 // vpand 0x26a48(%rip),%xmm0,%xmm0 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,249,219,5,8,119,2,0 // vpand 0x27708(%rip),%xmm0,%xmm0 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,250,96,2,0 // vbroadcastss 0x260fa(%rip),%ymm1 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,190,109,2,0 // vbroadcastss 0x26dbe(%rip),%ymm1 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,115,96,2,0 // vbroadcastss 0x26073(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,55,109,2,0 // vbroadcastss 0x26d37(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -19637,15 +20276,15 @@ _sk_load_g8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,175 // ja 14300 <_sk_load_g8_avx+0x18>
+ .byte 119,175 // ja 14be0 <_sk_load_g8_avx+0x18>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,121,0,0,0 // lea 0x79(%rip),%r9 # 143d4 <_sk_load_g8_avx+0xec>
+ .byte 76,141,13,121,0,0,0 // lea 0x79(%rip),%r9 # 14cb4 <_sk_load_g8_avx+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,145 // jmp 14300 <_sk_load_g8_avx+0x18>
+ .byte 235,145 // jmp 14be0 <_sk_load_g8_avx+0x18>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -19653,7 +20292,7 @@ _sk_load_g8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,105,255,255,255 // jmpq 14300 <_sk_load_g8_avx+0x18>
+ .byte 233,105,255,255,255 // jmpq 14be0 <_sk_load_g8_avx+0x18>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -19664,7 +20303,7 @@ _sk_load_g8_avx:
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,46,255,255,255 // jmpq 14300 <_sk_load_g8_avx+0x18>
+ .byte 233,46,255,255,255 // jmpq 14be0 <_sk_load_g8_avx+0x18>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -19673,7 +20312,7 @@ _sk_load_g8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde0143e4 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfda2e8>
+ .byte 232,255,255,255,221 // callq ffffffffde014cc4 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd9624>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -19693,18 +20332,18 @@ _sk_load_g8_dst_avx:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne 1444b <_sk_load_g8_dst_avx+0x5b>
+ .byte 117,73 // jne 14d2b <_sk_load_g8_dst_avx+0x5b>
.byte 196,194,121,48,36,16 // vpmovzxbw (%r8,%rdx,1),%xmm4
- .byte 197,217,219,37,64,105,2,0 // vpand 0x26940(%rip),%xmm4,%xmm4 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 197,217,219,37,0,118,2,0 // vpand 0x27600(%rip),%xmm4,%xmm4 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,242,95,2,0 // vbroadcastss 0x25ff2(%rip),%ymm5 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,182,108,2,0 // vbroadcastss 0x26cb6(%rip),%ymm5 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,107,95,2,0 // vbroadcastss 0x25f6b(%rip),%ymm7 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,47,108,2,0 // vbroadcastss 0x26c2f(%rip),%ymm7 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -19713,15 +20352,15 @@ _sk_load_g8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,175 // ja 14408 <_sk_load_g8_dst_avx+0x18>
+ .byte 119,175 // ja 14ce8 <_sk_load_g8_dst_avx+0x18>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,121,0,0,0 // lea 0x79(%rip),%r9 # 144dc <_sk_load_g8_dst_avx+0xec>
+ .byte 76,141,13,121,0,0,0 // lea 0x79(%rip),%r9 # 14dbc <_sk_load_g8_dst_avx+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,145 // jmp 14408 <_sk_load_g8_dst_avx+0x18>
+ .byte 235,145 // jmp 14ce8 <_sk_load_g8_dst_avx+0x18>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -19729,7 +20368,7 @@ _sk_load_g8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,105,255,255,255 // jmpq 14408 <_sk_load_g8_dst_avx+0x18>
+ .byte 233,105,255,255,255 // jmpq 14ce8 <_sk_load_g8_dst_avx+0x18>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -19740,7 +20379,7 @@ _sk_load_g8_dst_avx:
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,46,255,255,255 // jmpq 14408 <_sk_load_g8_dst_avx+0x18>
+ .byte 233,46,255,255,255 // jmpq 14ce8 <_sk_load_g8_dst_avx+0x18>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -19749,7 +20388,7 @@ _sk_load_g8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde0144ec <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfda3f0>
+ .byte 232,255,255,255,221 // callq ffffffffde014dcc <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd972c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -19829,10 +20468,10 @@ _sk_gather_g8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,250,93,2,0 // vbroadcastss 0x25dfa(%rip),%ymm1 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,190,106,2,0 // vbroadcastss 0x26abe(%rip),%ymm1 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,115,93,2,0 // vbroadcastss 0x25d73(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,55,106,2,0 // vbroadcastss 0x26a37(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -19852,56 +20491,56 @@ _sk_load_565_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne 146e6 <_sk_load_565_avx+0x9b>
+ .byte 15,133,130,0,0,0 // jne 14fc6 <_sk_load_565_avx+0x9b>
.byte 196,193,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm0
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,160,93,2,0 // vbroadcastss 0x25da0(%rip),%ymm0 # 3a428 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,24,5,100,106,2,0 // vbroadcastss 0x26a64(%rip),%ymm0 # 3b9cc <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,147,93,2,0 // vbroadcastss 0x25d93(%rip),%ymm1 # 3a42c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,87,106,2,0 // vbroadcastss 0x26a57(%rip),%ymm1 # 3b9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,138,93,2,0 // vbroadcastss 0x25d8a(%rip),%ymm1 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,24,13,78,106,2,0 // vbroadcastss 0x26a4e(%rip),%ymm1 # 3b9d4 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,125,93,2,0 // vbroadcastss 0x25d7d(%rip),%ymm3 # 3a434 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,65,106,2,0 // vbroadcastss 0x26a41(%rip),%ymm3 # 3b9d8 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,116,93,2,0 // vbroadcastss 0x25d74(%rip),%ymm3 # 3a438 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,24,29,56,106,2,0 // vbroadcastss 0x26a38(%rip),%ymm3 # 3b9dc <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,103,93,2,0 // vbroadcastss 0x25d67(%rip),%ymm3 # 3a43c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,43,106,2,0 // vbroadcastss 0x26a2b(%rip),%ymm3 # 3b9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,200,92,2,0 // vbroadcastss 0x25cc8(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,140,105,2,0 // vbroadcastss 0x2698c(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,7 // and $0x7,%al
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,114,255,255,255 // ja 1466a <_sk_load_565_avx+0x1f>
+ .byte 15,135,114,255,255,255 // ja 14f4a <_sk_load_565_avx+0x1f>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 14764 <_sk_load_565_avx+0x119>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 15044 <_sk_load_565_avx+0x119>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,81,255,255,255 // jmpq 1466a <_sk_load_565_avx+0x1f>
+ .byte 233,81,255,255,255 // jmpq 14f4a <_sk_load_565_avx+0x1f>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,52,255,255,255 // jmpq 1466a <_sk_load_565_avx+0x1f>
+ .byte 233,52,255,255,255 // jmpq 14f4a <_sk_load_565_avx+0x1f>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,193,121,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,193,121,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,7,255,255,255 // jmpq 1466a <_sk_load_565_avx+0x1f>
+ .byte 233,7,255,255,255 // jmpq 14f4a <_sk_load_565_avx+0x1f>
.byte 144 // nop
.byte 167 // cmpsl %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
@@ -19933,56 +20572,56 @@ _sk_load_565_dst_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne 1481b <_sk_load_565_dst_avx+0x9b>
+ .byte 15,133,130,0,0,0 // jne 150fb <_sk_load_565_dst_avx+0x9b>
.byte 196,193,122,111,36,80 // vmovdqu (%r8,%rdx,2),%xmm4
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,244,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm6
- .byte 196,226,125,24,37,107,92,2,0 // vbroadcastss 0x25c6b(%rip),%ymm4 # 3a428 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,24,37,47,105,2,0 // vbroadcastss 0x2692f(%rip),%ymm4 # 3b9cc <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,204,84,228 // vandps %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,94,92,2,0 // vbroadcastss 0x25c5e(%rip),%ymm5 # 3a42c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,45,34,105,2,0 // vbroadcastss 0x26922(%rip),%ymm5 # 3b9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,85,92,2,0 // vbroadcastss 0x25c55(%rip),%ymm5 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,24,45,25,105,2,0 // vbroadcastss 0x26919(%rip),%ymm5 # 3b9d4 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,204,84,237 // vandps %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,72,92,2,0 // vbroadcastss 0x25c48(%rip),%ymm7 # 3a434 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,61,12,105,2,0 // vbroadcastss 0x2690c(%rip),%ymm7 # 3b9d8 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,24,61,63,92,2,0 // vbroadcastss 0x25c3f(%rip),%ymm7 # 3a438 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,24,61,3,105,2,0 // vbroadcastss 0x26903(%rip),%ymm7 # 3b9dc <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,204,84,247 // vandps %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,50,92,2,0 // vbroadcastss 0x25c32(%rip),%ymm7 # 3a43c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,61,246,104,2,0 // vbroadcastss 0x268f6(%rip),%ymm7 # 3b9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,147,91,2,0 // vbroadcastss 0x25b93(%rip),%ymm7 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,87,104,2,0 // vbroadcastss 0x26857(%rip),%ymm7 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,7 // and $0x7,%al
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,114,255,255,255 // ja 1479f <_sk_load_565_dst_avx+0x1f>
+ .byte 15,135,114,255,255,255 // ja 1507f <_sk_load_565_dst_avx+0x1f>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,97,0,0,0 // lea 0x61(%rip),%r9 # 14898 <_sk_load_565_dst_avx+0x118>
+ .byte 76,141,13,97,0,0,0 // lea 0x61(%rip),%r9 # 15178 <_sk_load_565_dst_avx+0x118>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,81,255,255,255 // jmpq 1479f <_sk_load_565_dst_avx+0x1f>
+ .byte 233,81,255,255,255 // jmpq 1507f <_sk_load_565_dst_avx+0x1f>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,52,255,255,255 // jmpq 1479f <_sk_load_565_dst_avx+0x1f>
+ .byte 233,52,255,255,255 // jmpq 1507f <_sk_load_565_dst_avx+0x1f>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,193,89,196,100,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,193,89,196,100,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,7,255,255,255 // jmpq 1479f <_sk_load_565_dst_avx+0x1f>
+ .byte 233,7,255,255,255 // jmpq 1507f <_sk_load_565_dst_avx+0x1f>
.byte 168,255 // test $0xff,%al
.byte 255 // (bad)
.byte 255,194 // inc %edx
@@ -20071,23 +20710,23 @@ _sk_gather_565_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,69,90,2,0 // vbroadcastss 0x25a45(%rip),%ymm0 # 3a428 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,24,5,9,103,2,0 // vbroadcastss 0x26709(%rip),%ymm0 # 3b9cc <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,56,90,2,0 // vbroadcastss 0x25a38(%rip),%ymm1 # 3a42c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,252,102,2,0 // vbroadcastss 0x266fc(%rip),%ymm1 # 3b9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,47,90,2,0 // vbroadcastss 0x25a2f(%rip),%ymm1 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,24,13,243,102,2,0 // vbroadcastss 0x266f3(%rip),%ymm1 # 3b9d4 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,34,90,2,0 // vbroadcastss 0x25a22(%rip),%ymm3 # 3a434 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,230,102,2,0 // vbroadcastss 0x266e6(%rip),%ymm3 # 3b9d8 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,25,90,2,0 // vbroadcastss 0x25a19(%rip),%ymm3 # 3a438 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,24,29,221,102,2,0 // vbroadcastss 0x266dd(%rip),%ymm3 # 3b9dc <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,12,90,2,0 // vbroadcastss 0x25a0c(%rip),%ymm3 # 3a43c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,208,102,2,0 // vbroadcastss 0x266d0(%rip),%ymm3 # 3b9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,109,89,2,0 // vbroadcastss 0x2596d(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,49,102,2,0 // vbroadcastss 0x26631(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -20106,9 +20745,9 @@ _sk_store_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,65,89,2,0 // vbroadcastss 0x25941(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,5,102,2,0 // vbroadcastss 0x26605(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,35,90,2,0 // vbroadcastss 0x25a23(%rip),%ymm11 # 3a49c <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
+ .byte 196,98,125,24,29,231,102,2,0 // vbroadcastss 0x266e7(%rip),%ymm11 # 3ba40 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,25,114,241,11 // vpslld $0xb,%xmm9,%xmm12
@@ -20117,7 +20756,7 @@ _sk_store_565_avx:
.byte 196,67,29,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm12,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
.byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,98,125,24,45,243,89,2,0 // vbroadcastss 0x259f3(%rip),%ymm13 # 3a4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
+ .byte 196,98,125,24,45,183,102,2,0 // vbroadcastss 0x266b7(%rip),%ymm13 # 3ba44 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
.byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
.byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
.byte 196,193,17,114,244,5 // vpslld $0x5,%xmm12,%xmm13
@@ -20133,7 +20772,7 @@ _sk_store_565_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 14b06 <_sk_store_565_avx+0xbd>
+ .byte 117,10 // jne 153e6 <_sk_store_565_avx+0xbd>
.byte 196,65,122,127,4,80 // vmovdqu %xmm8,(%r8,%rdx,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20141,22 +20780,22 @@ _sk_store_565_avx:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 14b02 <_sk_store_565_avx+0xb9>
+ .byte 119,242 // ja 153e2 <_sk_store_565_avx+0xb9>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,66,0,0,0 // lea 0x42(%rip),%r9 # 14b5c <_sk_store_565_avx+0x113>
+ .byte 76,141,13,66,0,0,0 // lea 0x42(%rip),%r9 # 1543c <_sk_store_565_avx+0x113>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,214 // jmp 14b02 <_sk_store_565_avx+0xb9>
+ .byte 235,214 // jmp 153e2 <_sk_store_565_avx+0xb9>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 235,198 // jmp 14b02 <_sk_store_565_avx+0xb9>
+ .byte 235,198 // jmp 153e2 <_sk_store_565_avx+0xb9>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,166 // jmp 14b02 <_sk_store_565_avx+0xb9>
+ .byte 235,166 // jmp 153e2 <_sk_store_565_avx+0xb9>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -20174,7 +20813,7 @@ _sk_store_565_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe1014b74 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fdaa78>
+ .byte 232,255,255,255,224 // callq ffffffffe1015454 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fd9db4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -20189,31 +20828,31 @@ _sk_load_4444_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne 14c2b <_sk_load_4444_avx+0xb3>
+ .byte 15,133,154,0,0,0 // jne 1550b <_sk_load_4444_avx+0xb3>
.byte 196,193,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm0
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,239,88,2,0 // vbroadcastss 0x258ef(%rip),%ymm0 # 3a4a4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,24,5,179,101,2,0 // vbroadcastss 0x265b3(%rip),%ymm0 # 3ba48 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,226,88,2,0 // vbroadcastss 0x258e2(%rip),%ymm1 # 3a4a8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,166,101,2,0 // vbroadcastss 0x265a6(%rip),%ymm1 # 3ba4c <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,217,88,2,0 // vbroadcastss 0x258d9(%rip),%ymm1 # 3a4ac <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,24,13,157,101,2,0 // vbroadcastss 0x2659d(%rip),%ymm1 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,204,88,2,0 // vbroadcastss 0x258cc(%rip),%ymm2 # 3a4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,144,101,2,0 // vbroadcastss 0x26590(%rip),%ymm2 # 3ba54 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,195,88,2,0 // vbroadcastss 0x258c3(%rip),%ymm2 # 3a4b4 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,24,21,135,101,2,0 // vbroadcastss 0x26587(%rip),%ymm2 # 3ba58 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,182,88,2,0 // vbroadcastss 0x258b6(%rip),%ymm8 # 3a4b8 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,122,101,2,0 // vbroadcastss 0x2657a(%rip),%ymm8 # 3ba5c <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,172,88,2,0 // vbroadcastss 0x258ac(%rip),%ymm8 # 3a4bc <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,24,5,112,101,2,0 // vbroadcastss 0x26570(%rip),%ymm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,158,88,2,0 // vbroadcastss 0x2589e(%rip),%ymm8 # 3a4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,98,101,2,0 // vbroadcastss 0x26562(%rip),%ymm8 # 3ba64 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20222,27 +20861,27 @@ _sk_load_4444_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,90,255,255,255 // ja 14b97 <_sk_load_4444_avx+0x1f>
+ .byte 15,135,90,255,255,255 // ja 15477 <_sk_load_4444_avx+0x1f>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,97,0,0,0 // lea 0x61(%rip),%r9 # 14ca8 <_sk_load_4444_avx+0x130>
+ .byte 76,141,13,97,0,0,0 // lea 0x61(%rip),%r9 # 15588 <_sk_load_4444_avx+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,57,255,255,255 // jmpq 14b97 <_sk_load_4444_avx+0x1f>
+ .byte 233,57,255,255,255 // jmpq 15477 <_sk_load_4444_avx+0x1f>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,28,255,255,255 // jmpq 14b97 <_sk_load_4444_avx+0x1f>
+ .byte 233,28,255,255,255 // jmpq 15477 <_sk_load_4444_avx+0x1f>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,193,121,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,193,121,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm0,%xmm0
.byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,239,254,255,255 // jmpq 14b97 <_sk_load_4444_avx+0x1f>
+ .byte 233,239,254,255,255 // jmpq 15477 <_sk_load_4444_avx+0x1f>
.byte 168,255 // test $0xff,%al
.byte 255 // (bad)
.byte 255,194 // inc %edx
@@ -20272,31 +20911,31 @@ _sk_load_4444_dst_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne 14d77 <_sk_load_4444_dst_avx+0xb3>
+ .byte 15,133,154,0,0,0 // jne 15657 <_sk_load_4444_dst_avx+0xb3>
.byte 196,193,122,111,36,80 // vmovdqu (%r8,%rdx,2),%xmm4
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,252,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm7
- .byte 196,226,125,24,37,163,87,2,0 // vbroadcastss 0x257a3(%rip),%ymm4 # 3a4a4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,24,37,103,100,2,0 // vbroadcastss 0x26467(%rip),%ymm4 # 3ba48 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,196,84,228 // vandps %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,150,87,2,0 // vbroadcastss 0x25796(%rip),%ymm5 # 3a4a8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,45,90,100,2,0 // vbroadcastss 0x2645a(%rip),%ymm5 # 3ba4c <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,141,87,2,0 // vbroadcastss 0x2578d(%rip),%ymm5 # 3a4ac <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,24,45,81,100,2,0 // vbroadcastss 0x26451(%rip),%ymm5 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,196,84,237 // vandps %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,128,87,2,0 // vbroadcastss 0x25780(%rip),%ymm6 # 3a4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,53,68,100,2,0 // vbroadcastss 0x26444(%rip),%ymm6 # 3ba54 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,24,53,119,87,2,0 // vbroadcastss 0x25777(%rip),%ymm6 # 3a4b4 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,24,53,59,100,2,0 // vbroadcastss 0x2643b(%rip),%ymm6 # 3ba58 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,196,84,246 // vandps %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,106,87,2,0 // vbroadcastss 0x2576a(%rip),%ymm8 # 3a4b8 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,46,100,2,0 // vbroadcastss 0x2642e(%rip),%ymm8 # 3ba5c <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,24,5,96,87,2,0 // vbroadcastss 0x25760(%rip),%ymm8 # 3a4bc <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,24,5,36,100,2,0 // vbroadcastss 0x26424(%rip),%ymm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,68,84,248 // vandps %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,82,87,2,0 // vbroadcastss 0x25752(%rip),%ymm8 # 3a4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,22,100,2,0 // vbroadcastss 0x26416(%rip),%ymm8 # 3ba64 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20305,27 +20944,27 @@ _sk_load_4444_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,90,255,255,255 // ja 14ce3 <_sk_load_4444_dst_avx+0x1f>
+ .byte 15,135,90,255,255,255 // ja 155c3 <_sk_load_4444_dst_avx+0x1f>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,97,0,0,0 // lea 0x61(%rip),%r9 # 14df4 <_sk_load_4444_dst_avx+0x130>
+ .byte 76,141,13,97,0,0,0 // lea 0x61(%rip),%r9 # 156d4 <_sk_load_4444_dst_avx+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,57,255,255,255 // jmpq 14ce3 <_sk_load_4444_dst_avx+0x1f>
+ .byte 233,57,255,255,255 // jmpq 155c3 <_sk_load_4444_dst_avx+0x1f>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,28,255,255,255 // jmpq 14ce3 <_sk_load_4444_dst_avx+0x1f>
+ .byte 233,28,255,255,255 // jmpq 155c3 <_sk_load_4444_dst_avx+0x1f>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,100,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,193,89,196,100,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,193,89,196,100,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm4,%xmm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,239,254,255,255 // jmpq 14ce3 <_sk_load_4444_dst_avx+0x1f>
+ .byte 233,239,254,255,255 // jmpq 155c3 <_sk_load_4444_dst_avx+0x1f>
.byte 168,255 // test $0xff,%al
.byte 255 // (bad)
.byte 255,194 // inc %edx
@@ -20414,25 +21053,25 @@ _sk_gather_4444_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,101,85,2,0 // vbroadcastss 0x25565(%rip),%ymm0 # 3a4a4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,24,5,41,98,2,0 // vbroadcastss 0x26229(%rip),%ymm0 # 3ba48 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,88,85,2,0 // vbroadcastss 0x25558(%rip),%ymm1 # 3a4a8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,28,98,2,0 // vbroadcastss 0x2621c(%rip),%ymm1 # 3ba4c <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,79,85,2,0 // vbroadcastss 0x2554f(%rip),%ymm1 # 3a4ac <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,24,13,19,98,2,0 // vbroadcastss 0x26213(%rip),%ymm1 # 3ba50 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,66,85,2,0 // vbroadcastss 0x25542(%rip),%ymm2 # 3a4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,6,98,2,0 // vbroadcastss 0x26206(%rip),%ymm2 # 3ba54 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,57,85,2,0 // vbroadcastss 0x25539(%rip),%ymm2 # 3a4b4 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,24,21,253,97,2,0 // vbroadcastss 0x261fd(%rip),%ymm2 # 3ba58 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,44,85,2,0 // vbroadcastss 0x2552c(%rip),%ymm8 # 3a4b8 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,240,97,2,0 // vbroadcastss 0x261f0(%rip),%ymm8 # 3ba5c <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,34,85,2,0 // vbroadcastss 0x25522(%rip),%ymm8 # 3a4bc <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,24,5,230,97,2,0 // vbroadcastss 0x261e6(%rip),%ymm8 # 3ba60 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,20,85,2,0 // vbroadcastss 0x25514(%rip),%ymm8 # 3a4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,216,97,2,0 // vbroadcastss 0x261d8(%rip),%ymm8 # 3ba64 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -20453,9 +21092,9 @@ _sk_store_4444_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,208 // vmaxps %ymm0,%ymm8,%ymm10
- .byte 196,98,125,24,13,205,83,2,0 // vbroadcastss 0x253cd(%rip),%ymm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,145,96,2,0 // vbroadcastss 0x26091(%rip),%ymm9 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,44,93,209 // vminps %ymm9,%ymm10,%ymm10
- .byte 196,98,125,24,29,215,84,2,0 // vbroadcastss 0x254d7(%rip),%ymm11 # 3a4c4 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
+ .byte 196,98,125,24,29,155,97,2,0 // vbroadcastss 0x2619b(%rip),%ymm11 # 3ba68 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,25,114,242,12 // vpslld $0xc,%xmm10,%xmm12
@@ -20488,7 +21127,7 @@ _sk_store_4444_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 150a1 <_sk_store_4444_avx+0xe4>
+ .byte 117,10 // jne 15981 <_sk_store_4444_avx+0xe4>
.byte 196,65,122,127,4,80 // vmovdqu %xmm8,(%r8,%rdx,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20496,22 +21135,22 @@ _sk_store_4444_avx:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 1509d <_sk_store_4444_avx+0xe0>
+ .byte 119,242 // ja 1597d <_sk_store_4444_avx+0xe0>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,67,0,0,0 // lea 0x43(%rip),%r9 # 150f8 <_sk_store_4444_avx+0x13b>
+ .byte 76,141,13,67,0,0,0 // lea 0x43(%rip),%r9 # 159d8 <_sk_store_4444_avx+0x13b>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,214 // jmp 1509d <_sk_store_4444_avx+0xe0>
+ .byte 235,214 // jmp 1597d <_sk_store_4444_avx+0xe0>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 235,198 // jmp 1509d <_sk_store_4444_avx+0xe0>
+ .byte 235,198 // jmp 1597d <_sk_store_4444_avx+0xe0>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,166 // jmp 1509d <_sk_store_4444_avx+0xe0>
+ .byte 235,166 // jmp 1597d <_sk_store_4444_avx+0xe0>
.byte 144 // nop
.byte 198 // (bad)
.byte 255 // (bad)
@@ -20547,12 +21186,12 @@ _sk_load_8888_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 151b5 <_sk_load_8888_avx+0xa1>
+ .byte 15,133,135,0,0,0 // jne 15a95 <_sk_load_8888_avx+0xa1>
.byte 196,65,125,16,12,144 // vmovupd (%r8,%rdx,4),%ymm9
- .byte 197,125,40,21,164,88,2,0 // vmovapd 0x258a4(%rip),%ymm10 # 3a9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x8e4>
+ .byte 197,125,40,21,100,101,2,0 // vmovapd 0x26564(%rip),%ymm10 # 3bf80 <_sk_srcover_bgra_8888_sse2_lowp+0x8e0>
.byte 196,193,53,84,194 // vandpd %ymm10,%ymm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,214,82,2,0 // vbroadcastss 0x252d6(%rip),%ymm8 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,154,95,2,0 // vbroadcastss 0x25f9a(%rip),%ymm8 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -20579,21 +21218,21 @@ _sk_load_8888_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,108,255,255,255 // ja 15134 <_sk_load_8888_avx+0x20>
+ .byte 15,135,108,255,255,255 // ja 15a14 <_sk_load_8888_avx+0x20>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 15264 <_sk_load_8888_avx+0x150>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 15b44 <_sk_load_8888_avx+0x150>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,122,16,12,144 // vmovss (%r8,%rdx,4),%xmm9
- .byte 233,78,255,255,255 // jmpq 15134 <_sk_load_8888_avx+0x20>
+ .byte 233,78,255,255,255 // jmpq 15a14 <_sk_load_8888_avx+0x20>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,193,123,16,4,144 // vmovsd (%r8,%rdx,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,39,255,255,255 // jmpq 15134 <_sk_load_8888_avx+0x20>
+ .byte 233,39,255,255,255 // jmpq 15a14 <_sk_load_8888_avx+0x20>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -20607,9 +21246,9 @@ _sk_load_8888_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,193,121,16,4,144 // vmovupd (%r8,%rdx,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,210,254,255,255 // jmpq 15134 <_sk_load_8888_avx+0x20>
+ .byte 233,210,254,255,255 // jmpq 15a14 <_sk_load_8888_avx+0x20>
.byte 102,144 // xchg %ax,%ax
- .byte 119,255 // ja 15265 <_sk_load_8888_avx+0x151>
+ .byte 119,255 // ja 15b45 <_sk_load_8888_avx+0x151>
.byte 255 // (bad)
.byte 255,152,255,255,255,130 // lcall *-0x7d000001(%rax)
.byte 255 // (bad)
@@ -20640,12 +21279,12 @@ _sk_load_8888_dst_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 15321 <_sk_load_8888_dst_avx+0xa1>
+ .byte 15,133,135,0,0,0 // jne 15c01 <_sk_load_8888_dst_avx+0xa1>
.byte 196,65,125,16,12,144 // vmovupd (%r8,%rdx,4),%ymm9
- .byte 197,125,40,21,88,87,2,0 // vmovapd 0x25758(%rip),%ymm10 # 3aa00 <_sk_srcover_bgra_8888_sse2_lowp+0x904>
+ .byte 197,125,40,21,24,100,2,0 // vmovapd 0x26418(%rip),%ymm10 # 3bfa0 <_sk_srcover_bgra_8888_sse2_lowp+0x900>
.byte 196,193,53,84,226 // vandpd %ymm10,%ymm9,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,106,81,2,0 // vbroadcastss 0x2516a(%rip),%ymm8 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,46,94,2,0 // vbroadcastss 0x25e2e(%rip),%ymm8 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -20672,21 +21311,21 @@ _sk_load_8888_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,108,255,255,255 // ja 152a0 <_sk_load_8888_dst_avx+0x20>
+ .byte 15,135,108,255,255,255 // ja 15b80 <_sk_load_8888_dst_avx+0x20>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 153d0 <_sk_load_8888_dst_avx+0x150>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 15cb0 <_sk_load_8888_dst_avx+0x150>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,122,16,12,144 // vmovss (%r8,%rdx,4),%xmm9
- .byte 233,78,255,255,255 // jmpq 152a0 <_sk_load_8888_dst_avx+0x20>
+ .byte 233,78,255,255,255 // jmpq 15b80 <_sk_load_8888_dst_avx+0x20>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,193,123,16,36,144 // vmovsd (%r8,%rdx,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,39,255,255,255 // jmpq 152a0 <_sk_load_8888_dst_avx+0x20>
+ .byte 233,39,255,255,255 // jmpq 15b80 <_sk_load_8888_dst_avx+0x20>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -20700,9 +21339,9 @@ _sk_load_8888_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,193,121,16,36,144 // vmovupd (%r8,%rdx,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,210,254,255,255 // jmpq 152a0 <_sk_load_8888_dst_avx+0x20>
+ .byte 233,210,254,255,255 // jmpq 15b80 <_sk_load_8888_dst_avx+0x20>
.byte 102,144 // xchg %ax,%ax
- .byte 119,255 // ja 153d1 <_sk_load_8888_dst_avx+0x151>
+ .byte 119,255 // ja 15cb1 <_sk_load_8888_dst_avx+0x151>
.byte 255 // (bad)
.byte 255,152,255,255,255,130 // lcall *-0x7d000001(%rax)
.byte 255 // (bad)
@@ -20780,10 +21419,10 @@ _sk_gather_8888_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,21,48,85,2,0 // vmovaps 0x25530(%rip),%ymm10 # 3aa20 <_sk_srcover_bgra_8888_sse2_lowp+0x924>
+ .byte 197,124,40,21,240,97,2,0 // vmovaps 0x261f0(%rip),%ymm10 # 3bfc0 <_sk_srcover_bgra_8888_sse2_lowp+0x920>
.byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,34,79,2,0 // vbroadcastss 0x24f22(%rip),%ymm9 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,230,91,2,0 // vbroadcastss 0x25be6(%rip),%ymm9 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1
.byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2
@@ -20820,9 +21459,9 @@ _sk_store_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,31,78,2,0 // vbroadcastss 0x24e1f(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,227,90,2,0 // vbroadcastss 0x25ae3(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,61,78,2,0 // vbroadcastss 0x24e3d(%rip),%ymm11 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,1,91,2,0 // vbroadcastss 0x25b01(%rip),%ymm11 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
@@ -20853,7 +21492,7 @@ _sk_store_8888_avx:
.byte 196,65,29,86,192 // vorpd %ymm8,%ymm12,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 15644 <_sk_store_8888_avx+0xda>
+ .byte 117,10 // jne 15f24 <_sk_store_8888_avx+0xda>
.byte 196,65,124,17,4,144 // vmovups %ymm8,(%r8,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20861,17 +21500,17 @@ _sk_store_8888_avx:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 15640 <_sk_store_8888_avx+0xd6>
+ .byte 119,242 // ja 15f20 <_sk_store_8888_avx+0xd6>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,84,0,0,0 // lea 0x54(%rip),%r9 # 156ac <_sk_store_8888_avx+0x142>
+ .byte 76,141,13,84,0,0,0 // lea 0x54(%rip),%r9 # 15f8c <_sk_store_8888_avx+0x142>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp 15640 <_sk_store_8888_avx+0xd6>
+ .byte 235,215 // jmp 15f20 <_sk_store_8888_avx+0xd6>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 235,199 // jmp 15640 <_sk_store_8888_avx+0xd6>
+ .byte 235,199 // jmp 15f20 <_sk_store_8888_avx+0xd6>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -20879,7 +21518,7 @@ _sk_store_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,65,122,17,76,144,16 // vmovss %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,121,17,4,144 // vmovupd %xmm8,(%r8,%rdx,4)
- .byte 235,150 // jmp 15640 <_sk_store_8888_avx+0xd6>
+ .byte 235,150 // jmp 15f20 <_sk_store_8888_avx+0xd6>
.byte 102,144 // xchg %ax,%ax
.byte 181,255 // mov $0xff,%ch
.byte 255 // (bad)
@@ -20891,7 +21530,7 @@ _sk_store_8888_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc0156c0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfdb5c4>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc015fa0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfda900>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -20909,12 +21548,12 @@ _sk_load_bgra_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 15769 <_sk_load_bgra_avx+0xa1>
+ .byte 15,133,135,0,0,0 // jne 16049 <_sk_load_bgra_avx+0xa1>
.byte 196,65,125,16,12,144 // vmovupd (%r8,%rdx,4),%ymm9
- .byte 197,125,40,21,80,83,2,0 // vmovapd 0x25350(%rip),%ymm10 # 3aa40 <_sk_srcover_bgra_8888_sse2_lowp+0x944>
+ .byte 197,125,40,21,16,96,2,0 // vmovapd 0x26010(%rip),%ymm10 # 3bfe0 <_sk_srcover_bgra_8888_sse2_lowp+0x940>
.byte 196,193,53,84,202 // vandpd %ymm10,%ymm9,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,98,125,24,5,34,77,2,0 // vbroadcastss 0x24d22(%rip),%ymm8 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,230,89,2,0 // vbroadcastss 0x259e6(%rip),%ymm8 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,116,89,208 // vmulps %ymm8,%ymm1,%ymm2
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -20941,21 +21580,21 @@ _sk_load_bgra_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,108,255,255,255 // ja 156e8 <_sk_load_bgra_avx+0x20>
+ .byte 15,135,108,255,255,255 // ja 15fc8 <_sk_load_bgra_avx+0x20>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 15818 <_sk_load_bgra_avx+0x150>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 160f8 <_sk_load_bgra_avx+0x150>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,122,16,12,144 // vmovss (%r8,%rdx,4),%xmm9
- .byte 233,78,255,255,255 // jmpq 156e8 <_sk_load_bgra_avx+0x20>
+ .byte 233,78,255,255,255 // jmpq 15fc8 <_sk_load_bgra_avx+0x20>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,193,123,16,4,144 // vmovsd (%r8,%rdx,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,39,255,255,255 // jmpq 156e8 <_sk_load_bgra_avx+0x20>
+ .byte 233,39,255,255,255 // jmpq 15fc8 <_sk_load_bgra_avx+0x20>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -20969,9 +21608,9 @@ _sk_load_bgra_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,193,121,16,4,144 // vmovupd (%r8,%rdx,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,210,254,255,255 // jmpq 156e8 <_sk_load_bgra_avx+0x20>
+ .byte 233,210,254,255,255 // jmpq 15fc8 <_sk_load_bgra_avx+0x20>
.byte 102,144 // xchg %ax,%ax
- .byte 119,255 // ja 15819 <_sk_load_bgra_avx+0x151>
+ .byte 119,255 // ja 160f9 <_sk_load_bgra_avx+0x151>
.byte 255 // (bad)
.byte 255,152,255,255,255,130 // lcall *-0x7d000001(%rax)
.byte 255 // (bad)
@@ -21002,12 +21641,12 @@ _sk_load_bgra_dst_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 158d5 <_sk_load_bgra_dst_avx+0xa1>
+ .byte 15,133,135,0,0,0 // jne 161b5 <_sk_load_bgra_dst_avx+0xa1>
.byte 196,65,125,16,12,144 // vmovupd (%r8,%rdx,4),%ymm9
- .byte 197,125,40,21,4,82,2,0 // vmovapd 0x25204(%rip),%ymm10 # 3aa60 <_sk_srcover_bgra_8888_sse2_lowp+0x964>
+ .byte 197,125,40,21,196,94,2,0 // vmovapd 0x25ec4(%rip),%ymm10 # 3c000 <_sk_srcover_bgra_8888_sse2_lowp+0x960>
.byte 196,193,53,84,234 // vandpd %ymm10,%ymm9,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,98,125,24,5,182,75,2,0 // vbroadcastss 0x24bb6(%rip),%ymm8 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,122,88,2,0 // vbroadcastss 0x2587a(%rip),%ymm8 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,84,89,240 // vmulps %ymm8,%ymm5,%ymm6
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -21034,21 +21673,21 @@ _sk_load_bgra_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 15,135,108,255,255,255 // ja 15854 <_sk_load_bgra_dst_avx+0x20>
+ .byte 15,135,108,255,255,255 // ja 16134 <_sk_load_bgra_dst_avx+0x20>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 15984 <_sk_load_bgra_dst_avx+0x150>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 16264 <_sk_load_bgra_dst_avx+0x150>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,122,16,12,144 // vmovss (%r8,%rdx,4),%xmm9
- .byte 233,78,255,255,255 // jmpq 15854 <_sk_load_bgra_dst_avx+0x20>
+ .byte 233,78,255,255,255 // jmpq 16134 <_sk_load_bgra_dst_avx+0x20>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,193,123,16,36,144 // vmovsd (%r8,%rdx,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,39,255,255,255 // jmpq 15854 <_sk_load_bgra_dst_avx+0x20>
+ .byte 233,39,255,255,255 // jmpq 16134 <_sk_load_bgra_dst_avx+0x20>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -21062,9 +21701,9 @@ _sk_load_bgra_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,193,121,16,36,144 // vmovupd (%r8,%rdx,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,210,254,255,255 // jmpq 15854 <_sk_load_bgra_dst_avx+0x20>
+ .byte 233,210,254,255,255 // jmpq 16134 <_sk_load_bgra_dst_avx+0x20>
.byte 102,144 // xchg %ax,%ax
- .byte 119,255 // ja 15985 <_sk_load_bgra_dst_avx+0x151>
+ .byte 119,255 // ja 16265 <_sk_load_bgra_dst_avx+0x151>
.byte 255 // (bad)
.byte 255,152,255,255,255,130 // lcall *-0x7d000001(%rax)
.byte 255 // (bad)
@@ -21142,10 +21781,10 @@ _sk_gather_bgra_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,13,220,79,2,0 // vmovaps 0x24fdc(%rip),%ymm9 # 3aa80 <_sk_srcover_bgra_8888_sse2_lowp+0x984>
+ .byte 197,124,40,13,156,92,2,0 // vmovaps 0x25c9c(%rip),%ymm9 # 3c020 <_sk_srcover_bgra_8888_sse2_lowp+0x980>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,110,73,2,0 // vbroadcastss 0x2496e(%rip),%ymm10 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,21,50,86,2,0 // vbroadcastss 0x25632(%rip),%ymm10 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,210 // vmulps %ymm10,%ymm0,%ymm2
.byte 196,193,121,114,208,8 // vpsrld $0x8,%xmm8,%xmm0
.byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1
@@ -21182,9 +21821,9 @@ _sk_store_bgra_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9
- .byte 196,98,125,24,21,107,72,2,0 // vbroadcastss 0x2486b(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,47,85,2,0 // vbroadcastss 0x2552f(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,137,72,2,0 // vbroadcastss 0x24889(%rip),%ymm11 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,77,85,2,0 // vbroadcastss 0x2554d(%rip),%ymm11 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
@@ -21215,7 +21854,7 @@ _sk_store_bgra_avx:
.byte 196,65,29,86,192 // vorpd %ymm8,%ymm12,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 15bf8 <_sk_store_bgra_avx+0xda>
+ .byte 117,10 // jne 164d8 <_sk_store_bgra_avx+0xda>
.byte 196,65,124,17,4,144 // vmovups %ymm8,(%r8,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21223,17 +21862,17 @@ _sk_store_bgra_avx:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 15bf4 <_sk_store_bgra_avx+0xd6>
+ .byte 119,242 // ja 164d4 <_sk_store_bgra_avx+0xd6>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,84,0,0,0 // lea 0x54(%rip),%r9 # 15c60 <_sk_store_bgra_avx+0x142>
+ .byte 76,141,13,84,0,0,0 // lea 0x54(%rip),%r9 # 16540 <_sk_store_bgra_avx+0x142>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp 15bf4 <_sk_store_bgra_avx+0xd6>
+ .byte 235,215 // jmp 164d4 <_sk_store_bgra_avx+0xd6>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 235,199 // jmp 15bf4 <_sk_store_bgra_avx+0xd6>
+ .byte 235,199 // jmp 164d4 <_sk_store_bgra_avx+0xd6>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -21241,7 +21880,7 @@ _sk_store_bgra_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,65,122,17,76,144,16 // vmovss %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,121,17,4,144 // vmovupd %xmm8,(%r8,%rdx,4)
- .byte 235,150 // jmp 15bf4 <_sk_store_bgra_avx+0xd6>
+ .byte 235,150 // jmp 164d4 <_sk_store_bgra_avx+0xd6>
.byte 102,144 // xchg %ax,%ax
.byte 181,255 // mov $0xff,%ch
.byte 255 // (bad)
@@ -21253,7 +21892,7 @@ _sk_store_bgra_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc015c74 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfdbb78>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc016554 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfdaeb4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -21261,6 +21900,370 @@ _sk_store_bgra_avx:
.byte 255 // (bad)
.byte 255 // .byte 0xff
+HIDDEN _sk_load_1010102_avx
+.globl _sk_load_1010102_avx
+FUNCTION(_sk_load_1010102_avx)
+_sk_load_1010102_avx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,64,8 // movslq 0x8(%rax),%r8
+ .byte 76,15,175,193 // imul %rcx,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 15,133,145,0,0,0 // jne 16607 <_sk_load_1010102_avx+0xab>
+ .byte 196,65,125,16,12,144 // vmovupd (%r8,%rdx,4),%ymm9
+ .byte 196,98,125,24,29,231,84,2,0 // vbroadcastss 0x254e7(%rip),%ymm11 # 3ba6c <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 196,193,53,84,195 // vandpd %ymm11,%ymm9,%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,98,125,24,5,217,84,2,0 // vbroadcastss 0x254d9(%rip),%ymm8 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
+ .byte 196,193,41,114,209,10 // vpsrld $0xa,%xmm9,%xmm10
+ .byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
+ .byte 197,241,114,211,10 // vpsrld $0xa,%xmm3,%xmm1
+ .byte 196,227,45,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm10,%ymm1
+ .byte 196,193,117,84,203 // vandpd %ymm11,%ymm1,%ymm1
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
+ .byte 196,193,41,114,209,20 // vpsrld $0x14,%xmm9,%xmm10
+ .byte 197,233,114,211,20 // vpsrld $0x14,%xmm3,%xmm2
+ .byte 196,227,45,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm10,%ymm2
+ .byte 196,193,109,84,211 // vandpd %ymm11,%ymm2,%ymm2
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
+ .byte 196,193,57,114,209,30 // vpsrld $0x1e,%xmm9,%xmm8
+ .byte 197,225,114,211,30 // vpsrld $0x1e,%xmm3,%xmm3
+ .byte 196,227,61,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 196,98,125,24,5,190,83,2,0 // vbroadcastss 0x253be(%rip),%ymm8 # 3b9bc <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 137,248 // mov %edi,%eax
+ .byte 36,7 // and $0x7,%al
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 254,200 // dec %al
+ .byte 60,6 // cmp $0x6,%al
+ .byte 15,135,98,255,255,255 // ja 1657c <_sk_load_1010102_avx+0x20>
+ .byte 15,182,192 // movzbl %al,%eax
+ .byte 76,141,13,144,0,0,0 // lea 0x90(%rip),%r9 # 166b4 <_sk_load_1010102_avx+0x158>
+ .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
+ .byte 76,1,200 // add %r9,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,65,122,16,12,144 // vmovss (%r8,%rdx,4),%xmm9
+ .byte 233,68,255,255,255 // jmpq 1657c <_sk_load_1010102_avx+0x20>
+ .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
+ .byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
+ .byte 196,193,123,16,4,144 // vmovsd (%r8,%rdx,4),%xmm0
+ .byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
+ .byte 233,29,255,255,255 // jmpq 1657c <_sk_load_1010102_avx+0x20>
+ .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
+ .byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
+ .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 196,99,117,12,200,64 // vblendps $0x40,%ymm0,%ymm1,%ymm9
+ .byte 196,99,125,25,200,1 // vextractf128 $0x1,%ymm9,%xmm0
+ .byte 196,195,121,34,68,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
+ .byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
+ .byte 196,99,125,25,200,1 // vextractf128 $0x1,%ymm9,%xmm0
+ .byte 196,195,121,34,68,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
+ .byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
+ .byte 196,193,121,16,4,144 // vmovupd (%r8,%rdx,4),%xmm0
+ .byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
+ .byte 233,200,254,255,255 // jmpq 1657c <_sk_load_1010102_avx+0x20>
+ .byte 121,255 // jns 166b5 <_sk_load_1010102_avx+0x159>
+ .byte 255 // (bad)
+ .byte 255,154,255,255,255,132 // lcall *-0x7b000001(%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 239 // out %eax,(%dx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 219,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,199 // inc %edi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+ .byte 171 // stos %eax,%es:(%rdi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_load_1010102_dst_avx
+.globl _sk_load_1010102_dst_avx
+FUNCTION(_sk_load_1010102_dst_avx)
+_sk_load_1010102_dst_avx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,64,8 // movslq 0x8(%rax),%r8
+ .byte 76,15,175,193 // imul %rcx,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 15,133,145,0,0,0 // jne 1677b <_sk_load_1010102_dst_avx+0xab>
+ .byte 196,65,125,16,12,144 // vmovupd (%r8,%rdx,4),%ymm9
+ .byte 196,98,125,24,29,115,83,2,0 // vbroadcastss 0x25373(%rip),%ymm11 # 3ba6c <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 196,193,53,84,227 // vandpd %ymm11,%ymm9,%ymm4
+ .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
+ .byte 196,98,125,24,5,101,83,2,0 // vbroadcastss 0x25365(%rip),%ymm8 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
+ .byte 196,193,41,114,209,10 // vpsrld $0xa,%xmm9,%xmm10
+ .byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
+ .byte 197,209,114,215,10 // vpsrld $0xa,%xmm7,%xmm5
+ .byte 196,227,45,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm10,%ymm5
+ .byte 196,193,85,84,235 // vandpd %ymm11,%ymm5,%ymm5
+ .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
+ .byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
+ .byte 196,193,41,114,209,20 // vpsrld $0x14,%xmm9,%xmm10
+ .byte 197,201,114,215,20 // vpsrld $0x14,%xmm7,%xmm6
+ .byte 196,227,45,24,246,1 // vinsertf128 $0x1,%xmm6,%ymm10,%ymm6
+ .byte 196,193,77,84,243 // vandpd %ymm11,%ymm6,%ymm6
+ .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
+ .byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
+ .byte 196,193,57,114,209,30 // vpsrld $0x1e,%xmm9,%xmm8
+ .byte 197,193,114,215,30 // vpsrld $0x1e,%xmm7,%xmm7
+ .byte 196,227,61,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm8,%ymm7
+ .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
+ .byte 196,98,125,24,5,74,82,2,0 // vbroadcastss 0x2524a(%rip),%ymm8 # 3b9bc <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 137,248 // mov %edi,%eax
+ .byte 36,7 // and $0x7,%al
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 254,200 // dec %al
+ .byte 60,6 // cmp $0x6,%al
+ .byte 15,135,98,255,255,255 // ja 166f0 <_sk_load_1010102_dst_avx+0x20>
+ .byte 15,182,192 // movzbl %al,%eax
+ .byte 76,141,13,144,0,0,0 // lea 0x90(%rip),%r9 # 16828 <_sk_load_1010102_dst_avx+0x158>
+ .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
+ .byte 76,1,200 // add %r9,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,65,122,16,12,144 // vmovss (%r8,%rdx,4),%xmm9
+ .byte 233,68,255,255,255 // jmpq 166f0 <_sk_load_1010102_dst_avx+0x20>
+ .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
+ .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
+ .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
+ .byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
+ .byte 196,193,123,16,36,144 // vmovsd (%r8,%rdx,4),%xmm4
+ .byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
+ .byte 233,29,255,255,255 // jmpq 166f0 <_sk_load_1010102_dst_avx+0x20>
+ .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
+ .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
+ .byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
+ .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
+ .byte 196,99,85,12,204,64 // vblendps $0x40,%ymm4,%ymm5,%ymm9
+ .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4
+ .byte 196,195,89,34,100,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
+ .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
+ .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4
+ .byte 196,195,89,34,100,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
+ .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
+ .byte 196,193,121,16,36,144 // vmovupd (%r8,%rdx,4),%xmm4
+ .byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
+ .byte 233,200,254,255,255 // jmpq 166f0 <_sk_load_1010102_dst_avx+0x20>
+ .byte 121,255 // jns 16829 <_sk_load_1010102_dst_avx+0x159>
+ .byte 255 // (bad)
+ .byte 255,154,255,255,255,132 // lcall *-0x7b000001(%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 239 // out %eax,(%dx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 219,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,199 // inc %edi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+ .byte 171 // stos %eax,%es:(%rdi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_gather_1010102_avx
+.globl _sk_gather_1010102_avx
+FUNCTION(_sk_gather_1010102_avx)
+_sk_gather_1010102_avx:
+ .byte 65,87 // push %r15
+ .byte 65,86 // push %r14
+ .byte 65,84 // push %r12
+ .byte 83 // push %rbx
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,80,12 // vbroadcastss 0xc(%rax),%ymm2
+ .byte 196,227,125,25,211,1 // vextractf128 $0x1,%ymm2,%xmm3
+ .byte 196,65,57,118,192 // vpcmpeqd %xmm8,%xmm8,%xmm8
+ .byte 196,193,97,254,216 // vpaddd %xmm8,%xmm3,%xmm3
+ .byte 196,193,105,254,208 // vpaddd %xmm8,%xmm2,%xmm2
+ .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
+ .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
+ .byte 196,226,125,24,80,16 // vbroadcastss 0x10(%rax),%ymm2
+ .byte 196,227,125,25,211,1 // vextractf128 $0x1,%ymm2,%xmm3
+ .byte 196,193,97,254,216 // vpaddd %xmm8,%xmm3,%xmm3
+ .byte 196,193,105,254,208 // vpaddd %xmm8,%xmm2,%xmm2
+ .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
+ .byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1
+ .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
+ .byte 197,249,110,80,8 // vmovd 0x8(%rax),%xmm2
+ .byte 197,249,112,210,0 // vpshufd $0x0,%xmm2,%xmm2
+ .byte 196,226,105,64,217 // vpmulld %xmm1,%xmm2,%xmm3
+ .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1
+ .byte 196,226,105,64,201 // vpmulld %xmm1,%xmm2,%xmm1
+ .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
+ .byte 196,227,125,25,194,1 // vextractf128 $0x1,%ymm0,%xmm2
+ .byte 197,241,254,202 // vpaddd %xmm2,%xmm1,%xmm1
+ .byte 196,225,249,126,200 // vmovq %xmm1,%rax
+ .byte 65,137,193 // mov %eax,%r9d
+ .byte 72,193,232,32 // shr $0x20,%rax
+ .byte 197,225,254,192 // vpaddd %xmm0,%xmm3,%xmm0
+ .byte 196,193,249,126,194 // vmovq %xmm0,%r10
+ .byte 69,137,211 // mov %r10d,%r11d
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 196,227,249,22,203,1 // vpextrq $0x1,%xmm1,%rbx
+ .byte 65,137,222 // mov %ebx,%r14d
+ .byte 72,193,235,32 // shr $0x20,%rbx
+ .byte 196,195,249,22,199,1 // vpextrq $0x1,%xmm0,%r15
+ .byte 69,137,252 // mov %r15d,%r12d
+ .byte 73,193,239,32 // shr $0x20,%r15
+ .byte 196,129,121,110,4,152 // vmovd (%r8,%r11,4),%xmm0
+ .byte 196,131,121,34,4,144,1 // vpinsrd $0x1,(%r8,%r10,4),%xmm0,%xmm0
+ .byte 196,131,121,34,4,160,2 // vpinsrd $0x2,(%r8,%r12,4),%xmm0,%xmm0
+ .byte 196,3,121,34,4,184,3 // vpinsrd $0x3,(%r8,%r15,4),%xmm0,%xmm8
+ .byte 196,129,121,110,4,136 // vmovd (%r8,%r9,4),%xmm0
+ .byte 196,195,121,34,4,128,1 // vpinsrd $0x1,(%r8,%rax,4),%xmm0,%xmm0
+ .byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
+ .byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
+ .byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
+ .byte 196,98,125,24,29,35,81,2,0 // vbroadcastss 0x25123(%rip),%ymm11 # 3ba6c <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 196,193,124,84,195 // vandps %ymm11,%ymm0,%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,98,125,24,13,21,81,2,0 // vbroadcastss 0x25115(%rip),%ymm9 # 3ba70 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
+ .byte 196,193,41,114,208,10 // vpsrld $0xa,%xmm8,%xmm10
+ .byte 197,241,114,211,10 // vpsrld $0xa,%xmm3,%xmm1
+ .byte 196,227,45,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm10,%ymm1
+ .byte 196,193,116,84,203 // vandps %ymm11,%ymm1,%ymm1
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
+ .byte 196,193,41,114,208,20 // vpsrld $0x14,%xmm8,%xmm10
+ .byte 197,233,114,211,20 // vpsrld $0x14,%xmm3,%xmm2
+ .byte 196,227,45,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm10,%ymm2
+ .byte 196,193,108,84,211 // vandps %ymm11,%ymm2,%ymm2
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
+ .byte 196,193,57,114,208,30 // vpsrld $0x1e,%xmm8,%xmm8
+ .byte 197,225,114,211,30 // vpsrld $0x1e,%xmm3,%xmm3
+ .byte 196,227,61,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 196,98,125,24,5,0,80,2,0 // vbroadcastss 0x25000(%rip),%ymm8 # 3b9bc <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 91 // pop %rbx
+ .byte 65,92 // pop %r12
+ .byte 65,94 // pop %r14
+ .byte 65,95 // pop %r15
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_store_1010102_avx
+.globl _sk_store_1010102_avx
+FUNCTION(_sk_store_1010102_avx)
+_sk_store_1010102_avx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,64,8 // movslq 0x8(%rax),%r8
+ .byte 76,15,175,193 // imul %rcx,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,21,97,79,2,0 // vbroadcastss 0x24f61(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,98,125,24,29,119,80,2,0 // vbroadcastss 0x25077(%rip),%ymm11 # 3ba74 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
+ .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
+ .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
+ .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,17,114,244,10 // vpslld $0xa,%xmm12,%xmm13
+ .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12
+ .byte 196,193,25,114,244,10 // vpslld $0xa,%xmm12,%xmm12
+ .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
+ .byte 196,65,29,86,201 // vorpd %ymm9,%ymm12,%ymm9
+ .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
+ .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
+ .byte 196,193,25,114,243,20 // vpslld $0x14,%xmm11,%xmm12
+ .byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
+ .byte 196,193,33,114,243,20 // vpslld $0x14,%xmm11,%xmm11
+ .byte 196,67,29,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm12,%ymm11
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,98,125,24,21,4,80,2,0 // vbroadcastss 0x25004(%rip),%ymm10 # 3ba78 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
+ .byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
+ .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
+ .byte 196,193,41,114,240,30 // vpslld $0x1e,%xmm8,%xmm10
+ .byte 196,67,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm8
+ .byte 196,193,57,114,240,30 // vpslld $0x1e,%xmm8,%xmm8
+ .byte 196,67,45,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm10,%ymm8
+ .byte 196,65,37,86,192 // vorpd %ymm8,%ymm11,%ymm8
+ .byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,10 // jne 16aaf <_sk_store_1010102_avx+0xe3>
+ .byte 196,65,124,17,4,144 // vmovups %ymm8,(%r8,%rdx,4)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 137,248 // mov %edi,%eax
+ .byte 36,7 // and $0x7,%al
+ .byte 254,200 // dec %al
+ .byte 60,6 // cmp $0x6,%al
+ .byte 119,242 // ja 16aab <_sk_store_1010102_avx+0xdf>
+ .byte 15,182,192 // movzbl %al,%eax
+ .byte 76,141,13,85,0,0,0 // lea 0x55(%rip),%r9 # 16b18 <_sk_store_1010102_avx+0x14c>
+ .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
+ .byte 76,1,200 // add %r9,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
+ .byte 235,215 // jmp 16aab <_sk_store_1010102_avx+0xdf>
+ .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
+ .byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
+ .byte 235,199 // jmp 16aab <_sk_store_1010102_avx+0xdf>
+ .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
+ .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
+ .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
+ .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
+ .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
+ .byte 196,65,122,17,76,144,16 // vmovss %xmm9,0x10(%r8,%rdx,4)
+ .byte 196,65,121,17,4,144 // vmovupd %xmm8,(%r8,%rdx,4)
+ .byte 235,150 // jmp 16aab <_sk_store_1010102_avx+0xdf>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 180,255 // mov $0xff,%ah
+ .byte 255 // (bad)
+ .byte 255,196 // inc %esp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 188,255,255,255,245 // mov $0xf5ffffff,%esp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 232,255,255,255,218 // callq ffffffffdb016b2c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdafdb48c>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,204 // dec %esp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
HIDDEN _sk_load_f16_avx
.globl _sk_load_f16_avx
FUNCTION(_sk_load_f16_avx)
@@ -21276,7 +22279,7 @@ _sk_load_f16_avx:
.byte 197,252,17,116,36,192 // vmovups %ymm6,-0x40(%rsp)
.byte 197,252,17,108,36,160 // vmovups %ymm5,-0x60(%rsp)
.byte 197,252,17,100,36,128 // vmovups %ymm4,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne 15ed1 <_sk_load_f16_avx+0x255>
+ .byte 15,133,31,2,0,0 // jne 16d89 <_sk_load_f16_avx+0x255>
.byte 196,65,121,16,4,208 // vmovupd (%r8,%rdx,8),%xmm8
.byte 196,193,121,16,84,208,16 // vmovupd 0x10(%r8,%rdx,8),%xmm2
.byte 196,193,121,16,92,208,32 // vmovupd 0x20(%r8,%rdx,8),%xmm3
@@ -21293,14 +22296,14 @@ _sk_load_f16_avx:
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,21,189,88,2,0 // vmovddup 0x258bd(%rip),%xmm10 # 3b5c8 <_sk_srcover_bgra_8888_sse2_lowp+0x14cc>
+ .byte 197,123,18,21,229,95,2,0 // vmovddup 0x25fe5(%rip),%xmm10 # 3cba8 <_sk_srcover_bgra_8888_sse2_lowp+0x1508>
.byte 196,193,121,219,218 // vpand %xmm10,%xmm0,%xmm3
- .byte 196,98,121,24,29,23,72,2,0 // vbroadcastss 0x24817(%rip),%xmm11 # 3a530 <_sk_srcover_bgra_8888_sse2_lowp+0x434>
+ .byte 196,98,121,24,29,19,79,2,0 // vbroadcastss 0x24f13(%rip),%xmm11 # 3bae4 <_sk_srcover_bgra_8888_sse2_lowp+0x444>
.byte 197,33,102,227 // vpcmpgtd %xmm3,%xmm11,%xmm12
.byte 196,193,113,219,210 // vpand %xmm10,%xmm1,%xmm2
.byte 197,33,102,234 // vpcmpgtd %xmm2,%xmm11,%xmm13
.byte 196,195,21,24,252,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm7
- .byte 197,123,18,37,156,88,2,0 // vmovddup 0x2589c(%rip),%xmm12 # 3b5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x14d4>
+ .byte 197,123,18,37,196,95,2,0 // vmovddup 0x25fc4(%rip),%xmm12 # 3cbb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1510>
.byte 196,193,113,219,204 // vpand %xmm12,%xmm1,%xmm1
.byte 197,241,114,241,16 // vpslld $0x10,%xmm1,%xmm1
.byte 196,193,121,219,196 // vpand %xmm12,%xmm0,%xmm0
@@ -21309,7 +22312,7 @@ _sk_load_f16_avx:
.byte 197,241,235,202 // vpor %xmm2,%xmm1,%xmm1
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,209,71,2,0 // vbroadcastss 0x247d1(%rip),%xmm3 # 3a534 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 196,226,121,24,29,205,78,2,0 // vbroadcastss 0x24ecd(%rip),%xmm3 # 3bae8 <_sk_srcover_bgra_8888_sse2_lowp+0x448>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -21388,29 +22391,29 @@ _sk_load_f16_avx:
.byte 196,65,123,16,4,208 // vmovsd (%r8,%rdx,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 15f37 <_sk_load_f16_avx+0x2bb>
+ .byte 116,85 // je 16def <_sk_load_f16_avx+0x2bb>
.byte 196,65,57,22,68,208,8 // vmovhpd 0x8(%r8,%rdx,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 15f37 <_sk_load_f16_avx+0x2bb>
+ .byte 114,72 // jb 16def <_sk_load_f16_avx+0x2bb>
.byte 196,193,123,16,84,208,16 // vmovsd 0x10(%r8,%rdx,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 15f44 <_sk_load_f16_avx+0x2c8>
+ .byte 116,72 // je 16dfc <_sk_load_f16_avx+0x2c8>
.byte 196,193,105,22,84,208,24 // vmovhpd 0x18(%r8,%rdx,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 15f44 <_sk_load_f16_avx+0x2c8>
+ .byte 114,59 // jb 16dfc <_sk_load_f16_avx+0x2c8>
.byte 196,193,123,16,92,208,32 // vmovsd 0x20(%r8,%rdx,8),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je 15ccd <_sk_load_f16_avx+0x51>
+ .byte 15,132,179,253,255,255 // je 16b85 <_sk_load_f16_avx+0x51>
.byte 196,193,97,22,92,208,40 // vmovhpd 0x28(%r8,%rdx,8),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb 15ccd <_sk_load_f16_avx+0x51>
+ .byte 15,130,162,253,255,255 // jb 16b85 <_sk_load_f16_avx+0x51>
.byte 196,65,122,126,76,208,48 // vmovq 0x30(%r8,%rdx,8),%xmm9
- .byte 233,150,253,255,255 // jmpq 15ccd <_sk_load_f16_avx+0x51>
+ .byte 233,150,253,255,255 // jmpq 16b85 <_sk_load_f16_avx+0x51>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,137,253,255,255 // jmpq 15ccd <_sk_load_f16_avx+0x51>
+ .byte 233,137,253,255,255 // jmpq 16b85 <_sk_load_f16_avx+0x51>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,128,253,255,255 // jmpq 15ccd <_sk_load_f16_avx+0x51>
+ .byte 233,128,253,255,255 // jmpq 16b85 <_sk_load_f16_avx+0x51>
HIDDEN _sk_load_f16_dst_avx
.globl _sk_load_f16_dst_avx
@@ -21427,7 +22430,7 @@ _sk_load_f16_dst_avx:
.byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp)
.byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp)
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne 161a2 <_sk_load_f16_dst_avx+0x255>
+ .byte 15,133,31,2,0,0 // jne 1705a <_sk_load_f16_dst_avx+0x255>
.byte 196,65,121,16,4,208 // vmovupd (%r8,%rdx,8),%xmm8
.byte 196,193,121,16,116,208,16 // vmovupd 0x10(%r8,%rdx,8),%xmm6
.byte 196,193,121,16,124,208,32 // vmovupd 0x20(%r8,%rdx,8),%xmm7
@@ -21444,14 +22447,14 @@ _sk_load_f16_dst_avx:
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
- .byte 197,123,18,21,236,85,2,0 // vmovddup 0x255ec(%rip),%xmm10 # 3b5c8 <_sk_srcover_bgra_8888_sse2_lowp+0x14cc>
+ .byte 197,123,18,21,20,93,2,0 // vmovddup 0x25d14(%rip),%xmm10 # 3cba8 <_sk_srcover_bgra_8888_sse2_lowp+0x1508>
.byte 196,193,89,219,250 // vpand %xmm10,%xmm4,%xmm7
- .byte 196,98,121,24,29,70,69,2,0 // vbroadcastss 0x24546(%rip),%xmm11 # 3a530 <_sk_srcover_bgra_8888_sse2_lowp+0x434>
+ .byte 196,98,121,24,29,66,76,2,0 // vbroadcastss 0x24c42(%rip),%xmm11 # 3bae4 <_sk_srcover_bgra_8888_sse2_lowp+0x444>
.byte 197,33,102,231 // vpcmpgtd %xmm7,%xmm11,%xmm12
.byte 196,193,81,219,242 // vpand %xmm10,%xmm5,%xmm6
.byte 197,33,102,238 // vpcmpgtd %xmm6,%xmm11,%xmm13
.byte 196,195,21,24,220,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm3
- .byte 197,123,18,37,203,85,2,0 // vmovddup 0x255cb(%rip),%xmm12 # 3b5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x14d4>
+ .byte 197,123,18,37,243,92,2,0 // vmovddup 0x25cf3(%rip),%xmm12 # 3cbb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1510>
.byte 196,193,81,219,236 // vpand %xmm12,%xmm5,%xmm5
.byte 197,209,114,245,16 // vpslld $0x10,%xmm5,%xmm5
.byte 196,193,89,219,228 // vpand %xmm12,%xmm4,%xmm4
@@ -21460,7 +22463,7 @@ _sk_load_f16_dst_avx:
.byte 197,209,235,238 // vpor %xmm6,%xmm5,%xmm5
.byte 197,201,114,247,13 // vpslld $0xd,%xmm7,%xmm6
.byte 197,217,235,230 // vpor %xmm6,%xmm4,%xmm4
- .byte 196,226,121,24,61,0,69,2,0 // vbroadcastss 0x24500(%rip),%xmm7 # 3a534 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 196,226,121,24,61,252,75,2,0 // vbroadcastss 0x24bfc(%rip),%xmm7 # 3bae8 <_sk_srcover_bgra_8888_sse2_lowp+0x448>
.byte 197,217,254,231 // vpaddd %xmm7,%xmm4,%xmm4
.byte 197,209,254,239 // vpaddd %xmm7,%xmm5,%xmm5
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
@@ -21539,29 +22542,29 @@ _sk_load_f16_dst_avx:
.byte 196,65,123,16,4,208 // vmovsd (%r8,%rdx,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 16208 <_sk_load_f16_dst_avx+0x2bb>
+ .byte 116,85 // je 170c0 <_sk_load_f16_dst_avx+0x2bb>
.byte 196,65,57,22,68,208,8 // vmovhpd 0x8(%r8,%rdx,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 16208 <_sk_load_f16_dst_avx+0x2bb>
+ .byte 114,72 // jb 170c0 <_sk_load_f16_dst_avx+0x2bb>
.byte 196,193,123,16,116,208,16 // vmovsd 0x10(%r8,%rdx,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 16215 <_sk_load_f16_dst_avx+0x2c8>
+ .byte 116,72 // je 170cd <_sk_load_f16_dst_avx+0x2c8>
.byte 196,193,73,22,116,208,24 // vmovhpd 0x18(%r8,%rdx,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 16215 <_sk_load_f16_dst_avx+0x2c8>
+ .byte 114,59 // jb 170cd <_sk_load_f16_dst_avx+0x2c8>
.byte 196,193,123,16,124,208,32 // vmovsd 0x20(%r8,%rdx,8),%xmm7
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je 15f9e <_sk_load_f16_dst_avx+0x51>
+ .byte 15,132,179,253,255,255 // je 16e56 <_sk_load_f16_dst_avx+0x51>
.byte 196,193,65,22,124,208,40 // vmovhpd 0x28(%r8,%rdx,8),%xmm7,%xmm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb 15f9e <_sk_load_f16_dst_avx+0x51>
+ .byte 15,130,162,253,255,255 // jb 16e56 <_sk_load_f16_dst_avx+0x51>
.byte 196,65,122,126,76,208,48 // vmovq 0x30(%r8,%rdx,8),%xmm9
- .byte 233,150,253,255,255 // jmpq 15f9e <_sk_load_f16_dst_avx+0x51>
+ .byte 233,150,253,255,255 // jmpq 16e56 <_sk_load_f16_dst_avx+0x51>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,137,253,255,255 // jmpq 15f9e <_sk_load_f16_dst_avx+0x51>
+ .byte 233,137,253,255,255 // jmpq 16e56 <_sk_load_f16_dst_avx+0x51>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,128,253,255,255 // jmpq 15f9e <_sk_load_f16_dst_avx+0x51>
+ .byte 233,128,253,255,255 // jmpq 16e56 <_sk_load_f16_dst_avx+0x51>
HIDDEN _sk_gather_f16_avx
.globl _sk_gather_f16_avx
@@ -21640,14 +22643,14 @@ _sk_gather_f16_avx:
.byte 196,226,121,51,208 // vpmovzxwd %xmm0,%xmm2
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,29,82,82,2,0 // vmovddup 0x25252(%rip),%xmm11 # 3b5c8 <_sk_srcover_bgra_8888_sse2_lowp+0x14cc>
+ .byte 197,123,18,29,122,89,2,0 // vmovddup 0x2597a(%rip),%xmm11 # 3cba8 <_sk_srcover_bgra_8888_sse2_lowp+0x1508>
.byte 196,193,121,219,219 // vpand %xmm11,%xmm0,%xmm3
- .byte 196,98,121,24,37,172,65,2,0 // vbroadcastss 0x241ac(%rip),%xmm12 # 3a530 <_sk_srcover_bgra_8888_sse2_lowp+0x434>
+ .byte 196,98,121,24,37,168,72,2,0 // vbroadcastss 0x248a8(%rip),%xmm12 # 3bae4 <_sk_srcover_bgra_8888_sse2_lowp+0x444>
.byte 197,25,102,235 // vpcmpgtd %xmm3,%xmm12,%xmm13
.byte 196,193,105,219,203 // vpand %xmm11,%xmm2,%xmm1
.byte 197,25,102,193 // vpcmpgtd %xmm1,%xmm12,%xmm8
.byte 196,67,61,24,197,1 // vinsertf128 $0x1,%xmm13,%ymm8,%ymm8
- .byte 197,123,18,45,49,82,2,0 // vmovddup 0x25231(%rip),%xmm13 # 3b5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x14d4>
+ .byte 197,123,18,45,89,89,2,0 // vmovddup 0x25959(%rip),%xmm13 # 3cbb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1510>
.byte 196,193,105,219,213 // vpand %xmm13,%xmm2,%xmm2
.byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2
.byte 197,241,114,241,13 // vpslld $0xd,%xmm1,%xmm1
@@ -21656,7 +22659,7 @@ _sk_gather_f16_avx:
.byte 197,249,114,240,16 // vpslld $0x10,%xmm0,%xmm0
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,102,65,2,0 // vbroadcastss 0x24166(%rip),%xmm3 # 3a534 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 196,226,121,24,29,98,72,2,0 // vbroadcastss 0x24862(%rip),%xmm3 # 3bae8 <_sk_srcover_bgra_8888_sse2_lowp+0x448>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -21746,12 +22749,12 @@ _sk_store_f16_avx:
.byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp)
.byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
- .byte 196,98,125,24,5,132,63,2,0 // vbroadcastss 0x23f84(%rip),%ymm8 # 3a4ec <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,5,128,70,2,0 // vbroadcastss 0x24680(%rip),%ymm8 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 196,65,124,84,216 // vandps %ymm8,%ymm0,%ymm11
- .byte 196,98,125,24,21,194,63,2,0 // vbroadcastss 0x23fc2(%rip),%ymm10 # 3a538 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
+ .byte 196,98,125,24,21,190,70,2,0 // vbroadcastss 0x246be(%rip),%ymm10 # 3baec <_sk_srcover_bgra_8888_sse2_lowp+0x44c>
.byte 196,65,124,84,226 // vandps %ymm10,%ymm0,%ymm12
.byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13
- .byte 196,98,121,24,13,178,63,2,0 // vbroadcastss 0x23fb2(%rip),%xmm9 # 3a53c <_sk_srcover_bgra_8888_sse2_lowp+0x440>
+ .byte 196,98,121,24,13,174,70,2,0 // vbroadcastss 0x246ae(%rip),%xmm9 # 3baf0 <_sk_srcover_bgra_8888_sse2_lowp+0x450>
.byte 196,65,49,102,245 // vpcmpgtd %xmm13,%xmm9,%xmm14
.byte 196,65,49,102,252 // vpcmpgtd %xmm12,%xmm9,%xmm15
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
@@ -21762,7 +22765,7 @@ _sk_store_f16_avx:
.byte 196,65,17,254,239 // vpaddd %xmm15,%xmm13,%xmm13
.byte 196,193,25,114,212,13 // vpsrld $0xd,%xmm12,%xmm12
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
- .byte 196,98,121,24,29,117,63,2,0 // vbroadcastss 0x23f75(%rip),%xmm11 # 3a540 <_sk_srcover_bgra_8888_sse2_lowp+0x444>
+ .byte 196,98,121,24,29,113,70,2,0 // vbroadcastss 0x24671(%rip),%xmm11 # 3baf4 <_sk_srcover_bgra_8888_sse2_lowp+0x454>
.byte 196,65,17,254,235 // vpaddd %xmm11,%xmm13,%xmm13
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
.byte 196,67,29,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm12,%ymm13
@@ -21843,7 +22846,7 @@ _sk_store_f16_avx:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 1679c <_sk_store_f16_avx+0x25c>
+ .byte 117,68 // jne 17654 <_sk_store_f16_avx+0x25c>
.byte 196,65,122,127,28,208 // vmovdqu %xmm11,(%r8,%rdx,8)
.byte 196,65,122,127,84,208,16 // vmovdqu %xmm10,0x10(%r8,%rdx,8)
.byte 196,65,122,127,76,208,32 // vmovdqu %xmm9,0x20(%r8,%rdx,8)
@@ -21859,22 +22862,22 @@ _sk_store_f16_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,208 // vmovq %xmm11,(%r8,%rdx,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,203 // je 16773 <_sk_store_f16_avx+0x233>
+ .byte 116,203 // je 1762b <_sk_store_f16_avx+0x233>
.byte 196,65,121,23,92,208,8 // vmovhpd %xmm11,0x8(%r8,%rdx,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,190 // jb 16773 <_sk_store_f16_avx+0x233>
+ .byte 114,190 // jb 1762b <_sk_store_f16_avx+0x233>
.byte 196,65,121,214,84,208,16 // vmovq %xmm10,0x10(%r8,%rdx,8)
- .byte 116,181 // je 16773 <_sk_store_f16_avx+0x233>
+ .byte 116,181 // je 1762b <_sk_store_f16_avx+0x233>
.byte 196,65,121,23,84,208,24 // vmovhpd %xmm10,0x18(%r8,%rdx,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,168 // jb 16773 <_sk_store_f16_avx+0x233>
+ .byte 114,168 // jb 1762b <_sk_store_f16_avx+0x233>
.byte 196,65,121,214,76,208,32 // vmovq %xmm9,0x20(%r8,%rdx,8)
- .byte 116,159 // je 16773 <_sk_store_f16_avx+0x233>
+ .byte 116,159 // je 1762b <_sk_store_f16_avx+0x233>
.byte 196,65,121,23,76,208,40 // vmovhpd %xmm9,0x28(%r8,%rdx,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,146 // jb 16773 <_sk_store_f16_avx+0x233>
+ .byte 114,146 // jb 1762b <_sk_store_f16_avx+0x233>
.byte 196,65,121,214,68,208,48 // vmovq %xmm8,0x30(%r8,%rdx,8)
- .byte 235,137 // jmp 16773 <_sk_store_f16_avx+0x233>
+ .byte 235,137 // jmp 1762b <_sk_store_f16_avx+0x233>
HIDDEN _sk_load_u16_be_avx
.globl _sk_load_u16_be_avx
@@ -21887,7 +22890,7 @@ _sk_load_u16_be_avx:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,12,1,0,0 // jne 16917 <_sk_load_u16_be_avx+0x12d>
+ .byte 15,133,12,1,0,0 // jne 177cf <_sk_load_u16_be_avx+0x12d>
.byte 196,1,121,16,4,65 // vmovupd (%r9,%r8,2),%xmm8
.byte 196,129,121,16,84,65,16 // vmovupd 0x10(%r9,%r8,2),%xmm2
.byte 196,129,121,16,92,65,32 // vmovupd 0x20(%r9,%r8,2),%xmm3
@@ -21909,7 +22912,7 @@ _sk_load_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,196,59,2,0 // vbroadcastss 0x23bc4(%rip),%ymm9 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,176,66,2,0 // vbroadcastss 0x242b0(%rip),%ymm9 # 3b9e4 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,169,109,202 // vpunpckhqdq %xmm2,%xmm10,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -21946,29 +22949,29 @@ _sk_load_u16_be_avx:
.byte 196,1,123,16,4,65 // vmovsd (%r9,%r8,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 1697d <_sk_load_u16_be_avx+0x193>
+ .byte 116,85 // je 17835 <_sk_load_u16_be_avx+0x193>
.byte 196,1,57,22,68,65,8 // vmovhpd 0x8(%r9,%r8,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 1697d <_sk_load_u16_be_avx+0x193>
+ .byte 114,72 // jb 17835 <_sk_load_u16_be_avx+0x193>
.byte 196,129,123,16,84,65,16 // vmovsd 0x10(%r9,%r8,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 1698a <_sk_load_u16_be_avx+0x1a0>
+ .byte 116,72 // je 17842 <_sk_load_u16_be_avx+0x1a0>
.byte 196,129,105,22,84,65,24 // vmovhpd 0x18(%r9,%r8,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 1698a <_sk_load_u16_be_avx+0x1a0>
+ .byte 114,59 // jb 17842 <_sk_load_u16_be_avx+0x1a0>
.byte 196,129,123,16,92,65,32 // vmovsd 0x20(%r9,%r8,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,198,254,255,255 // je 16826 <_sk_load_u16_be_avx+0x3c>
+ .byte 15,132,198,254,255,255 // je 176de <_sk_load_u16_be_avx+0x3c>
.byte 196,129,97,22,92,65,40 // vmovhpd 0x28(%r9,%r8,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,181,254,255,255 // jb 16826 <_sk_load_u16_be_avx+0x3c>
+ .byte 15,130,181,254,255,255 // jb 176de <_sk_load_u16_be_avx+0x3c>
.byte 196,1,122,126,76,65,48 // vmovq 0x30(%r9,%r8,2),%xmm9
- .byte 233,169,254,255,255 // jmpq 16826 <_sk_load_u16_be_avx+0x3c>
+ .byte 233,169,254,255,255 // jmpq 176de <_sk_load_u16_be_avx+0x3c>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,156,254,255,255 // jmpq 16826 <_sk_load_u16_be_avx+0x3c>
+ .byte 233,156,254,255,255 // jmpq 176de <_sk_load_u16_be_avx+0x3c>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,147,254,255,255 // jmpq 16826 <_sk_load_u16_be_avx+0x3c>
+ .byte 233,147,254,255,255 // jmpq 176de <_sk_load_u16_be_avx+0x3c>
HIDDEN _sk_load_rgb_u16_be_avx
.globl _sk_load_rgb_u16_be_avx
@@ -21981,7 +22984,7 @@ _sk_load_rgb_u16_be_avx:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,253,0,0,0 // jne 16aad <_sk_load_rgb_u16_be_avx+0x11a>
+ .byte 15,133,253,0,0,0 // jne 17965 <_sk_load_rgb_u16_be_avx+0x11a>
.byte 196,1,122,111,28,65 // vmovdqu (%r9,%r8,2),%xmm11
.byte 196,129,122,111,92,65,12 // vmovdqu 0xc(%r9,%r8,2),%xmm3
.byte 196,129,122,111,84,65,24 // vmovdqu 0x18(%r9,%r8,2),%xmm2
@@ -22009,7 +23012,7 @@ _sk_load_rgb_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,1,58,2,0 // vbroadcastss 0x23a01(%rip),%ymm9 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,237,64,2,0 // vbroadcastss 0x240ed(%rip),%ymm9 # 3b9e4 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -22031,69 +23034,69 @@ _sk_load_rgb_u16_be_avx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,1,57,2,0 // vbroadcastss 0x23901(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,237,63,2,0 // vbroadcastss 0x23fed(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,65 // vmovd (%r9,%r8,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,65,4,2 // vpinsrw $0x2,0x4(%r9,%r8,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 16ae5 <_sk_load_rgb_u16_be_avx+0x152>
+ .byte 117,31 // jne 1799d <_sk_load_rgb_u16_be_avx+0x152>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,0,255,255,255 // jmpq 169e5 <_sk_load_rgb_u16_be_avx+0x52>
+ .byte 233,0,255,255,255 // jmpq 1789d <_sk_load_rgb_u16_be_avx+0x52>
.byte 196,129,121,110,68,65,6 // vmovd 0x6(%r9,%r8,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,65,10,2 // vpinsrw $0x2,0xa(%r9,%r8,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 16b2f <_sk_load_rgb_u16_be_avx+0x19c>
+ .byte 114,48 // jb 179e7 <_sk_load_rgb_u16_be_avx+0x19c>
.byte 196,129,121,110,68,65,12 // vmovd 0xc(%r9,%r8,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,65,16,2 // vpinsrw $0x2,0x10(%r9,%r8,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 16b49 <_sk_load_rgb_u16_be_avx+0x1b6>
+ .byte 117,48 // jne 17a01 <_sk_load_rgb_u16_be_avx+0x1b6>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,182,254,255,255 // jmpq 169e5 <_sk_load_rgb_u16_be_avx+0x52>
+ .byte 233,182,254,255,255 // jmpq 1789d <_sk_load_rgb_u16_be_avx+0x52>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,156,254,255,255 // jmpq 169e5 <_sk_load_rgb_u16_be_avx+0x52>
+ .byte 233,156,254,255,255 // jmpq 1789d <_sk_load_rgb_u16_be_avx+0x52>
.byte 196,129,121,110,68,65,18 // vmovd 0x12(%r9,%r8,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,65,22,2 // vpinsrw $0x2,0x16(%r9,%r8,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 16b8a <_sk_load_rgb_u16_be_avx+0x1f7>
+ .byte 114,39 // jb 17a42 <_sk_load_rgb_u16_be_avx+0x1f7>
.byte 196,129,121,110,68,65,24 // vmovd 0x18(%r9,%r8,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,65,28,2 // vpinsrw $0x2,0x1c(%r9,%r8,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 16b9b <_sk_load_rgb_u16_be_avx+0x208>
+ .byte 117,30 // jne 17a53 <_sk_load_rgb_u16_be_avx+0x208>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,91,254,255,255 // jmpq 169e5 <_sk_load_rgb_u16_be_avx+0x52>
+ .byte 233,91,254,255,255 // jmpq 1789d <_sk_load_rgb_u16_be_avx+0x52>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,74,254,255,255 // jmpq 169e5 <_sk_load_rgb_u16_be_avx+0x52>
+ .byte 233,74,254,255,255 // jmpq 1789d <_sk_load_rgb_u16_be_avx+0x52>
.byte 196,129,121,110,68,65,30 // vmovd 0x1e(%r9,%r8,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,65,34,2 // vpinsrw $0x2,0x22(%r9,%r8,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 16bce <_sk_load_rgb_u16_be_avx+0x23b>
+ .byte 114,25 // jb 17a86 <_sk_load_rgb_u16_be_avx+0x23b>
.byte 196,129,121,110,68,65,36 // vmovd 0x24(%r9,%r8,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,65,40,2 // vpinsrw $0x2,0x28(%r9,%r8,2),%xmm0,%xmm0
- .byte 233,23,254,255,255 // jmpq 169e5 <_sk_load_rgb_u16_be_avx+0x52>
+ .byte 233,23,254,255,255 // jmpq 1789d <_sk_load_rgb_u16_be_avx+0x52>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,14,254,255,255 // jmpq 169e5 <_sk_load_rgb_u16_be_avx+0x52>
+ .byte 233,14,254,255,255 // jmpq 1789d <_sk_load_rgb_u16_be_avx+0x52>
HIDDEN _sk_store_u16_be_avx
.globl _sk_store_u16_be_avx
@@ -22107,9 +23110,9 @@ _sk_store_u16_be_avx:
.byte 76,3,8 // add (%rax),%r9
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,171,55,2,0 // vbroadcastss 0x237ab(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,151,62,2,0 // vbroadcastss 0x23e97(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,185,56,2,0 // vbroadcastss 0x238b9(%rip),%ymm11 # 3a4c8 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 196,98,125,24,29,181,63,2,0 // vbroadcastss 0x23fb5(%rip),%ymm11 # 3ba7c <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
.byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm12
@@ -22153,7 +23156,7 @@ _sk_store_u16_be_avx:
.byte 196,65,25,98,200 // vpunpckldq %xmm8,%xmm12,%xmm9
.byte 196,65,25,106,192 // vpunpckhdq %xmm8,%xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 16d0e <_sk_store_u16_be_avx+0x137>
+ .byte 117,31 // jne 17bc6 <_sk_store_u16_be_avx+0x137>
.byte 196,1,122,127,28,65 // vmovdqu %xmm11,(%r9,%r8,2)
.byte 196,1,122,127,84,65,16 // vmovdqu %xmm10,0x10(%r9,%r8,2)
.byte 196,1,122,127,76,65,32 // vmovdqu %xmm9,0x20(%r9,%r8,2)
@@ -22162,22 +23165,22 @@ _sk_store_u16_be_avx:
.byte 255,224 // jmpq *%rax
.byte 196,1,121,214,28,65 // vmovq %xmm11,(%r9,%r8,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 16d0a <_sk_store_u16_be_avx+0x133>
+ .byte 116,240 // je 17bc2 <_sk_store_u16_be_avx+0x133>
.byte 196,1,121,23,92,65,8 // vmovhpd %xmm11,0x8(%r9,%r8,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 16d0a <_sk_store_u16_be_avx+0x133>
+ .byte 114,227 // jb 17bc2 <_sk_store_u16_be_avx+0x133>
.byte 196,1,121,214,84,65,16 // vmovq %xmm10,0x10(%r9,%r8,2)
- .byte 116,218 // je 16d0a <_sk_store_u16_be_avx+0x133>
+ .byte 116,218 // je 17bc2 <_sk_store_u16_be_avx+0x133>
.byte 196,1,121,23,84,65,24 // vmovhpd %xmm10,0x18(%r9,%r8,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 16d0a <_sk_store_u16_be_avx+0x133>
+ .byte 114,205 // jb 17bc2 <_sk_store_u16_be_avx+0x133>
.byte 196,1,121,214,76,65,32 // vmovq %xmm9,0x20(%r9,%r8,2)
- .byte 116,196 // je 16d0a <_sk_store_u16_be_avx+0x133>
+ .byte 116,196 // je 17bc2 <_sk_store_u16_be_avx+0x133>
.byte 196,1,121,23,76,65,40 // vmovhpd %xmm9,0x28(%r9,%r8,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 16d0a <_sk_store_u16_be_avx+0x133>
+ .byte 114,183 // jb 17bc2 <_sk_store_u16_be_avx+0x133>
.byte 196,1,121,214,68,65,48 // vmovq %xmm8,0x30(%r9,%r8,2)
- .byte 235,174 // jmp 16d0a <_sk_store_u16_be_avx+0x133>
+ .byte 235,174 // jmp 17bc2 <_sk_store_u16_be_avx+0x133>
HIDDEN _sk_load_f32_avx
.globl _sk_load_f32_avx
@@ -22186,7 +23189,7 @@ _sk_load_f32_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,91,1,0,0 // ja 16ec7 <_sk_load_f32_avx+0x16b>
+ .byte 15,135,91,1,0,0 // ja 17d7f <_sk_load_f32_avx+0x16b>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
.byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
@@ -22197,7 +23200,7 @@ _sk_load_f32_avx:
.byte 76,15,175,201 // imul %rcx,%r9
.byte 73,193,225,2 // shl $0x2,%r9
.byte 76,3,8 // add (%rax),%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # 16ed8 <_sk_load_f32_avx+0x17c>
+ .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # 17d90 <_sk_load_f32_avx+0x17c>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
@@ -22260,7 +23263,7 @@ _sk_load_f32_avx:
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp 16ea1 <_sk_load_f32_avx+0x145>
+ .byte 235,203 // jmp 17d59 <_sk_load_f32_avx+0x145>
.byte 102,144 // xchg %ax,%ax
.byte 27,255 // sbb %edi,%edi
.byte 255 // (bad)
@@ -22272,7 +23275,7 @@ _sk_load_f32_avx:
.byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
.byte 255,70,255 // incl -0x1(%rsi)
.byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 29016ef4 <_sk_srcover_bgra_8888_sse2_lowp+0x28fdcdf8>
+ .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 29017dac <_sk_srcover_bgra_8888_sse2_lowp+0x28fdc70c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -22284,7 +23287,7 @@ _sk_load_f32_dst_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,91,1,0,0 // ja 17063 <_sk_load_f32_dst_avx+0x16b>
+ .byte 15,135,91,1,0,0 // ja 17f1b <_sk_load_f32_dst_avx+0x16b>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
.byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
@@ -22295,7 +23298,7 @@ _sk_load_f32_dst_avx:
.byte 76,15,175,201 // imul %rcx,%r9
.byte 73,193,225,2 // shl $0x2,%r9
.byte 76,3,8 // add (%rax),%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # 17074 <_sk_load_f32_dst_avx+0x17c>
+ .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # 17f2c <_sk_load_f32_dst_avx+0x17c>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
@@ -22358,7 +23361,7 @@ _sk_load_f32_dst_avx:
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp 1703d <_sk_load_f32_dst_avx+0x145>
+ .byte 235,203 // jmp 17ef5 <_sk_load_f32_dst_avx+0x145>
.byte 102,144 // xchg %ax,%ax
.byte 27,255 // sbb %edi,%edi
.byte 255 // (bad)
@@ -22370,7 +23373,7 @@ _sk_load_f32_dst_avx:
.byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
.byte 255,70,255 // incl -0x1(%rsi)
.byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 29017090 <_sk_srcover_bgra_8888_sse2_lowp+0x28fdcf94>
+ .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 29017f48 <_sk_srcover_bgra_8888_sse2_lowp+0x28fdc8a8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -22394,7 +23397,7 @@ _sk_store_f32_avx:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne 1710d <_sk_store_f32_avx+0x79>
+ .byte 117,55 // jne 17fc5 <_sk_store_f32_avx+0x79>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -22407,22 +23410,22 @@ _sk_store_f32_avx:
.byte 255,224 // jmpq *%rax
.byte 196,1,121,17,20,129 // vmovupd %xmm10,(%r9,%r8,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 17109 <_sk_store_f32_avx+0x75>
+ .byte 116,240 // je 17fc1 <_sk_store_f32_avx+0x75>
.byte 196,1,121,17,76,129,16 // vmovupd %xmm9,0x10(%r9,%r8,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 17109 <_sk_store_f32_avx+0x75>
+ .byte 114,227 // jb 17fc1 <_sk_store_f32_avx+0x75>
.byte 196,1,121,17,68,129,32 // vmovupd %xmm8,0x20(%r9,%r8,4)
- .byte 116,218 // je 17109 <_sk_store_f32_avx+0x75>
+ .byte 116,218 // je 17fc1 <_sk_store_f32_avx+0x75>
.byte 196,1,121,17,92,129,48 // vmovupd %xmm11,0x30(%r9,%r8,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 17109 <_sk_store_f32_avx+0x75>
+ .byte 114,205 // jb 17fc1 <_sk_store_f32_avx+0x75>
.byte 196,3,125,25,84,129,64,1 // vextractf128 $0x1,%ymm10,0x40(%r9,%r8,4)
- .byte 116,195 // je 17109 <_sk_store_f32_avx+0x75>
+ .byte 116,195 // je 17fc1 <_sk_store_f32_avx+0x75>
.byte 196,3,125,25,76,129,80,1 // vextractf128 $0x1,%ymm9,0x50(%r9,%r8,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb 17109 <_sk_store_f32_avx+0x75>
+ .byte 114,181 // jb 17fc1 <_sk_store_f32_avx+0x75>
.byte 196,3,125,25,68,129,96,1 // vextractf128 $0x1,%ymm8,0x60(%r9,%r8,4)
- .byte 235,171 // jmp 17109 <_sk_store_f32_avx+0x75>
+ .byte 235,171 // jmp 17fc1 <_sk_store_f32_avx+0x75>
HIDDEN _sk_repeat_x_avx
.globl _sk_repeat_x_avx
@@ -22465,7 +23468,7 @@ _sk_mirror_x_avx:
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,99,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm8
- .byte 197,178,89,5,203,49,2,0 // vmulss 0x231cb(%rip),%xmm9,%xmm0 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,5,183,56,2,0 // vmulss 0x238b7(%rip),%xmm9,%xmm0 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
@@ -22492,7 +23495,7 @@ _sk_mirror_y_avx:
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,99,117,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm8
- .byte 197,178,89,13,97,49,2,0 // vmulss 0x23161(%rip),%xmm9,%xmm1 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,13,77,56,2,0 // vmulss 0x2384d(%rip),%xmm9,%xmm1 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
@@ -22512,7 +23515,7 @@ FUNCTION(_sk_clamp_x_1_avx)
_sk_clamp_x_1_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,30,49,2,0 // vbroadcastss 0x2311e(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,10,56,2,0 // vbroadcastss 0x2380a(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22525,7 +23528,7 @@ _sk_repeat_x_1_avx:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,248,48,2,0 // vbroadcastss 0x230f8(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,228,55,2,0 // vbroadcastss 0x237e4(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22534,9 +23537,9 @@ HIDDEN _sk_mirror_x_1_avx
.globl _sk_mirror_x_1_avx
FUNCTION(_sk_mirror_x_1_avx)
_sk_mirror_x_1_avx:
- .byte 196,98,125,24,5,254,48,2,0 // vbroadcastss 0x230fe(%rip),%ymm8 # 3a3c4 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,234,55,2,0 // vbroadcastss 0x237ea(%rip),%ymm8 # 3b968 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,212,48,2,0 // vbroadcastss 0x230d4(%rip),%ymm9 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,192,55,2,0 // vbroadcastss 0x237c0(%rip),%ymm9 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -22546,7 +23549,7 @@ _sk_mirror_x_1_avx:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,164,48,2,0 // vbroadcastss 0x230a4(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,144,55,2,0 // vbroadcastss 0x23790(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22555,12 +23558,12 @@ HIDDEN _sk_luminance_to_alpha_avx
.globl _sk_luminance_to_alpha_avx
FUNCTION(_sk_luminance_to_alpha_avx)
_sk_luminance_to_alpha_avx:
- .byte 196,226,125,24,29,182,49,2,0 // vbroadcastss 0x231b6(%rip),%ymm3 # 3a4d0 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
+ .byte 196,226,125,24,29,178,56,2,0 // vbroadcastss 0x238b2(%rip),%ymm3 # 3ba84 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,29,165,49,2,0 // vbroadcastss 0x231a5(%rip),%ymm3 # 3a4cc <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 196,226,125,24,29,161,56,2,0 // vbroadcastss 0x238a1(%rip),%ymm3 # 3ba80 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,156,49,2,0 // vbroadcastss 0x2319c(%rip),%ymm1 # 3a4d4 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
+ .byte 196,226,125,24,13,152,56,2,0 // vbroadcastss 0x23898(%rip),%ymm1 # 3ba88 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
.byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1
.byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22808,9 +23811,9 @@ _sk_evenly_spaced_gradient_avx:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 176dc <_sk_evenly_spaced_gradient_avx+0x25>
+ .byte 120,7 // js 18594 <_sk_evenly_spaced_gradient_avx+0x25>
.byte 196,225,242,42,203 // vcvtsi2ss %rbx,%xmm1,%xmm1
- .byte 235,21 // jmp 176f1 <_sk_evenly_spaced_gradient_avx+0x3a>
+ .byte 235,21 // jmp 185a9 <_sk_evenly_spaced_gradient_avx+0x3a>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -22978,12 +23981,12 @@ _sk_gradient_avx:
.byte 76,139,0 // mov (%rax),%r8
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,81 // jb 17a8b <_sk_gradient_avx+0x6f>
+ .byte 114,81 // jb 18943 <_sk_gradient_avx+0x6f>
.byte 72,139,88,72 // mov 0x48(%rax),%rbx
.byte 73,255,200 // dec %r8
.byte 72,131,195,4 // add $0x4,%rbx
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,98,125,24,21,93,41,2,0 // vbroadcastss 0x2295d(%rip),%ymm10 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,24,21,73,48,2,0 // vbroadcastss 0x23049(%rip),%ymm10 # 3b954 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,98,125,24,3 // vbroadcastss (%rbx),%ymm8
.byte 197,60,194,192,2 // vcmpleps %ymm0,%ymm8,%ymm8
@@ -22995,7 +23998,7 @@ _sk_gradient_avx:
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
.byte 72,131,195,4 // add $0x4,%rbx
.byte 73,255,200 // dec %r8
- .byte 117,204 // jne 17a57 <_sk_gradient_avx+0x3b>
+ .byte 117,204 // jne 1890f <_sk_gradient_avx+0x3b>
.byte 196,195,249,22,200,1 // vpextrq $0x1,%xmm1,%r8
.byte 69,137,193 // mov %r8d,%r9d
.byte 73,193,232,32 // shr $0x20,%r8
@@ -23177,27 +24180,27 @@ _sk_xy_to_unit_angle_avx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,119,38,2,0 // vbroadcastss 0x22677(%rip),%ymm13 # 3a4d8 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
+ .byte 196,98,125,24,45,115,45,2,0 // vbroadcastss 0x22d73(%rip),%ymm13 # 3ba8c <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,109,38,2,0 // vbroadcastss 0x2266d(%rip),%ymm14 # 3a4dc <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 196,98,125,24,53,105,45,2,0 // vbroadcastss 0x22d69(%rip),%ymm14 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,94,38,2,0 // vbroadcastss 0x2265e(%rip),%ymm14 # 3a4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 196,98,125,24,53,90,45,2,0 // vbroadcastss 0x22d5a(%rip),%ymm14 # 3ba94 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
- .byte 196,98,125,24,45,79,38,2,0 // vbroadcastss 0x2264f(%rip),%ymm13 # 3a4e4 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,45,75,45,2,0 // vbroadcastss 0x22d4b(%rip),%ymm13 # 3ba98 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,58,38,2,0 // vbroadcastss 0x2263a(%rip),%ymm10 # 3a4e8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,21,54,45,2,0 // vbroadcastss 0x22d36(%rip),%ymm10 # 3ba9c <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,224,36,2,0 // vbroadcastss 0x224e0(%rip),%ymm10 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,204,43,2,0 // vbroadcastss 0x22bcc(%rip),%ymm10 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,202,36,2,0 // vbroadcastss 0x224ca(%rip),%ymm10 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,182,43,2,0 // vbroadcastss 0x22bb6(%rip),%ymm10 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -23220,7 +24223,7 @@ HIDDEN _sk_negate_x_avx
.globl _sk_negate_x_avx
FUNCTION(_sk_negate_x_avx)
_sk_negate_x_avx:
- .byte 196,98,125,24,5,210,37,2,0 // vbroadcastss 0x225d2(%rip),%ymm8 # 3a4ec <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,5,206,44,2,0 // vbroadcastss 0x22cce(%rip),%ymm8 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -23287,7 +24290,7 @@ _sk_xy_to_2pt_conical_smaller_avx:
.byte 197,116,89,201 // vmulps %ymm1,%ymm1,%ymm9
.byte 196,65,60,92,193 // vsubps %ymm9,%ymm8,%ymm8
.byte 196,65,124,81,192 // vsqrtps %ymm8,%ymm8
- .byte 196,98,125,24,13,50,37,2,0 // vbroadcastss 0x22532(%rip),%ymm9 # 3a4ec <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,13,46,44,2,0 // vbroadcastss 0x22c2e(%rip),%ymm9 # 3baa0 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 196,65,60,87,193 // vxorps %ymm9,%ymm8,%ymm8
.byte 196,98,125,24,72,64 // vbroadcastss 0x40(%rax),%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
@@ -23309,7 +24312,7 @@ HIDDEN _sk_alter_2pt_conical_unswap_avx
.globl _sk_alter_2pt_conical_unswap_avx
FUNCTION(_sk_alter_2pt_conical_unswap_avx)
_sk_alter_2pt_conical_unswap_avx:
- .byte 196,98,125,24,5,194,35,2,0 // vbroadcastss 0x223c2(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,174,42,2,0 // vbroadcastss 0x22aae(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -23360,7 +24363,7 @@ HIDDEN _sk_save_xy_avx
FUNCTION(_sk_save_xy_avx)
_sk_save_xy_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,68,35,2,0 // vbroadcastss 0x22344(%rip),%ymm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,48,42,2,0 // vbroadcastss 0x22a30(%rip),%ymm8 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -23397,9 +24400,9 @@ HIDDEN _sk_bilinear_nx_avx
FUNCTION(_sk_bilinear_nx_avx)
_sk_bilinear_nx_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,14,36,2,0 // vbroadcastss 0x2240e(%rip),%ymm0 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,226,125,24,5,10,43,2,0 // vbroadcastss 0x22b0a(%rip),%ymm0 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,189,34,2,0 // vbroadcastss 0x222bd(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,169,41,2,0 // vbroadcastss 0x229a9(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23410,7 +24413,7 @@ HIDDEN _sk_bilinear_px_avx
FUNCTION(_sk_bilinear_px_avx)
_sk_bilinear_px_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,154,34,2,0 // vbroadcastss 0x2229a(%rip),%ymm0 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,134,41,2,0 // vbroadcastss 0x22986(%rip),%ymm0 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -23422,9 +24425,9 @@ HIDDEN _sk_bilinear_ny_avx
FUNCTION(_sk_bilinear_ny_avx)
_sk_bilinear_ny_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,191,35,2,0 // vbroadcastss 0x223bf(%rip),%ymm1 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,226,125,24,13,187,42,2,0 // vbroadcastss 0x22abb(%rip),%ymm1 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,109,34,2,0 // vbroadcastss 0x2226d(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,89,41,2,0 // vbroadcastss 0x22959(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23435,7 +24438,7 @@ HIDDEN _sk_bilinear_py_avx
FUNCTION(_sk_bilinear_py_avx)
_sk_bilinear_py_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,74,34,2,0 // vbroadcastss 0x2224a(%rip),%ymm1 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,13,54,41,2,0 // vbroadcastss 0x22936(%rip),%ymm1 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -23447,14 +24450,14 @@ HIDDEN _sk_bicubic_n3x_avx
FUNCTION(_sk_bicubic_n3x_avx)
_sk_bicubic_n3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,114,35,2,0 // vbroadcastss 0x22372(%rip),%ymm0 # 3a4f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,226,125,24,5,110,42,2,0 // vbroadcastss 0x22a6e(%rip),%ymm0 # 3baa8 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,29,34,2,0 // vbroadcastss 0x2221d(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,9,41,2,0 // vbroadcastss 0x22909(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,83,35,2,0 // vbroadcastss 0x22353(%rip),%ymm10 # 3a4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,21,79,42,2,0 // vbroadcastss 0x22a4f(%rip),%ymm10 # 3baac <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,109,34,2,0 // vbroadcastss 0x2226d(%rip),%ymm10 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,89,41,2,0 // vbroadcastss 0x22959(%rip),%ymm10 # 3b9c4 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -23466,19 +24469,19 @@ HIDDEN _sk_bicubic_n1x_avx
FUNCTION(_sk_bicubic_n1x_avx)
_sk_bicubic_n1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,28,35,2,0 // vbroadcastss 0x2231c(%rip),%ymm0 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,226,125,24,5,24,42,2,0 // vbroadcastss 0x22a18(%rip),%ymm0 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,203,33,2,0 // vbroadcastss 0x221cb(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,183,40,2,0 // vbroadcastss 0x228b7(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,10,35,2,0 // vbroadcastss 0x2230a(%rip),%ymm9 # 3a4fc <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,98,125,24,13,6,42,2,0 // vbroadcastss 0x22a06(%rip),%ymm9 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,0,35,2,0 // vbroadcastss 0x22300(%rip),%ymm10 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,252,41,2,0 // vbroadcastss 0x229fc(%rip),%ymm10 # 3bab4 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,149,33,2,0 // vbroadcastss 0x22195(%rip),%ymm10 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,129,40,2,0 // vbroadcastss 0x22881(%rip),%ymm10 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,222,34,2,0 // vbroadcastss 0x222de(%rip),%ymm9 # 3a504 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,218,41,2,0 // vbroadcastss 0x229da(%rip),%ymm9 # 3bab8 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23489,17 +24492,17 @@ HIDDEN _sk_bicubic_p1x_avx
FUNCTION(_sk_bicubic_p1x_avx)
_sk_bicubic_p1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,102,33,2,0 // vbroadcastss 0x22166(%rip),%ymm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,82,40,2,0 // vbroadcastss 0x22852(%rip),%ymm8 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,165,34,2,0 // vbroadcastss 0x222a5(%rip),%ymm10 # 3a4fc <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,98,125,24,21,161,41,2,0 // vbroadcastss 0x229a1(%rip),%ymm10 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,155,34,2,0 // vbroadcastss 0x2229b(%rip),%ymm11 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,29,151,41,2,0 // vbroadcastss 0x22997(%rip),%ymm11 # 3bab4 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,130,34,2,0 // vbroadcastss 0x22282(%rip),%ymm9 # 3a504 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,126,41,2,0 // vbroadcastss 0x2297e(%rip),%ymm9 # 3bab8 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23510,13 +24513,13 @@ HIDDEN _sk_bicubic_p3x_avx
FUNCTION(_sk_bicubic_p3x_avx)
_sk_bicubic_p3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,98,34,2,0 // vbroadcastss 0x22262(%rip),%ymm0 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,226,125,24,5,94,41,2,0 // vbroadcastss 0x2295e(%rip),%ymm0 # 3bab4 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,64,34,2,0 // vbroadcastss 0x22240(%rip),%ymm10 # 3a4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,21,60,41,2,0 // vbroadcastss 0x2293c(%rip),%ymm10 # 3baac <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,90,33,2,0 // vbroadcastss 0x2215a(%rip),%ymm10 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,70,40,2,0 // vbroadcastss 0x22846(%rip),%ymm10 # 3b9c4 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -23528,14 +24531,14 @@ HIDDEN _sk_bicubic_n3y_avx
FUNCTION(_sk_bicubic_n3y_avx)
_sk_bicubic_n3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,13,34,2,0 // vbroadcastss 0x2220d(%rip),%ymm1 # 3a4f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,226,125,24,13,9,41,2,0 // vbroadcastss 0x22909(%rip),%ymm1 # 3baa8 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,183,32,2,0 // vbroadcastss 0x220b7(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,163,39,2,0 // vbroadcastss 0x227a3(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,237,33,2,0 // vbroadcastss 0x221ed(%rip),%ymm10 # 3a4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,21,233,40,2,0 // vbroadcastss 0x228e9(%rip),%ymm10 # 3baac <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,7,33,2,0 // vbroadcastss 0x22107(%rip),%ymm10 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,243,39,2,0 // vbroadcastss 0x227f3(%rip),%ymm10 # 3b9c4 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -23547,19 +24550,19 @@ HIDDEN _sk_bicubic_n1y_avx
FUNCTION(_sk_bicubic_n1y_avx)
_sk_bicubic_n1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,182,33,2,0 // vbroadcastss 0x221b6(%rip),%ymm1 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,226,125,24,13,178,40,2,0 // vbroadcastss 0x228b2(%rip),%ymm1 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,100,32,2,0 // vbroadcastss 0x22064(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,80,39,2,0 // vbroadcastss 0x22750(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,163,33,2,0 // vbroadcastss 0x221a3(%rip),%ymm9 # 3a4fc <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,98,125,24,13,159,40,2,0 // vbroadcastss 0x2289f(%rip),%ymm9 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,153,33,2,0 // vbroadcastss 0x22199(%rip),%ymm10 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,149,40,2,0 // vbroadcastss 0x22895(%rip),%ymm10 # 3bab4 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,46,32,2,0 // vbroadcastss 0x2202e(%rip),%ymm10 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,26,39,2,0 // vbroadcastss 0x2271a(%rip),%ymm10 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,119,33,2,0 // vbroadcastss 0x22177(%rip),%ymm9 # 3a504 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,115,40,2,0 // vbroadcastss 0x22873(%rip),%ymm9 # 3bab8 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23570,17 +24573,17 @@ HIDDEN _sk_bicubic_p1y_avx
FUNCTION(_sk_bicubic_p1y_avx)
_sk_bicubic_p1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,255,31,2,0 // vbroadcastss 0x21fff(%rip),%ymm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,235,38,2,0 // vbroadcastss 0x226eb(%rip),%ymm8 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
.byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,61,33,2,0 // vbroadcastss 0x2213d(%rip),%ymm10 # 3a4fc <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,98,125,24,21,57,40,2,0 // vbroadcastss 0x22839(%rip),%ymm10 # 3bab0 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,51,33,2,0 // vbroadcastss 0x22133(%rip),%ymm11 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,29,47,40,2,0 // vbroadcastss 0x2282f(%rip),%ymm11 # 3bab4 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,26,33,2,0 // vbroadcastss 0x2211a(%rip),%ymm9 # 3a504 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,22,40,2,0 // vbroadcastss 0x22816(%rip),%ymm9 # 3bab8 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23591,13 +24594,13 @@ HIDDEN _sk_bicubic_p3y_avx
FUNCTION(_sk_bicubic_p3y_avx)
_sk_bicubic_p3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,250,32,2,0 // vbroadcastss 0x220fa(%rip),%ymm1 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,226,125,24,13,246,39,2,0 // vbroadcastss 0x227f6(%rip),%ymm1 # 3bab4 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,215,32,2,0 // vbroadcastss 0x220d7(%rip),%ymm10 # 3a4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,21,211,39,2,0 // vbroadcastss 0x227d3(%rip),%ymm10 # 3baac <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,241,31,2,0 // vbroadcastss 0x21ff1(%rip),%ymm10 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,221,38,2,0 // vbroadcastss 0x226dd(%rip),%ymm10 # 3b9c4 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -23745,7 +24748,7 @@ _sk_clut_3D_avx:
.byte 72,139,0 // mov (%rax),%rax
.byte 197,217,254,207 // vpaddd %xmm7,%xmm4,%xmm1
.byte 197,249,254,193 // vpaddd %xmm1,%xmm0,%xmm0
- .byte 196,226,121,24,37,111,30,2,0 // vbroadcastss 0x21e6f(%rip),%xmm4 # 3a50c <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,226,121,24,37,107,37,2,0 // vbroadcastss 0x2256b(%rip),%xmm4 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
.byte 196,98,121,64,228 // vpmulld %xmm4,%xmm0,%xmm12
.byte 196,226,49,64,198 // vpmulld %xmm6,%xmm9,%xmm0
.byte 197,249,127,132,36,128,0,0,0 // vmovdqa %xmm0,0x80(%rsp)
@@ -23799,7 +24802,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,240,27,2,0 // vbroadcastss 0x21bf0(%rip),%xmm10 # 3a3b8 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,121,24,21,220,34,2,0 // vbroadcastss 0x222dc(%rip),%xmm10 # 3b95c <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2
.byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
.byte 196,193,249,126,209 // vmovq %xmm2,%r9
@@ -23827,7 +24830,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
- .byte 196,226,125,24,61,172,28,2,0 // vbroadcastss 0x21cac(%rip),%ymm7 # 3a508 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,61,168,35,2,0 // vbroadcastss 0x223a8(%rip),%ymm7 # 3babc <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
.byte 197,148,88,247 // vaddps %ymm7,%ymm13,%ymm6
.byte 197,124,40,231 // vmovaps %ymm7,%ymm12
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
@@ -24570,7 +25573,7 @@ _sk_clut_4D_avx:
.byte 197,249,127,68,36,32 // vmovdqa %xmm0,0x20(%rsp)
.byte 197,225,254,216 // vpaddd %xmm0,%xmm3,%xmm3
.byte 197,233,254,195 // vpaddd %xmm3,%xmm2,%xmm0
- .byte 196,98,121,24,13,112,13,2,0 // vbroadcastss 0x20d70(%rip),%xmm9 # 3a50c <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,121,24,13,108,20,2,0 // vbroadcastss 0x2146c(%rip),%xmm9 # 3bac0 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
.byte 196,194,121,64,209 // vpmulld %xmm9,%xmm0,%xmm2
.byte 196,226,81,64,199 // vpmulld %xmm7,%xmm5,%xmm0
.byte 197,249,127,132,36,96,1,0,0 // vmovdqa %xmm0,0x160(%rsp)
@@ -24627,7 +25630,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,225,10,2,0 // vbroadcastss 0x20ae1(%rip),%xmm10 # 3a3b8 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,121,24,21,205,17,2,0 // vbroadcastss 0x211cd(%rip),%xmm10 # 3b95c <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0
.byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
.byte 196,193,249,126,193 // vmovq %xmm0,%r9
@@ -24655,7 +25658,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
.byte 196,227,105,33,214,48 // vinsertps $0x30,%xmm6,%xmm2,%xmm2
.byte 196,227,109,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm2
- .byte 196,98,125,24,37,157,11,2,0 // vbroadcastss 0x20b9d(%rip),%ymm12 # 3a508 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,37,153,18,2,0 // vbroadcastss 0x21299(%rip),%ymm12 # 3babc <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
.byte 196,193,4,88,196 // vaddps %ymm12,%ymm15,%ymm0
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
@@ -26053,7 +27056,7 @@ _sk_clut_4D_avx:
.byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
.byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,2,237,1,0 // vbroadcastss 0x1ed02(%rip),%ymm3 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,238,243,1,0 // vbroadcastss 0x1f3ee(%rip),%ymm3 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,16,164,36,64,2,0,0 // vmovups 0x240(%rsp),%ymm4
.byte 197,252,16,172,36,96,2,0,0 // vmovups 0x260(%rsp),%ymm5
.byte 197,252,16,180,36,128,2,0,0 // vmovups 0x280(%rsp),%ymm6
@@ -26069,18 +27072,18 @@ HIDDEN _sk_gauss_a_to_rgba_avx
.globl _sk_gauss_a_to_rgba_avx
FUNCTION(_sk_gauss_a_to_rgba_avx)
_sk_gauss_a_to_rgba_avx:
- .byte 196,226,125,24,5,41,238,1,0 // vbroadcastss 0x1ee29(%rip),%ymm0 # 3a510 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,226,125,24,5,37,245,1,0 // vbroadcastss 0x1f525(%rip),%ymm0 # 3bac4 <_sk_srcover_bgra_8888_sse2_lowp+0x424>
.byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 196,226,125,24,13,32,238,1,0 // vbroadcastss 0x1ee20(%rip),%ymm1 # 3a514 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 196,226,125,24,13,28,245,1,0 // vbroadcastss 0x1f51c(%rip),%ymm1 # 3bac8 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,19,238,1,0 // vbroadcastss 0x1ee13(%rip),%ymm1 # 3a518 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
+ .byte 196,226,125,24,13,15,245,1,0 // vbroadcastss 0x1f50f(%rip),%ymm1 # 3bacc <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,6,238,1,0 // vbroadcastss 0x1ee06(%rip),%ymm1 # 3a51c <_sk_srcover_bgra_8888_sse2_lowp+0x420>
+ .byte 196,226,125,24,13,2,245,1,0 // vbroadcastss 0x1f502(%rip),%ymm1 # 3bad0 <_sk_srcover_bgra_8888_sse2_lowp+0x430>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,249,237,1,0 // vbroadcastss 0x1edf9(%rip),%ymm1 # 3a520 <_sk_srcover_bgra_8888_sse2_lowp+0x424>
+ .byte 196,226,125,24,13,245,244,1,0 // vbroadcastss 0x1f4f5(%rip),%ymm1 # 3bad4 <_sk_srcover_bgra_8888_sse2_lowp+0x434>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -26102,7 +27105,7 @@ _sk_bilerp_clamp_8888_avx:
.byte 197,252,17,108,36,224 // vmovups %ymm5,-0x20(%rsp)
.byte 197,252,17,100,36,192 // vmovups %ymm4,-0x40(%rsp)
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,61,236,1,0 // vbroadcastss 0x1ec3d(%rip),%ymm3 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,29,41,243,1,0 // vbroadcastss 0x1f329(%rip),%ymm3 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,17,132,36,64,1,0,0 // vmovups %ymm0,0x140(%rsp)
.byte 197,252,88,195 // vaddps %ymm3,%ymm0,%ymm0
.byte 196,227,125,8,208,1 // vroundps $0x1,%ymm0,%ymm2
@@ -26111,7 +27114,7 @@ _sk_bilerp_clamp_8888_avx:
.byte 197,244,88,203 // vaddps %ymm3,%ymm1,%ymm1
.byte 196,227,125,8,209,1 // vroundps $0x1,%ymm1,%ymm2
.byte 197,244,92,210 // vsubps %ymm2,%ymm1,%ymm2
- .byte 196,226,125,24,13,10,236,1,0 // vbroadcastss 0x1ec0a(%rip),%ymm1 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,246,242,1,0 // vbroadcastss 0x1f2f6(%rip),%ymm1 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,17,132,36,32,1,0,0 // vmovups %ymm0,0x120(%rsp)
.byte 197,244,92,192 // vsubps %ymm0,%ymm1,%ymm0
.byte 197,252,17,132,36,224,0,0,0 // vmovups %ymm0,0xe0(%rsp)
@@ -26134,9 +27137,9 @@ _sk_bilerp_clamp_8888_avx:
.byte 76,139,0 // mov (%rax),%r8
.byte 196,226,125,24,64,8 // vbroadcastss 0x8(%rax),%ymm0
.byte 197,252,17,68,36,96 // vmovups %ymm0,0x60(%rsp)
- .byte 197,250,16,5,196,236,1,0 // vmovss 0x1ecc4(%rip),%xmm0 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
- .byte 197,124,40,53,108,242,1,0 // vmovaps 0x1f26c(%rip),%ymm14 # 3aaa0 <_sk_srcover_bgra_8888_sse2_lowp+0x9a4>
- .byte 196,98,125,24,45,231,235,1,0 // vbroadcastss 0x1ebe7(%rip),%ymm13 # 3a424 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 197,250,16,5,192,243,1,0 // vmovss 0x1f3c0(%rip),%xmm0 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 197,124,40,53,84,249,1,0 // vmovaps 0x1f954(%rip),%ymm14 # 3c040 <_sk_srcover_bgra_8888_sse2_lowp+0x9a0>
+ .byte 196,98,125,24,45,211,242,1,0 // vbroadcastss 0x1f2d3(%rip),%ymm13 # 3b9c8 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -26148,10 +27151,10 @@ _sk_bilerp_clamp_8888_avx:
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,252,95,201 // vmaxps %ymm1,%ymm0,%ymm1
.byte 197,248,41,100,36,144 // vmovaps %xmm4,-0x70(%rsp)
- .byte 197,248,46,37,174,236,1,0 // vucomiss 0x1ecae(%rip),%xmm4 # 3a52c <_sk_srcover_bgra_8888_sse2_lowp+0x430>
+ .byte 197,248,46,37,170,243,1,0 // vucomiss 0x1f3aa(%rip),%xmm4 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 197,252,16,132,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm0
.byte 197,252,17,68,36,160 // vmovups %ymm0,-0x60(%rsp)
- .byte 119,12 // ja 1b89b <_sk_bilerp_clamp_8888_avx+0x160>
+ .byte 119,12 // ja 1c753 <_sk_bilerp_clamp_8888_avx+0x160>
.byte 197,252,16,68,36,64 // vmovups 0x40(%rsp),%ymm0
.byte 197,252,17,68,36,160 // vmovups %ymm0,-0x60(%rsp)
.byte 197,244,93,140,36,128,0,0,0 // vminps 0x80(%rsp),%ymm1,%ymm1
@@ -26162,7 +27165,7 @@ _sk_bilerp_clamp_8888_avx:
.byte 196,226,73,64,237 // vpmulld %xmm5,%xmm6,%xmm5
.byte 196,226,121,64,201 // vpmulld %xmm1,%xmm0,%xmm1
.byte 196,99,117,24,253,1 // vinsertf128 $0x1,%xmm5,%ymm1,%ymm15
- .byte 197,122,16,37,30,236,1,0 // vmovss 0x1ec1e(%rip),%xmm12 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 197,122,16,37,26,243,1,0 // vmovss 0x1f31a(%rip),%xmm12 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,195,121,4,204,0 // vpermilps $0x0,%xmm12,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,244,88,140,36,64,1,0,0 // vaddps 0x140(%rsp),%ymm1,%ymm1
@@ -26215,9 +27218,9 @@ _sk_bilerp_clamp_8888_avx:
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,205 // vmulps %ymm13,%ymm0,%ymm1
- .byte 197,120,46,37,67,235,1,0 // vucomiss 0x1eb43(%rip),%xmm12 # 3a52c <_sk_srcover_bgra_8888_sse2_lowp+0x430>
+ .byte 197,120,46,37,63,242,1,0 // vucomiss 0x1f23f(%rip),%xmm12 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 197,124,16,148,36,32,1,0,0 // vmovups 0x120(%rsp),%ymm10
- .byte 119,9 // ja 1b9fd <_sk_bilerp_clamp_8888_avx+0x2c2>
+ .byte 119,9 // ja 1c8b5 <_sk_bilerp_clamp_8888_avx+0x2c2>
.byte 197,124,16,148,36,224,0,0,0 // vmovups 0xe0(%rsp),%ymm10
.byte 197,172,89,68,36,160 // vmulps -0x60(%rsp),%ymm10,%ymm0
.byte 197,252,89,230 // vmulps %ymm6,%ymm0,%ymm4
@@ -26228,15 +27231,15 @@ _sk_bilerp_clamp_8888_avx:
.byte 197,236,88,212 // vaddps %ymm4,%ymm2,%ymm2
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 197,228,88,216 // vaddps %ymm0,%ymm3,%ymm3
- .byte 197,26,88,37,128,233,1,0 // vaddss 0x1e980(%rip),%xmm12,%xmm12 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,250,16,5,116,233,1,0 // vmovss 0x1e974(%rip),%xmm0 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,26,88,37,108,240,1,0 // vaddss 0x1f06c(%rip),%xmm12,%xmm12 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 197,250,16,5,96,240,1,0 // vmovss 0x1f060(%rip),%xmm0 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,120,46,196 // vucomiss %xmm12,%xmm0
- .byte 15,131,147,254,255,255 // jae 1b8d2 <_sk_bilerp_clamp_8888_avx+0x197>
+ .byte 15,131,147,254,255,255 // jae 1c78a <_sk_bilerp_clamp_8888_avx+0x197>
.byte 197,248,40,100,36,144 // vmovaps -0x70(%rsp),%xmm4
- .byte 197,218,88,37,95,233,1,0 // vaddss 0x1e95f(%rip),%xmm4,%xmm4 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,250,16,5,83,233,1,0 // vmovss 0x1e953(%rip),%xmm0 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,218,88,37,75,240,1,0 // vaddss 0x1f04b(%rip),%xmm4,%xmm4 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 197,250,16,5,63,240,1,0 // vmovss 0x1f03f(%rip),%xmm0 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,248,46,196 // vucomiss %xmm4,%xmm0
- .byte 15,131,244,253,255,255 // jae 1b853 <_sk_bilerp_clamp_8888_avx+0x118>
+ .byte 15,131,244,253,255,255 // jae 1c70b <_sk_bilerp_clamp_8888_avx+0x118>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,124,41,200 // vmovaps %ymm9,%ymm0
.byte 197,124,41,193 // vmovaps %ymm8,%ymm1
@@ -26272,13 +27275,13 @@ _sk_start_pipeline_sse41:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 1bb46 <_sk_start_pipeline_sse41+0xb6>
+ .byte 15,131,131,0,0,0 // jae 1c9fe <_sk_start_pipeline_sse41+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,4 // lea 0x4(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 1bb14 <_sk_start_pipeline_sse41+0x84>
+ .byte 119,59 // ja 1c9cc <_sk_start_pipeline_sse41+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -26297,10 +27300,10 @@ _sk_start_pipeline_sse41:
.byte 73,131,196,8 // add $0x8,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 1badd <_sk_start_pipeline_sse41+0x4d>
+ .byte 118,201 // jbe 1c995 <_sk_start_pipeline_sse41+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 1bb3d <_sk_start_pipeline_sse41+0xad>
+ .byte 116,33 // je 1c9f5 <_sk_start_pipeline_sse41+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -26314,7 +27317,7 @@ _sk_start_pipeline_sse41:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 1bacf <_sk_start_pipeline_sse41+0x3f>
+ .byte 117,137 // jne 1c987 <_sk_start_pipeline_sse41+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -26343,9 +27346,9 @@ _sk_seed_shader_sse41:
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,35,242,1,0 // addps 0x1f223(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,88,13,11,249,1,0 // addps 0x1f90b(%rip),%xmm1 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,42,242,1,0 // movaps 0x1f22a(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,21,18,249,1,0 // movaps 0x1f912(%rip),%xmm2 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -26360,18 +27363,18 @@ _sk_dither_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,211,241,1,0 // paddd 0x1f1d3(%rip),%xmm8 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xc84>
+ .byte 102,68,15,254,5,187,248,1,0 // paddd 0x1f8bb(%rip),%xmm8 # 3c320 <_sk_srcover_bgra_8888_sse2_lowp+0xc80>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,250,241,1,0 // movdqa 0x1f1fa(%rip),%xmm10 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
+ .byte 102,68,15,111,21,226,248,1,0 // movdqa 0x1f8e2(%rip),%xmm10 # 3c360 <_sk_srcover_bgra_8888_sse2_lowp+0xcc0>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,230,241,1,0 // movdqa 0x1f1e6(%rip),%xmm12 # 3add0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd4>
- .byte 102,68,15,111,45,237,241,1,0 // movdqa 0x1f1ed(%rip),%xmm13 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,68,15,111,37,206,248,1,0 // movdqa 0x1f8ce(%rip),%xmm12 # 3c370 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,68,15,111,45,213,248,1,0 // movdqa 0x1f8d5(%rip),%xmm13 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -26387,8 +27390,8 @@ _sk_dither_sse41:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,168,241,1,0 // mulps 0x1f1a8(%rip),%xmm8 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 68,15,88,5,176,241,1,0 // addps 0x1f1b0(%rip),%xmm8 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xd04>
+ .byte 68,15,89,5,144,248,1,0 // mulps 0x1f890(%rip),%xmm8 # 3c390 <_sk_srcover_bgra_8888_sse2_lowp+0xcf0>
+ .byte 68,15,88,5,152,248,1,0 // addps 0x1f898(%rip),%xmm8 # 3c3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xd00>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -26430,7 +27433,7 @@ HIDDEN _sk_black_color_sse41
FUNCTION(_sk_black_color_sse41)
_sk_black_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,230,240,1,0 // movaps 0x1f0e6(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,29,206,247,1,0 // movaps 0x1f7ce(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -26441,7 +27444,7 @@ HIDDEN _sk_white_color_sse41
FUNCTION(_sk_white_color_sse41)
_sk_white_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,210,240,1,0 // movaps 0x1f0d2(%rip),%xmm0 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,5,186,247,1,0 // movaps 0x1f7ba(%rip),%xmm0 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -26487,7 +27490,7 @@ HIDDEN _sk_srcatop_sse41
FUNCTION(_sk_srcatop_sse41)
_sk_srcatop_sse41:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,130,240,1,0 // movaps 0x1f082(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,106,247,1,0 // movaps 0x1f76a(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -26512,7 +27515,7 @@ FUNCTION(_sk_dstatop_sse41)
_sk_dstatop_sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,53,240,1,0 // movaps 0x1f035(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,13,29,247,1,0 // movaps 0x1f71d(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -26559,7 +27562,7 @@ HIDDEN _sk_srcout_sse41
.globl _sk_srcout_sse41
FUNCTION(_sk_srcout_sse41)
_sk_srcout_sse41:
- .byte 68,15,40,5,201,239,1,0 // movaps 0x1efc9(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,177,246,1,0 // movaps 0x1f6b1(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -26572,7 +27575,7 @@ HIDDEN _sk_dstout_sse41
.globl _sk_dstout_sse41
FUNCTION(_sk_dstout_sse41)
_sk_dstout_sse41:
- .byte 68,15,40,5,169,239,1,0 // movaps 0x1efa9(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,145,246,1,0 // movaps 0x1f691(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -26589,7 +27592,7 @@ HIDDEN _sk_srcover_sse41
.globl _sk_srcover_sse41
FUNCTION(_sk_srcover_sse41)
_sk_srcover_sse41:
- .byte 68,15,40,5,124,239,1,0 // movaps 0x1ef7c(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,100,246,1,0 // movaps 0x1f664(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -26609,7 +27612,7 @@ HIDDEN _sk_dstover_sse41
.globl _sk_dstover_sse41
FUNCTION(_sk_dstover_sse41)
_sk_dstover_sse41:
- .byte 68,15,40,5,64,239,1,0 // movaps 0x1ef40(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,40,246,1,0 // movaps 0x1f628(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -26637,7 +27640,7 @@ HIDDEN _sk_multiply_sse41
.globl _sk_multiply_sse41
FUNCTION(_sk_multiply_sse41)
_sk_multiply_sse41:
- .byte 68,15,40,5,4,239,1,0 // movaps 0x1ef04(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,236,245,1,0 // movaps 0x1f5ec(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -26675,7 +27678,7 @@ HIDDEN _sk_plus__sse41
FUNCTION(_sk_plus__sse41)
_sk_plus__sse41:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,133,238,1,0 // movaps 0x1ee85(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,109,245,1,0 // movaps 0x1f56d(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -26717,7 +27720,7 @@ HIDDEN _sk_xor__sse41
FUNCTION(_sk_xor__sse41)
_sk_xor__sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,17,238,1,0 // movaps 0x1ee11(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,29,249,244,1,0 // movaps 0x1f4f9(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -26765,7 +27768,7 @@ _sk_darken_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,108,237,1,0 // movaps 0x1ed6c(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,21,84,244,1,0 // movaps 0x1f454(%rip),%xmm2 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -26799,7 +27802,7 @@ _sk_lighten_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,1,237,1,0 // movaps 0x1ed01(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,21,233,243,1,0 // movaps 0x1f3e9(%rip),%xmm2 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -26836,7 +27839,7 @@ _sk_difference_sse41:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,139,236,1,0 // movaps 0x1ec8b(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,21,115,243,1,0 // movaps 0x1f373(%rip),%xmm2 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -26864,7 +27867,7 @@ _sk_exclusion_sse41:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,59,236,1,0 // movaps 0x1ec3b(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,21,35,243,1,0 // movaps 0x1f323(%rip),%xmm2 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -26876,7 +27879,7 @@ HIDDEN _sk_colorburn_sse41
.globl _sk_colorburn_sse41
FUNCTION(_sk_colorburn_sse41)
_sk_colorburn_sse41:
- .byte 68,15,40,29,34,236,1,0 // movaps 0x1ec22(%rip),%xmm11 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,29,10,243,1,0 // movaps 0x1f30a(%rip),%xmm11 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 68,15,92,231 // subps %xmm7,%xmm12
.byte 69,15,40,204 // movaps %xmm12,%xmm9
@@ -26960,7 +27963,7 @@ HIDDEN _sk_colordodge_sse41
FUNCTION(_sk_colordodge_sse41)
_sk_colordodge_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,21,236,234,1,0 // movaps 0x1eaec(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,21,212,241,1,0 // movaps 0x1f1d4(%rip),%xmm10 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -27042,7 +28045,7 @@ _sk_hardlight_sse41:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,183,233,1,0 // movaps 0x1e9b7(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,21,159,240,1,0 // movaps 0x1f09f(%rip),%xmm10 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 65,15,40,234 // movaps %xmm10,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
@@ -27125,7 +28128,7 @@ FUNCTION(_sk_overlay_sse41)
_sk_overlay_sse41:
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,40,240 // movaps %xmm0,%xmm14
- .byte 68,15,40,21,140,232,1,0 // movaps 0x1e88c(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,21,116,239,1,0 // movaps 0x1ef74(%rip),%xmm10 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -27210,7 +28213,7 @@ _sk_softlight_sse41:
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 65,15,84,193 // andps %xmm9,%xmm0
- .byte 15,40,13,83,231,1,0 // movaps 0x1e753(%rip),%xmm1 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,13,59,238,1,0 // movaps 0x1ee3b(%rip),%xmm1 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 68,15,40,240 // movaps %xmm0,%xmm14
@@ -27223,10 +28226,10 @@ _sk_softlight_sse41:
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,210 // mulps %xmm2,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,40,45,129,231,1,0 // movaps 0x1e781(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xd14>
+ .byte 68,15,40,45,105,238,1,0 // movaps 0x1ee69(%rip),%xmm13 # 3c3b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd10>
.byte 69,15,88,245 // addps %xmm13,%xmm14
.byte 68,15,89,242 // mulps %xmm2,%xmm14
- .byte 68,15,40,37,129,231,1,0 // movaps 0x1e781(%rip),%xmm12 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xd24>
+ .byte 68,15,40,37,105,238,1,0 // movaps 0x1ee69(%rip),%xmm12 # 3c3c0 <_sk_srcover_bgra_8888_sse2_lowp+0xd20>
.byte 69,15,89,252 // mulps %xmm12,%xmm15
.byte 69,15,88,254 // addps %xmm14,%xmm15
.byte 15,40,198 // movaps %xmm6,%xmm0
@@ -27412,12 +28415,12 @@ _sk_hue_sse41:
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 15,84,200 // andps %xmm0,%xmm1
.byte 68,15,84,232 // andps %xmm0,%xmm13
- .byte 15,40,5,236,228,1,0 // movaps 0x1e4ec(%rip),%xmm0 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
+ .byte 15,40,5,212,235,1,0 // movaps 0x1ebd4(%rip),%xmm0 # 3c3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,21,241,228,1,0 // movaps 0x1e4f1(%rip),%xmm2 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
+ .byte 15,40,21,217,235,1,0 // movaps 0x1ebd9(%rip),%xmm2 # 3c3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd40>
.byte 15,89,250 // mulps %xmm2,%xmm7
.byte 65,15,88,252 // addps %xmm12,%xmm7
- .byte 68,15,40,53,242,228,1,0 // movaps 0x1e4f2(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,53,218,235,1,0 // movaps 0x1ebda(%rip),%xmm14 # 3c3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
.byte 68,15,40,252 // movaps %xmm4,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,255 // addps %xmm7,%xmm15
@@ -27500,7 +28503,7 @@ _sk_hue_sse41:
.byte 65,15,88,214 // addps %xmm14,%xmm2
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,40,13,6,227,1,0 // movaps 0x1e306(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,13,238,233,1,0 // movaps 0x1e9ee(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 65,15,40,225 // movaps %xmm9,%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,40,68,36,200 // movaps -0x38(%rsp),%xmm0
@@ -27594,14 +28597,14 @@ _sk_saturation_sse41:
.byte 68,15,84,215 // andps %xmm7,%xmm10
.byte 68,15,84,223 // andps %xmm7,%xmm11
.byte 68,15,84,199 // andps %xmm7,%xmm8
- .byte 15,40,21,48,226,1,0 // movaps 0x1e230(%rip),%xmm2 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
+ .byte 15,40,21,24,233,1,0 // movaps 0x1e918(%rip),%xmm2 # 3c3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,40,13,51,226,1,0 // movaps 0x1e233(%rip),%xmm1 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
+ .byte 15,40,13,27,233,1,0 // movaps 0x1e91b(%rip),%xmm1 # 3c3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd40>
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,249 // mulps %xmm1,%xmm7
.byte 15,88,251 // addps %xmm3,%xmm7
- .byte 68,15,40,45,50,226,1,0 // movaps 0x1e232(%rip),%xmm13 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,45,26,233,1,0 // movaps 0x1e91a(%rip),%xmm13 # 3c3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 68,15,88,247 // addps %xmm7,%xmm14
.byte 65,15,40,218 // movaps %xmm10,%xmm3
@@ -27682,7 +28685,7 @@ _sk_saturation_sse41:
.byte 65,15,88,253 // addps %xmm13,%xmm7
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 102,68,15,56,20,223 // blendvps %xmm0,%xmm7,%xmm11
- .byte 68,15,40,13,72,224,1,0 // movaps 0x1e048(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,13,48,231,1,0 // movaps 0x1e730(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 68,15,92,204 // subps %xmm4,%xmm9
.byte 15,40,124,36,168 // movaps -0x58(%rsp),%xmm7
@@ -27737,14 +28740,14 @@ _sk_color_sse41:
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 68,15,89,244 // mulps %xmm4,%xmm14
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 68,15,40,13,3,224,1,0 // movaps 0x1e003(%rip),%xmm9 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,13,235,230,1,0 // movaps 0x1e6eb(%rip),%xmm9 # 3c3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,89,249 // mulps %xmm9,%xmm7
- .byte 68,15,40,21,3,224,1,0 // movaps 0x1e003(%rip),%xmm10 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
+ .byte 68,15,40,21,235,230,1,0 // movaps 0x1e6eb(%rip),%xmm10 # 3c3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd40>
.byte 65,15,40,219 // movaps %xmm11,%xmm3
.byte 65,15,89,218 // mulps %xmm10,%xmm3
.byte 15,88,223 // addps %xmm7,%xmm3
- .byte 68,15,40,29,0,224,1,0 // movaps 0x1e000(%rip),%xmm11 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,29,232,230,1,0 // movaps 0x1e6e8(%rip),%xmm11 # 3c3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
@@ -27829,7 +28832,7 @@ _sk_color_sse41:
.byte 65,15,88,251 // addps %xmm11,%xmm7
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,15,56,20,207 // blendvps %xmm0,%xmm7,%xmm1
- .byte 68,15,40,13,12,222,1,0 // movaps 0x1de0c(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,13,244,228,1,0 // movaps 0x1e4f4(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 68,15,89,192 // mulps %xmm0,%xmm8
@@ -27881,13 +28884,13 @@ _sk_luminosity_sse41:
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,40,5,212,221,1,0 // movaps 0x1ddd4(%rip),%xmm8 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,5,188,228,1,0 // movaps 0x1e4bc(%rip),%xmm8 # 3c3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 68,15,40,21,216,221,1,0 // movaps 0x1ddd8(%rip),%xmm10 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
+ .byte 68,15,40,21,192,228,1,0 // movaps 0x1e4c0(%rip),%xmm10 # 3c3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd40>
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 65,15,89,234 // mulps %xmm10,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 68,15,40,37,214,221,1,0 // movaps 0x1ddd6(%rip),%xmm12 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,37,190,228,1,0 // movaps 0x1e4be(%rip),%xmm12 # 3c3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
.byte 68,15,40,242 // movaps %xmm2,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 68,15,88,245 // addps %xmm5,%xmm14
@@ -27972,7 +28975,7 @@ _sk_luminosity_sse41:
.byte 65,15,88,244 // addps %xmm12,%xmm6
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 102,68,15,56,20,206 // blendvps %xmm0,%xmm6,%xmm9
- .byte 15,40,5,220,219,1,0 // movaps 0x1dbdc(%rip),%xmm0 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,5,196,226,1,0 // movaps 0x1e2c4(%rip),%xmm0 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,92,215 // subps %xmm7,%xmm2
.byte 15,89,226 // mulps %xmm2,%xmm4
@@ -28016,24 +29019,24 @@ _sk_srcover_rgba_8888_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,0,1,0,0 // jne 1d360 <_sk_srcover_rgba_8888_sse41+0x11f>
+ .byte 15,133,0,1,0,0 // jne 1e218 <_sk_srcover_rgba_8888_sse41+0x11f>
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,239,219,1,0 // movdqa 0x1dbef(%rip),%xmm4 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,111,37,215,226,1,0 // movdqa 0x1e2d7(%rip),%xmm4 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 102,15,219,224 // pand %xmm0,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,56,0,45,235,219,1,0 // pshufb 0x1dbeb(%rip),%xmm5 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
+ .byte 102,15,56,0,45,211,226,1,0 // pshufb 0x1e2d3(%rip),%xmm5 # 3c410 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,56,0,53,235,219,1,0 // pshufb 0x1dbeb(%rip),%xmm6 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
+ .byte 102,15,56,0,53,211,226,1,0 // pshufb 0x1e2d3(%rip),%xmm6 # 3c420 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 102,15,114,208,24 // psrld $0x18,%xmm0
.byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
- .byte 68,15,40,5,4,219,1,0 // movaps 0x1db04(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,236,225,1,0 // movaps 0x1e1ec(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,216,219,1,0 // movaps 0x1dbd8(%rip),%xmm12 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,37,192,226,1,0 // movaps 0x1e2c0(%rip),%xmm12 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 69,15,89,204 // mulps %xmm12,%xmm9
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -28070,7 +29073,7 @@ _sk_srcover_rgba_8888_sse41:
.byte 102,15,114,241,24 // pslld $0x18,%xmm1
.byte 102,15,235,203 // por %xmm3,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 117,75 // jne 1d395 <_sk_srcover_rgba_8888_sse41+0x154>
+ .byte 117,75 // jne 1e24d <_sk_srcover_rgba_8888_sse41+0x154>
.byte 243,65,15,127,12,144 // movdqu %xmm1,(%r8,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,201 // movaps %xmm9,%xmm1
@@ -28080,32 +29083,32 @@ _sk_srcover_rgba_8888_sse41:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,78 // je 1d3b6 <_sk_srcover_rgba_8888_sse41+0x175>
+ .byte 116,78 // je 1e26e <_sk_srcover_rgba_8888_sse41+0x175>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 60,2 // cmp $0x2,%al
- .byte 116,20 // je 1d384 <_sk_srcover_rgba_8888_sse41+0x143>
+ .byte 116,20 // je 1e23c <_sk_srcover_rgba_8888_sse41+0x143>
.byte 60,3 // cmp $0x3,%al
- .byte 15,133,238,254,255,255 // jne 1d266 <_sk_srcover_rgba_8888_sse41+0x25>
+ .byte 15,133,238,254,255,255 // jne 1e11e <_sk_srcover_rgba_8888_sse41+0x25>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,15,58,14,196,15 // pblendw $0xf,%xmm4,%xmm0
- .byte 233,209,254,255,255 // jmpq 1d266 <_sk_srcover_rgba_8888_sse41+0x25>
+ .byte 233,209,254,255,255 // jmpq 1e11e <_sk_srcover_rgba_8888_sse41+0x25>
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,36 // je 1d3c1 <_sk_srcover_rgba_8888_sse41+0x180>
+ .byte 116,36 // je 1e279 <_sk_srcover_rgba_8888_sse41+0x180>
.byte 60,2 // cmp $0x2,%al
- .byte 116,13 // je 1d3ae <_sk_srcover_rgba_8888_sse41+0x16d>
+ .byte 116,13 // je 1e266 <_sk_srcover_rgba_8888_sse41+0x16d>
.byte 60,3 // cmp $0x3,%al
- .byte 117,171 // jne 1d350 <_sk_srcover_rgba_8888_sse41+0x10f>
+ .byte 117,171 // jne 1e208 <_sk_srcover_rgba_8888_sse41+0x10f>
.byte 102,65,15,58,22,76,144,8,2 // pextrd $0x2,%xmm1,0x8(%r8,%rdx,4)
.byte 102,65,15,214,12,144 // movq %xmm1,(%r8,%rdx,4)
- .byte 235,154 // jmp 1d350 <_sk_srcover_rgba_8888_sse41+0x10f>
+ .byte 235,154 // jmp 1e208 <_sk_srcover_rgba_8888_sse41+0x10f>
.byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
- .byte 233,165,254,255,255 // jmpq 1d266 <_sk_srcover_rgba_8888_sse41+0x25>
+ .byte 233,165,254,255,255 // jmpq 1e11e <_sk_srcover_rgba_8888_sse41+0x25>
.byte 102,65,15,126,12,144 // movd %xmm1,(%r8,%rdx,4)
- .byte 235,135 // jmp 1d350 <_sk_srcover_rgba_8888_sse41+0x10f>
+ .byte 235,135 // jmp 1e208 <_sk_srcover_rgba_8888_sse41+0x10f>
HIDDEN _sk_srcover_bgra_8888_sse41
.globl _sk_srcover_bgra_8888_sse41
@@ -28118,24 +29121,24 @@ _sk_srcover_bgra_8888_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,0,1,0,0 // jne 1d4e8 <_sk_srcover_bgra_8888_sse41+0x11f>
+ .byte 15,133,0,1,0,0 // jne 1e3a0 <_sk_srcover_bgra_8888_sse41+0x11f>
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,103,218,1,0 // movdqa 0x1da67(%rip),%xmm4 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,111,37,79,225,1,0 // movdqa 0x1e14f(%rip),%xmm4 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 102,15,219,224 // pand %xmm0,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,56,0,37,99,218,1,0 // pshufb 0x1da63(%rip),%xmm4 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
+ .byte 102,15,56,0,37,75,225,1,0 // pshufb 0x1e14b(%rip),%xmm4 # 3c410 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,56,0,37,99,218,1,0 // pshufb 0x1da63(%rip),%xmm4 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
+ .byte 102,15,56,0,37,75,225,1,0 // pshufb 0x1e14b(%rip),%xmm4 # 3c420 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 102,15,114,208,24 // psrld $0x18,%xmm0
.byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
- .byte 68,15,40,5,124,217,1,0 // movaps 0x1d97c(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,100,224,1,0 // movaps 0x1e064(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,80,218,1,0 // movaps 0x1da50(%rip),%xmm12 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,37,56,225,1,0 // movaps 0x1e138(%rip),%xmm12 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 69,15,89,204 // mulps %xmm12,%xmm9
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -28172,7 +29175,7 @@ _sk_srcover_bgra_8888_sse41:
.byte 102,15,114,241,24 // pslld $0x18,%xmm1
.byte 102,15,235,203 // por %xmm3,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 117,75 // jne 1d51d <_sk_srcover_bgra_8888_sse41+0x154>
+ .byte 117,75 // jne 1e3d5 <_sk_srcover_bgra_8888_sse41+0x154>
.byte 243,65,15,127,12,144 // movdqu %xmm1,(%r8,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,201 // movaps %xmm9,%xmm1
@@ -28182,32 +29185,32 @@ _sk_srcover_bgra_8888_sse41:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,78 // je 1d53e <_sk_srcover_bgra_8888_sse41+0x175>
+ .byte 116,78 // je 1e3f6 <_sk_srcover_bgra_8888_sse41+0x175>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 60,2 // cmp $0x2,%al
- .byte 116,20 // je 1d50c <_sk_srcover_bgra_8888_sse41+0x143>
+ .byte 116,20 // je 1e3c4 <_sk_srcover_bgra_8888_sse41+0x143>
.byte 60,3 // cmp $0x3,%al
- .byte 15,133,238,254,255,255 // jne 1d3ee <_sk_srcover_bgra_8888_sse41+0x25>
+ .byte 15,133,238,254,255,255 // jne 1e2a6 <_sk_srcover_bgra_8888_sse41+0x25>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,15,58,14,196,15 // pblendw $0xf,%xmm4,%xmm0
- .byte 233,209,254,255,255 // jmpq 1d3ee <_sk_srcover_bgra_8888_sse41+0x25>
+ .byte 233,209,254,255,255 // jmpq 1e2a6 <_sk_srcover_bgra_8888_sse41+0x25>
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,36 // je 1d549 <_sk_srcover_bgra_8888_sse41+0x180>
+ .byte 116,36 // je 1e401 <_sk_srcover_bgra_8888_sse41+0x180>
.byte 60,2 // cmp $0x2,%al
- .byte 116,13 // je 1d536 <_sk_srcover_bgra_8888_sse41+0x16d>
+ .byte 116,13 // je 1e3ee <_sk_srcover_bgra_8888_sse41+0x16d>
.byte 60,3 // cmp $0x3,%al
- .byte 117,171 // jne 1d4d8 <_sk_srcover_bgra_8888_sse41+0x10f>
+ .byte 117,171 // jne 1e390 <_sk_srcover_bgra_8888_sse41+0x10f>
.byte 102,65,15,58,22,76,144,8,2 // pextrd $0x2,%xmm1,0x8(%r8,%rdx,4)
.byte 102,65,15,214,12,144 // movq %xmm1,(%r8,%rdx,4)
- .byte 235,154 // jmp 1d4d8 <_sk_srcover_bgra_8888_sse41+0x10f>
+ .byte 235,154 // jmp 1e390 <_sk_srcover_bgra_8888_sse41+0x10f>
.byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
- .byte 233,165,254,255,255 // jmpq 1d3ee <_sk_srcover_bgra_8888_sse41+0x25>
+ .byte 233,165,254,255,255 // jmpq 1e2a6 <_sk_srcover_bgra_8888_sse41+0x25>
.byte 102,65,15,126,12,144 // movd %xmm1,(%r8,%rdx,4)
- .byte 235,135 // jmp 1d4d8 <_sk_srcover_bgra_8888_sse41+0x10f>
+ .byte 235,135 // jmp 1e390 <_sk_srcover_bgra_8888_sse41+0x10f>
HIDDEN _sk_clamp_0_sse41
.globl _sk_clamp_0_sse41
@@ -28225,7 +29228,7 @@ HIDDEN _sk_clamp_1_sse41
.globl _sk_clamp_1_sse41
FUNCTION(_sk_clamp_1_sse41)
_sk_clamp_1_sse41:
- .byte 68,15,40,5,63,216,1,0 // movaps 0x1d83f(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,39,223,1,0 // movaps 0x1df27(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -28237,7 +29240,7 @@ HIDDEN _sk_clamp_a_sse41
.globl _sk_clamp_a_sse41
FUNCTION(_sk_clamp_a_sse41)
_sk_clamp_a_sse41:
- .byte 15,93,29,36,216,1,0 // minps 0x1d824(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,93,29,12,223,1,0 // minps 0x1df0c(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -28248,7 +29251,7 @@ HIDDEN _sk_clamp_a_dst_sse41
.globl _sk_clamp_a_dst_sse41
FUNCTION(_sk_clamp_a_dst_sse41)
_sk_clamp_a_dst_sse41:
- .byte 15,93,61,16,216,1,0 // minps 0x1d810(%rip),%xmm7 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,93,61,248,222,1,0 // minps 0x1def8(%rip),%xmm7 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -28283,7 +29286,7 @@ HIDDEN _sk_invert_sse41
.globl _sk_invert_sse41
FUNCTION(_sk_invert_sse41)
_sk_invert_sse41:
- .byte 68,15,40,5,204,215,1,0 // movaps 0x1d7cc(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,180,222,1,0 // movaps 0x1deb4(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -28344,10 +29347,10 @@ HIDDEN _sk_unpremul_sse41
.globl _sk_unpremul_sse41
FUNCTION(_sk_unpremul_sse41)
_sk_unpremul_sse41:
- .byte 68,15,40,5,90,215,1,0 // movaps 0x1d75a(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,66,222,1,0 // movaps 0x1de42(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,94,195 // divps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,194,13,57,216,1,0,1 // cmpltps 0x1d839(%rip),%xmm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
+ .byte 68,15,194,13,33,223,1,0,1 // cmpltps 0x1df21(%rip),%xmm9 # 3c440 <_sk_srcover_bgra_8888_sse2_lowp+0xda0>
.byte 69,15,84,200 // andps %xmm8,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,201 // mulps %xmm9,%xmm1
@@ -28355,24 +29358,40 @@ _sk_unpremul_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
+HIDDEN _sk_force_opaque_sse41
+.globl _sk_force_opaque_sse41
+FUNCTION(_sk_force_opaque_sse41)
+_sk_force_opaque_sse41:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,29,20,222,1,0 // movaps 0x1de14(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_force_opaque_dst_sse41
+.globl _sk_force_opaque_dst_sse41
+FUNCTION(_sk_force_opaque_dst_sse41)
+_sk_force_opaque_dst_sse41:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,61,9,222,1,0 // movaps 0x1de09(%rip),%xmm7 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
+ .byte 255,224 // jmpq *%rax
+
HIDDEN _sk_from_srgb_sse41
.globl _sk_from_srgb_sse41
FUNCTION(_sk_from_srgb_sse41)
_sk_from_srgb_sse41:
- .byte 68,15,40,29,45,216,1,0 // movaps 0x1d82d(%rip),%xmm11 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0xdb4>
+ .byte 68,15,40,29,255,222,1,0 // movaps 0x1deff(%rip),%xmm11 # 3c450 <_sk_srcover_bgra_8888_sse2_lowp+0xdb0>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
- .byte 68,15,40,37,149,215,1,0 // movaps 0x1d795(%rip),%xmm12 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,37,103,222,1,0 // movaps 0x1de67(%rip),%xmm12 # 3c3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,21,216,1,0 // movaps 0x1d815(%rip),%xmm13 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0xdc4>
+ .byte 68,15,40,45,231,222,1,0 // movaps 0x1dee7(%rip),%xmm13 # 3c460 <_sk_srcover_bgra_8888_sse2_lowp+0xdc0>
.byte 69,15,88,197 // addps %xmm13,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 68,15,40,53,21,216,1,0 // movaps 0x1d815(%rip),%xmm14 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0xdd4>
+ .byte 68,15,40,53,231,222,1,0 // movaps 0x1dee7(%rip),%xmm14 # 3c470 <_sk_srcover_bgra_8888_sse2_lowp+0xdd0>
.byte 69,15,88,198 // addps %xmm14,%xmm8
- .byte 68,15,40,61,25,216,1,0 // movaps 0x1d819(%rip),%xmm15 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0xde4>
+ .byte 68,15,40,61,235,222,1,0 // movaps 0x1deeb(%rip),%xmm15 # 3c480 <_sk_srcover_bgra_8888_sse2_lowp+0xde0>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,40,209 // movaps %xmm1,%xmm10
@@ -28409,19 +29428,19 @@ FUNCTION(_sk_from_srgb_dst_sse41)
_sk_from_srgb_dst_sse41:
.byte 68,15,40,204 // movaps %xmm4,%xmm9
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,29,100,215,1,0 // movaps 0x1d764(%rip),%xmm11 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0xdb4>
+ .byte 68,15,40,29,54,222,1,0 // movaps 0x1de36(%rip),%xmm11 # 3c450 <_sk_srcover_bgra_8888_sse2_lowp+0xdb0>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,37,205,214,1,0 // movaps 0x1d6cd(%rip),%xmm12 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,37,159,221,1,0 // movaps 0x1dd9f(%rip),%xmm12 # 3c3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
.byte 65,15,89,228 // mulps %xmm12,%xmm4
- .byte 68,15,40,45,81,215,1,0 // movaps 0x1d751(%rip),%xmm13 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0xdc4>
+ .byte 68,15,40,45,35,222,1,0 // movaps 0x1de23(%rip),%xmm13 # 3c460 <_sk_srcover_bgra_8888_sse2_lowp+0xdc0>
.byte 65,15,88,229 // addps %xmm13,%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 68,15,40,53,82,215,1,0 // movaps 0x1d752(%rip),%xmm14 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0xdd4>
+ .byte 68,15,40,53,36,222,1,0 // movaps 0x1de24(%rip),%xmm14 # 3c470 <_sk_srcover_bgra_8888_sse2_lowp+0xdd0>
.byte 65,15,88,230 // addps %xmm14,%xmm4
- .byte 68,15,40,61,86,215,1,0 // movaps 0x1d756(%rip),%xmm15 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0xde4>
+ .byte 68,15,40,61,40,222,1,0 // movaps 0x1de28(%rip),%xmm15 # 3c480 <_sk_srcover_bgra_8888_sse2_lowp+0xde0>
.byte 69,15,194,207,1 // cmpltps %xmm15,%xmm9
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,226 // blendvps %xmm0,%xmm10,%xmm4
@@ -28465,22 +29484,22 @@ _sk_to_srgb_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 68,15,82,192 // rsqrtps %xmm0,%xmm8
- .byte 68,15,40,29,202,214,1,0 // movaps 0x1d6ca(%rip),%xmm11 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0xdf4>
+ .byte 68,15,40,29,156,221,1,0 // movaps 0x1dd9c(%rip),%xmm11 # 3c490 <_sk_srcover_bgra_8888_sse2_lowp+0xdf0>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 68,15,40,37,202,214,1,0 // movaps 0x1d6ca(%rip),%xmm12 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0xe04>
+ .byte 68,15,40,37,156,221,1,0 // movaps 0x1dd9c(%rip),%xmm12 # 3c4a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe00>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 69,15,89,252 // mulps %xmm12,%xmm15
- .byte 68,15,40,21,202,214,1,0 // movaps 0x1d6ca(%rip),%xmm10 # 3af10 <_sk_srcover_bgra_8888_sse2_lowp+0xe14>
+ .byte 68,15,40,21,156,221,1,0 // movaps 0x1dd9c(%rip),%xmm10 # 3c4b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe10>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,248 // mulps %xmm8,%xmm15
- .byte 68,15,40,45,202,214,1,0 // movaps 0x1d6ca(%rip),%xmm13 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0xe24>
+ .byte 68,15,40,45,156,221,1,0 // movaps 0x1dd9c(%rip),%xmm13 # 3c4c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe20>
.byte 69,15,88,253 // addps %xmm13,%xmm15
- .byte 68,15,40,53,206,214,1,0 // movaps 0x1d6ce(%rip),%xmm14 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0xe34>
+ .byte 68,15,40,53,160,221,1,0 // movaps 0x1dda0(%rip),%xmm14 # 3c4d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe30>
.byte 69,15,88,198 // addps %xmm14,%xmm8
.byte 69,15,83,192 // rcpps %xmm8,%xmm8
.byte 69,15,89,199 // mulps %xmm15,%xmm8
- .byte 68,15,40,61,202,214,1,0 // movaps 0x1d6ca(%rip),%xmm15 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0xe44>
+ .byte 68,15,40,61,156,221,1,0 // movaps 0x1dd9c(%rip),%xmm15 # 3c4e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe40>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,82,202 // rsqrtps %xmm2,%xmm9
@@ -28535,7 +29554,7 @@ _sk_rgb_to_hsl_sse41:
.byte 68,15,93,224 // minps %xmm0,%xmm12
.byte 65,15,40,203 // movaps %xmm11,%xmm1
.byte 65,15,92,204 // subps %xmm12,%xmm1
- .byte 68,15,40,53,113,212,1,0 // movaps 0x1d471(%rip),%xmm14 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,53,67,219,1,0 // movaps 0x1db43(%rip),%xmm14 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,94,241 // divps %xmm1,%xmm14
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 69,15,194,208,0 // cmpeqps %xmm8,%xmm10
@@ -28544,27 +29563,27 @@ _sk_rgb_to_hsl_sse41:
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 68,15,194,250,1 // cmpltps %xmm2,%xmm15
- .byte 68,15,84,61,232,213,1,0 // andps 0x1d5e8(%rip),%xmm15 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0xe54>
+ .byte 68,15,84,61,186,220,1,0 // andps 0x1dcba(%rip),%xmm15 # 3c4f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe50>
.byte 68,15,88,248 // addps %xmm0,%xmm15
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,214 // mulps %xmm14,%xmm2
- .byte 68,15,40,45,219,213,1,0 // movaps 0x1d5db(%rip),%xmm13 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0xe64>
+ .byte 68,15,40,45,173,220,1,0 // movaps 0x1dcad(%rip),%xmm13 # 3c500 <_sk_srcover_bgra_8888_sse2_lowp+0xe60>
.byte 65,15,88,213 // addps %xmm13,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,198 // mulps %xmm14,%xmm8
- .byte 68,15,88,5,215,213,1,0 // addps 0x1d5d7(%rip),%xmm8 # 3af70 <_sk_srcover_bgra_8888_sse2_lowp+0xe74>
+ .byte 68,15,88,5,169,220,1,0 // addps 0x1dca9(%rip),%xmm8 # 3c510 <_sk_srcover_bgra_8888_sse2_lowp+0xe70>
.byte 102,68,15,56,20,194 // blendvps %xmm0,%xmm2,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,69,15,56,20,199 // blendvps %xmm0,%xmm15,%xmm8
- .byte 68,15,89,5,207,213,1,0 // mulps 0x1d5cf(%rip),%xmm8 # 3af80 <_sk_srcover_bgra_8888_sse2_lowp+0xe84>
+ .byte 68,15,89,5,161,220,1,0 // mulps 0x1dca1(%rip),%xmm8 # 3c520 <_sk_srcover_bgra_8888_sse2_lowp+0xe80>
.byte 69,15,40,203 // movaps %xmm11,%xmm9
.byte 69,15,194,204,4 // cmpneqps %xmm12,%xmm9
.byte 69,15,84,193 // andps %xmm9,%xmm8
.byte 69,15,92,235 // subps %xmm11,%xmm13
.byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 15,40,5,211,211,1,0 // movaps 0x1d3d3(%rip),%xmm0 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,40,5,165,218,1,0 // movaps 0x1daa5(%rip),%xmm0 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 65,15,40,211 // movaps %xmm11,%xmm2
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,194,194,1 // cmpltps %xmm2,%xmm0
@@ -28586,7 +29605,7 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp)
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 68,15,40,13,137,211,1,0 // movaps 0x1d389(%rip),%xmm9 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,13,91,218,1,0 // movaps 0x1da5b(%rip),%xmm9 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,194,194,2 // cmpleps %xmm2,%xmm0
.byte 15,40,217 // movaps %xmm1,%xmm3
@@ -28599,19 +29618,19 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,84,36,152 // movaps %xmm2,-0x68(%rsp)
.byte 69,15,88,192 // addps %xmm8,%xmm8
.byte 68,15,92,197 // subps %xmm5,%xmm8
- .byte 68,15,40,53,68,213,1,0 // movaps 0x1d544(%rip),%xmm14 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0xe94>
+ .byte 68,15,40,53,22,220,1,0 // movaps 0x1dc16(%rip),%xmm14 # 3c530 <_sk_srcover_bgra_8888_sse2_lowp+0xe90>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 102,65,15,58,8,198,1 // roundps $0x1,%xmm14,%xmm0
.byte 68,15,92,240 // subps %xmm0,%xmm14
- .byte 68,15,40,29,61,213,1,0 // movaps 0x1d53d(%rip),%xmm11 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0xea4>
+ .byte 68,15,40,29,15,220,1,0 // movaps 0x1dc0f(%rip),%xmm11 # 3c540 <_sk_srcover_bgra_8888_sse2_lowp+0xea0>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 65,15,92,240 // subps %xmm8,%xmm6
- .byte 15,40,61,214,212,1,0 // movaps 0x1d4d6(%rip),%xmm7 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0xe54>
+ .byte 15,40,61,168,219,1,0 // movaps 0x1dba8(%rip),%xmm7 # 3c4f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe50>
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 68,15,89,239 // mulps %xmm7,%xmm13
- .byte 15,40,29,231,212,1,0 // movaps 0x1d4e7(%rip),%xmm3 # 3af70 <_sk_srcover_bgra_8888_sse2_lowp+0xe74>
+ .byte 15,40,29,185,219,1,0 // movaps 0x1dbb9(%rip),%xmm3 # 3c510 <_sk_srcover_bgra_8888_sse2_lowp+0xe70>
.byte 68,15,40,227 // movaps %xmm3,%xmm12
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 68,15,89,230 // mulps %xmm6,%xmm12
@@ -28621,7 +29640,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,40,253 // movaps %xmm5,%xmm15
.byte 102,69,15,56,20,252 // blendvps %xmm0,%xmm12,%xmm15
- .byte 68,15,40,37,198,212,1,0 // movaps 0x1d4c6(%rip),%xmm12 # 3af80 <_sk_srcover_bgra_8888_sse2_lowp+0xe84>
+ .byte 68,15,40,37,152,219,1,0 // movaps 0x1db98(%rip),%xmm12 # 3c520 <_sk_srcover_bgra_8888_sse2_lowp+0xe80>
.byte 65,15,40,196 // movaps %xmm12,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,89,238 // mulps %xmm6,%xmm13
@@ -28655,7 +29674,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 15,40,84,36,152 // movaps -0x68(%rsp),%xmm2
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,88,21,94,212,1,0 // addps 0x1d45e(%rip),%xmm10 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
+ .byte 68,15,88,21,48,219,1,0 // addps 0x1db30(%rip),%xmm10 # 3c550 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
.byte 102,65,15,58,8,194,1 // roundps $0x1,%xmm10,%xmm0
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 69,15,194,218,2 // cmpleps %xmm10,%xmm11
@@ -28708,11 +29727,11 @@ _sk_scale_u8_sse41:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne 1dc33 <_sk_scale_u8_sse41+0x46>
+ .byte 117,52 // jne 1eb01 <_sk_scale_u8_sse41+0x46>
.byte 102,69,15,56,49,4,16 // pmovzxbd (%r8,%rdx,1),%xmm8
- .byte 102,68,15,219,5,81,210,1,0 // pand 0x1d251(%rip),%xmm8 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,68,15,219,5,35,217,1,0 // pand 0x1d923(%rip),%xmm8 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,165,211,1,0 // mulps 0x1d3a5(%rip),%xmm8 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,89,5,119,218,1,0 // mulps 0x1da77(%rip),%xmm8 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -28723,12 +29742,12 @@ _sk_scale_u8_sse41:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,55 // je 1dc72 <_sk_scale_u8_sse41+0x85>
+ .byte 116,55 // je 1eb40 <_sk_scale_u8_sse41+0x85>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 60,2 // cmp $0x2,%al
- .byte 116,21 // je 1dc59 <_sk_scale_u8_sse41+0x6c>
+ .byte 116,21 // je 1eb27 <_sk_scale_u8_sse41+0x6c>
.byte 60,3 // cmp $0x3,%al
- .byte 117,190 // jne 1dc06 <_sk_scale_u8_sse41+0x19>
+ .byte 117,190 // jne 1ead4 <_sk_scale_u8_sse41+0x19>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -28736,10 +29755,10 @@ _sk_scale_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 235,148 // jmp 1dc06 <_sk_scale_u8_sse41+0x19>
+ .byte 235,148 // jmp 1ead4 <_sk_scale_u8_sse41+0x19>
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,136 // jmp 1dc06 <_sk_scale_u8_sse41+0x19>
+ .byte 235,136 // jmp 1ead4 <_sk_scale_u8_sse41+0x19>
HIDDEN _sk_scale_565_sse41
.globl _sk_scale_565_sse41
@@ -28752,19 +29771,19 @@ _sk_scale_565_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,159,0,0,0 // jne 1dd3b <_sk_scale_565_sse41+0xbd>
+ .byte 15,133,159,0,0,0 // jne 1ec09 <_sk_scale_565_sse41+0xbd>
.byte 102,69,15,56,51,28,80 // pmovzxwd (%r8,%rdx,2),%xmm11
- .byte 102,15,111,5,37,211,1,0 // movdqa 0x1d325(%rip),%xmm0 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,5,247,217,1,0 // movdqa 0x1d9f7(%rip),%xmm0 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,36,211,1,0 // mulps 0x1d324(%rip),%xmm9 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,15,111,5,44,211,1,0 // movdqa 0x1d32c(%rip),%xmm0 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
+ .byte 68,15,89,13,246,217,1,0 // mulps 0x1d9f6(%rip),%xmm9 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 102,15,111,5,254,217,1,0 // movdqa 0x1d9fe(%rip),%xmm0 # 3c590 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,208 // cvtdq2ps %xmm0,%xmm10
- .byte 68,15,89,21,43,211,1,0 // mulps 0x1d32b(%rip),%xmm10 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,68,15,219,29,50,211,1,0 // pand 0x1d332(%rip),%xmm11 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
+ .byte 68,15,89,21,253,217,1,0 // mulps 0x1d9fd(%rip),%xmm10 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 102,68,15,219,29,4,218,1,0 // pand 0x1da04(%rip),%xmm11 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
- .byte 68,15,89,29,54,211,1,0 // mulps 0x1d336(%rip),%xmm11 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
+ .byte 68,15,89,29,8,218,1,0 // mulps 0x1da08(%rip),%xmm11 # 3c5c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf20>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,226 // movaps %xmm10,%xmm12
@@ -28789,22 +29808,22 @@ _sk_scale_565_sse41:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,56 // je 1dd7b <_sk_scale_565_sse41+0xfd>
+ .byte 116,56 // je 1ec49 <_sk_scale_565_sse41+0xfd>
.byte 102,69,15,239,219 // pxor %xmm11,%xmm11
.byte 60,2 // cmp $0x2,%al
- .byte 116,24 // je 1dd64 <_sk_scale_565_sse41+0xe6>
+ .byte 116,24 // je 1ec32 <_sk_scale_565_sse41+0xe6>
.byte 60,3 // cmp $0x3,%al
- .byte 15,133,79,255,255,255 // jne 1dca3 <_sk_scale_565_sse41+0x25>
+ .byte 15,133,79,255,255,255 // jne 1eb71 <_sk_scale_565_sse41+0x25>
.byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,68,15,112,216,69 // pshufd $0x45,%xmm0,%xmm11
.byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,68,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm11
- .byte 233,40,255,255,255 // jmpq 1dca3 <_sk_scale_565_sse41+0x25>
+ .byte 233,40,255,255,255 // jmpq 1eb71 <_sk_scale_565_sse41+0x25>
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,216 // movd %eax,%xmm11
- .byte 233,25,255,255,255 // jmpq 1dca3 <_sk_scale_565_sse41+0x25>
+ .byte 233,25,255,255,255 // jmpq 1eb71 <_sk_scale_565_sse41+0x25>
HIDDEN _sk_lerp_1_float_sse41
.globl _sk_lerp_1_float_sse41
@@ -28837,11 +29856,11 @@ _sk_lerp_u8_sse41:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,72 // jne 1de1c <_sk_lerp_u8_sse41+0x5a>
+ .byte 117,72 // jne 1ecea <_sk_lerp_u8_sse41+0x5a>
.byte 102,69,15,56,49,4,16 // pmovzxbd (%r8,%rdx,1),%xmm8
- .byte 102,68,15,219,5,124,208,1,0 // pand 0x1d07c(%rip),%xmm8 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,68,15,219,5,78,215,1,0 // pand 0x1d74e(%rip),%xmm8 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,208,209,1,0 // mulps 0x1d1d0(%rip),%xmm8 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,89,5,162,216,1,0 // mulps 0x1d8a2(%rip),%xmm8 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -28859,12 +29878,12 @@ _sk_lerp_u8_sse41:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,55 // je 1de5b <_sk_lerp_u8_sse41+0x99>
+ .byte 116,55 // je 1ed29 <_sk_lerp_u8_sse41+0x99>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 60,2 // cmp $0x2,%al
- .byte 116,21 // je 1de42 <_sk_lerp_u8_sse41+0x80>
+ .byte 116,21 // je 1ed10 <_sk_lerp_u8_sse41+0x80>
.byte 60,3 // cmp $0x3,%al
- .byte 117,170 // jne 1dddb <_sk_lerp_u8_sse41+0x19>
+ .byte 117,170 // jne 1eca9 <_sk_lerp_u8_sse41+0x19>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -28872,10 +29891,10 @@ _sk_lerp_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 235,128 // jmp 1dddb <_sk_lerp_u8_sse41+0x19>
+ .byte 235,128 // jmp 1eca9 <_sk_lerp_u8_sse41+0x19>
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,113,255,255,255 // jmpq 1dddb <_sk_lerp_u8_sse41+0x19>
+ .byte 233,113,255,255,255 // jmpq 1eca9 <_sk_lerp_u8_sse41+0x19>
HIDDEN _sk_lerp_565_sse41
.globl _sk_lerp_565_sse41
@@ -28888,19 +29907,19 @@ _sk_lerp_565_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,165,0,0,0 // jne 1df2d <_sk_lerp_565_sse41+0xc3>
+ .byte 15,133,165,0,0,0 // jne 1edfb <_sk_lerp_565_sse41+0xc3>
.byte 102,69,15,56,51,20,80 // pmovzxwd (%r8,%rdx,2),%xmm10
- .byte 102,15,111,5,57,209,1,0 // movdqa 0x1d139(%rip),%xmm0 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,5,11,216,1,0 // movdqa 0x1d80b(%rip),%xmm0 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,56,209,1,0 // mulps 0x1d138(%rip),%xmm9 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,15,111,5,64,209,1,0 // movdqa 0x1d140(%rip),%xmm0 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
+ .byte 68,15,89,13,10,216,1,0 // mulps 0x1d80a(%rip),%xmm9 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 102,15,111,5,18,216,1,0 // movdqa 0x1d812(%rip),%xmm0 # 3c590 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,216 // cvtdq2ps %xmm0,%xmm11
- .byte 68,15,89,29,63,209,1,0 // mulps 0x1d13f(%rip),%xmm11 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,68,15,219,21,70,209,1,0 // pand 0x1d146(%rip),%xmm10 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
+ .byte 68,15,89,29,17,216,1,0 // mulps 0x1d811(%rip),%xmm11 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 102,68,15,219,21,24,216,1,0 // pand 0x1d818(%rip),%xmm10 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,74,209,1,0 // mulps 0x1d14a(%rip),%xmm10 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
+ .byte 68,15,89,21,28,216,1,0 // mulps 0x1d81c(%rip),%xmm10 # 3c5c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf20>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -28928,22 +29947,22 @@ _sk_lerp_565_sse41:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,56 // je 1df6d <_sk_lerp_565_sse41+0x103>
+ .byte 116,56 // je 1ee3b <_sk_lerp_565_sse41+0x103>
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 60,2 // cmp $0x2,%al
- .byte 116,24 // je 1df56 <_sk_lerp_565_sse41+0xec>
+ .byte 116,24 // je 1ee24 <_sk_lerp_565_sse41+0xec>
.byte 60,3 // cmp $0x3,%al
- .byte 15,133,73,255,255,255 // jne 1de8f <_sk_lerp_565_sse41+0x25>
+ .byte 15,133,73,255,255,255 // jne 1ed5d <_sk_lerp_565_sse41+0x25>
.byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,68,15,112,208,69 // pshufd $0x45,%xmm0,%xmm10
.byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,68,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm10
- .byte 233,34,255,255,255 // jmpq 1de8f <_sk_lerp_565_sse41+0x25>
+ .byte 233,34,255,255,255 // jmpq 1ed5d <_sk_lerp_565_sse41+0x25>
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,19,255,255,255 // jmpq 1de8f <_sk_lerp_565_sse41+0x25>
+ .byte 233,19,255,255,255 // jmpq 1ed5d <_sk_lerp_565_sse41+0x25>
HIDDEN _sk_load_tables_sse41
.globl _sk_load_tables_sse41
@@ -28952,11 +29971,11 @@ _sk_load_tables_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,20,1,0,0 // jne 1e09e <_sk_load_tables_sse41+0x122>
+ .byte 15,133,20,1,0,0 // jne 1ef6c <_sk_load_tables_sse41+0x122>
.byte 243,69,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm8
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,15,111,5,197,206,1,0 // movdqa 0x1cec5(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,111,5,151,213,1,0 // movdqa 0x1d597(%rip),%xmm0 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -28971,7 +29990,7 @@ _sk_load_tables_sse41:
.byte 102,66,15,58,33,4,155,32 // insertps $0x20,(%rbx,%r11,4),%xmm0
.byte 102,66,15,58,33,4,3,48 // insertps $0x30,(%rbx,%r8,1),%xmm0
.byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,56,0,13,128,206,1,0 // pshufb 0x1ce80(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
+ .byte 102,15,56,0,13,82,213,1,0 // pshufb 0x1d552(%rip),%xmm1 # 3c410 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 68,15,182,203 // movzbl %bl,%r9d
@@ -28986,7 +30005,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
.byte 76,139,64,24 // mov 0x18(%rax),%r8
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,56,0,21,60,206,1,0 // pshufb 0x1ce3c(%rip),%xmm2 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
+ .byte 102,15,56,0,21,14,213,1,0 // pshufb 0x1d50e(%rip),%xmm2 # 3c420 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
.byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx
.byte 102,72,15,126,208 // movq %xmm2,%rax
.byte 68,15,182,200 // movzbl %al,%r9d
@@ -29001,7 +30020,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,216 // cvtdq2ps %xmm8,%xmm3
- .byte 15,89,29,41,207,1,0 // mulps 0x1cf29(%rip),%xmm3 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 15,89,29,251,213,1,0 // mulps 0x1d5fb(%rip),%xmm3 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -29009,19 +30028,19 @@ _sk_load_tables_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,52 // je 1e0df <_sk_load_tables_sse41+0x163>
+ .byte 116,52 // je 1efad <_sk_load_tables_sse41+0x163>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1e0cd <_sk_load_tables_sse41+0x151>
+ .byte 116,23 // je 1ef9b <_sk_load_tables_sse41+0x151>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,208,254,255,255 // jne 1df90 <_sk_load_tables_sse41+0x14>
+ .byte 15,133,208,254,255,255 // jne 1ee5e <_sk_load_tables_sse41+0x14>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,68,15,58,14,192,15 // pblendw $0xf,%xmm0,%xmm8
- .byte 233,177,254,255,255 // jmpq 1df90 <_sk_load_tables_sse41+0x14>
+ .byte 233,177,254,255,255 // jmpq 1ee5e <_sk_load_tables_sse41+0x14>
.byte 102,69,15,110,4,144 // movd (%r8,%rdx,4),%xmm8
- .byte 233,166,254,255,255 // jmpq 1df90 <_sk_load_tables_sse41+0x14>
+ .byte 233,166,254,255,255 // jmpq 1ee5e <_sk_load_tables_sse41+0x14>
HIDDEN _sk_load_tables_u16_be_sse41
.globl _sk_load_tables_u16_be_sse41
@@ -29031,7 +30050,7 @@ _sk_load_tables_u16_be_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,95,1,0,0 // jne 1e25f <_sk_load_tables_u16_be_sse41+0x175>
+ .byte 15,133,95,1,0,0 // jne 1f12d <_sk_load_tables_u16_be_sse41+0x175>
.byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
.byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
.byte 65,86 // push %r14
@@ -29042,7 +30061,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,68,15,111,5,251,206,1,0 // movdqa 0x1cefb(%rip),%xmm8 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0xf34>
+ .byte 102,68,15,111,5,205,213,1,0 // movdqa 0x1d5cd(%rip),%xmm8 # 3c5d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf30>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -29060,7 +30079,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,15,58,33,194,32 // insertps $0x20,%xmm2,%xmm0
.byte 243,66,15,16,20,3 // movss (%rbx,%r8,1),%xmm2
.byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0
- .byte 102,15,56,0,13,170,206,1,0 // pshufb 0x1ceaa(%rip),%xmm1 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0xf44>
+ .byte 102,15,56,0,13,124,213,1,0 // pshufb 0x1d57c(%rip),%xmm1 # 3c5e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf40>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -29096,23 +30115,23 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,235,216 // por %xmm8,%xmm3
.byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,248,205,1,0 // mulps 0x1cdf8(%rip),%xmm3 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0xf54>
+ .byte 15,89,29,202,212,1,0 // mulps 0x1d4ca(%rip),%xmm3 # 3c5f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1e278 <_sk_load_tables_u16_be_sse41+0x18e>
+ .byte 117,13 // jne 1f146 <_sk_load_tables_u16_be_sse41+0x18e>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,149,254,255,255 // jmpq 1e10d <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,149,254,255,255 // jmpq 1efdb <_sk_load_tables_u16_be_sse41+0x23>
.byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,128,254,255,255 // jb 1e10d <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 15,130,128,254,255,255 // jb 1efdb <_sk_load_tables_u16_be_sse41+0x23>
.byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,116,254,255,255 // jmpq 1e10d <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,116,254,255,255 // jmpq 1efdb <_sk_load_tables_u16_be_sse41+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse41
.globl _sk_load_tables_rgb_u16_be_sse41
@@ -29122,7 +30141,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,79,1,0,0 // jne 1e3fa <_sk_load_tables_rgb_u16_be_sse41+0x161>
+ .byte 15,133,79,1,0,0 // jne 1f2c8 <_sk_load_tables_rgb_u16_be_sse41+0x161>
.byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
.byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -29136,7 +30155,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
- .byte 102,68,15,111,5,65,205,1,0 // movdqa 0x1cd41(%rip),%xmm8 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0xf34>
+ .byte 102,68,15,111,5,19,212,1,0 // movdqa 0x1d413(%rip),%xmm8 # 3c5d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf30>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -29154,7 +30173,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,58,33,195,32 // insertps $0x20,%xmm3,%xmm0
.byte 243,66,15,16,28,3 // movss (%rbx,%r8,1),%xmm3
.byte 102,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm0
- .byte 102,15,56,0,13,240,204,1,0 // pshufb 0x1ccf0(%rip),%xmm1 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0xf44>
+ .byte 102,15,56,0,13,194,211,1,0 // pshufb 0x1d3c2(%rip),%xmm1 # 3c5e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf40>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -29185,7 +30204,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 243,65,15,16,28,24 // movss (%r8,%rbx,1),%xmm3
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,187,201,1,0 // movaps 0x1c9bb(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,29,141,208,1,0 // movaps 0x1d08d(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -29193,21 +30212,21 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 1e420 <_sk_load_tables_rgb_u16_be_sse41+0x187>
+ .byte 117,14 // jne 1f2ee <_sk_load_tables_rgb_u16_be_sse41+0x187>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 233,177,254,255,255 // jmpq 1e2d1 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,177,254,255,255 // jmpq 1f19f <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,71,15,110,76,72,6 // movd 0x6(%r8,%r9,2),%xmm9
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,71,15,196,76,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm9
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 1e451 <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
+ .byte 114,24 // jb 1f31f <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
.byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,128,254,255,255 // jmpq 1e2d1 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,128,254,255,255 // jmpq 1f19f <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,119,254,255,255 // jmpq 1e2d1 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,119,254,255,255 // jmpq 1f19f <_sk_load_tables_rgb_u16_be_sse41+0x38>
HIDDEN _sk_byte_tables_sse41
.globl _sk_byte_tables_sse41
@@ -29220,9 +30239,9 @@ _sk_byte_tables_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 68,15,95,216 // maxps %xmm0,%xmm11
- .byte 68,15,40,13,60,201,1,0 // movaps 0x1c93c(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,13,14,208,1,0 // movaps 0x1d00e(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,93,217 // minps %xmm9,%xmm11
- .byte 68,15,40,21,16,202,1,0 // movaps 0x1ca10(%rip),%xmm10 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,21,226,208,1,0 // movaps 0x1d0e2(%rip),%xmm10 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 69,15,89,218 // mulps %xmm10,%xmm11
.byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
@@ -29245,7 +30264,7 @@ _sk_byte_tables_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,29,213,202,1,0 // movaps 0x1cad5(%rip),%xmm11 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,40,29,167,209,1,0 // movaps 0x1d1a7(%rip),%xmm11 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 65,15,89,195 // mulps %xmm11,%xmm0
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 68,15,95,225 // maxps %xmm1,%xmm12
@@ -29336,7 +30355,7 @@ _sk_byte_tables_rgb_sse41:
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 68,15,95,216 // maxps %xmm0,%xmm11
- .byte 68,15,40,21,84,199,1,0 // movaps 0x1c754(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,21,38,206,1,0 // movaps 0x1ce26(%rip),%xmm10 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,93,218 // minps %xmm10,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
@@ -29360,7 +30379,7 @@ _sk_byte_tables_rgb_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,29,245,200,1,0 // movaps 0x1c8f5(%rip),%xmm11 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,40,29,199,207,1,0 // movaps 0x1cfc7(%rip),%xmm11 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 65,15,89,195 // mulps %xmm11,%xmm0
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 68,15,95,225 // maxps %xmm1,%xmm12
@@ -29425,7 +30444,7 @@ _sk_table_r_sse41:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,93,13,229,197,1,0 // minps 0x1c5e5(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,93,13,183,204,1,0 // minps 0x1ccb7(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,65,15,91,193 // cvtps2dq %xmm9,%xmm0
.byte 102,72,15,58,22,192,1 // pextrq $0x1,%xmm0,%rax
@@ -29456,7 +30475,7 @@ _sk_table_g_sse41:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,201 // maxps %xmm1,%xmm9
- .byte 68,15,93,13,109,197,1,0 // minps 0x1c56d(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,93,13,63,204,1,0 // minps 0x1cc3f(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,65,15,91,201 // cvtps2dq %xmm9,%xmm1
.byte 102,72,15,58,22,200,1 // pextrq $0x1,%xmm1,%rax
@@ -29487,7 +30506,7 @@ _sk_table_b_sse41:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 68,15,93,13,245,196,1,0 // minps 0x1c4f5(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,93,13,199,203,1,0 // minps 0x1cbc7(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,65,15,91,209 // cvtps2dq %xmm9,%xmm2
.byte 102,72,15,58,22,208,1 // pextrq $0x1,%xmm2,%rax
@@ -29518,7 +30537,7 @@ _sk_table_a_sse41:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,203 // maxps %xmm3,%xmm9
- .byte 68,15,93,13,125,196,1,0 // minps 0x1c47d(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,93,13,79,203,1,0 // minps 0x1cb4f(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,65,15,91,217 // cvtps2dq %xmm9,%xmm3
.byte 102,72,15,58,22,216,1 // pextrq $0x1,%xmm3,%rax
@@ -29560,32 +30579,32 @@ _sk_parametric_r_sse41:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,91,194 // cvtdq2ps %xmm10,%xmm8
- .byte 68,15,89,5,118,198,1,0 // mulps 0x1c676(%rip),%xmm8 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
- .byte 68,15,40,45,126,198,1,0 // movaps 0x1c67e(%rip),%xmm13 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
+ .byte 68,15,89,5,72,205,1,0 // mulps 0x1cd48(%rip),%xmm8 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,40,45,80,205,1,0 // movaps 0x1cd50(%rip),%xmm13 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
.byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,162,195,1,0 // orps 0x1c3a2(%rip),%xmm13 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
- .byte 68,15,88,5,122,198,1,0 // addps 0x1c67a(%rip),%xmm8 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 68,15,40,53,130,198,1,0 // movaps 0x1c682(%rip),%xmm14 # 3b090 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
+ .byte 68,15,86,45,116,202,1,0 // orps 0x1ca74(%rip),%xmm13 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,88,5,76,205,1,0 // addps 0x1cd4c(%rip),%xmm8 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 68,15,40,53,84,205,1,0 // movaps 0x1cd54(%rip),%xmm14 # 3c630 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,198 // subps %xmm14,%xmm8
- .byte 68,15,88,45,130,198,1,0 // addps 0x1c682(%rip),%xmm13 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 68,15,40,53,138,198,1,0 // movaps 0x1c68a(%rip),%xmm14 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
+ .byte 68,15,88,45,84,205,1,0 // addps 0x1cd54(%rip),%xmm13 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 68,15,40,53,92,205,1,0 // movaps 0x1cd5c(%rip),%xmm14 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,198 // subps %xmm14,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
.byte 102,69,15,58,8,224,1 // roundps $0x1,%xmm8,%xmm12
.byte 69,15,40,232 // movaps %xmm8,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,5,119,198,1,0 // addps 0x1c677(%rip),%xmm8 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 68,15,40,37,127,198,1,0 // movaps 0x1c67f(%rip),%xmm12 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
+ .byte 68,15,88,5,73,205,1,0 // addps 0x1cd49(%rip),%xmm8 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 68,15,40,37,81,205,1,0 // movaps 0x1cd51(%rip),%xmm12 # 3c670 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
- .byte 68,15,40,37,127,198,1,0 // movaps 0x1c67f(%rip),%xmm12 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
+ .byte 68,15,40,37,81,205,1,0 // movaps 0x1cd51(%rip),%xmm12 # 3c680 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,131,198,1,0 // movaps 0x1c683(%rip),%xmm13 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
+ .byte 68,15,40,45,85,205,1,0 // movaps 0x1cd55(%rip),%xmm13 # 3c690 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,232 // addps %xmm8,%xmm13
- .byte 68,15,89,45,131,198,1,0 // mulps 0x1c683(%rip),%xmm13 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
+ .byte 68,15,89,45,85,205,1,0 // mulps 0x1cd55(%rip),%xmm13 # 3c6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1000>
.byte 102,69,15,91,197 // cvtps2dq %xmm13,%xmm8
.byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
.byte 69,15,84,208 // andps %xmm8,%xmm10
@@ -29594,7 +30613,7 @@ _sk_parametric_r_sse41:
.byte 69,15,88,194 // addps %xmm10,%xmm8
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 69,15,95,195 // maxps %xmm11,%xmm8
- .byte 68,15,93,5,4,195,1,0 // minps 0x1c304(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,93,5,214,201,1,0 // minps 0x1c9d6(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -29625,32 +30644,32 @@ _sk_parametric_g_sse41:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,91,242 // cvtdq2ps %xmm10,%xmm14
- .byte 68,15,89,53,65,197,1,0 // mulps 0x1c541(%rip),%xmm14 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
- .byte 68,15,40,45,73,197,1,0 // movaps 0x1c549(%rip),%xmm13 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
+ .byte 68,15,89,53,19,204,1,0 // mulps 0x1cc13(%rip),%xmm14 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,40,45,27,204,1,0 // movaps 0x1cc1b(%rip),%xmm13 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
.byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,109,194,1,0 // orps 0x1c26d(%rip),%xmm13 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
- .byte 68,15,88,53,69,197,1,0 // addps 0x1c545(%rip),%xmm14 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 15,40,13,78,197,1,0 // movaps 0x1c54e(%rip),%xmm1 # 3b090 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
+ .byte 68,15,86,45,63,201,1,0 // orps 0x1c93f(%rip),%xmm13 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,88,53,23,204,1,0 // addps 0x1cc17(%rip),%xmm14 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 15,40,13,32,204,1,0 // movaps 0x1cc20(%rip),%xmm1 # 3c630 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
.byte 65,15,89,205 // mulps %xmm13,%xmm1
.byte 68,15,92,241 // subps %xmm1,%xmm14
- .byte 68,15,88,45,78,197,1,0 // addps 0x1c54e(%rip),%xmm13 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 15,40,13,87,197,1,0 // movaps 0x1c557(%rip),%xmm1 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
+ .byte 68,15,88,45,32,204,1,0 // addps 0x1cc20(%rip),%xmm13 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 15,40,13,41,204,1,0 // movaps 0x1cc29(%rip),%xmm1 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
.byte 65,15,94,205 // divps %xmm13,%xmm1
.byte 68,15,92,241 // subps %xmm1,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 102,69,15,58,8,230,1 // roundps $0x1,%xmm14,%xmm12
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,53,68,197,1,0 // addps 0x1c544(%rip),%xmm14 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 15,40,13,77,197,1,0 // movaps 0x1c54d(%rip),%xmm1 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
+ .byte 68,15,88,53,22,204,1,0 // addps 0x1cc16(%rip),%xmm14 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 15,40,13,31,204,1,0 // movaps 0x1cc1f(%rip),%xmm1 # 3c670 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
.byte 65,15,89,205 // mulps %xmm13,%xmm1
.byte 68,15,92,241 // subps %xmm1,%xmm14
- .byte 68,15,40,37,77,197,1,0 // movaps 0x1c54d(%rip),%xmm12 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
+ .byte 68,15,40,37,31,204,1,0 // movaps 0x1cc1f(%rip),%xmm12 # 3c680 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 15,40,13,82,197,1,0 // movaps 0x1c552(%rip),%xmm1 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
+ .byte 15,40,13,36,204,1,0 // movaps 0x1cc24(%rip),%xmm1 # 3c690 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
.byte 65,15,94,204 // divps %xmm12,%xmm1
.byte 65,15,88,206 // addps %xmm14,%xmm1
- .byte 15,89,13,83,197,1,0 // mulps 0x1c553(%rip),%xmm1 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
+ .byte 15,89,13,37,204,1,0 // mulps 0x1cc25(%rip),%xmm1 # 3c6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1000>
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
.byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
.byte 68,15,84,209 // andps %xmm1,%xmm10
@@ -29659,7 +30678,7 @@ _sk_parametric_g_sse41:
.byte 65,15,88,202 // addps %xmm10,%xmm1
.byte 102,65,15,56,20,201 // blendvps %xmm0,%xmm9,%xmm1
.byte 65,15,95,203 // maxps %xmm11,%xmm1
- .byte 15,93,13,216,193,1,0 // minps 0x1c1d8(%rip),%xmm1 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,93,13,170,200,1,0 // minps 0x1c8aa(%rip),%xmm1 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -29690,32 +30709,32 @@ _sk_parametric_b_sse41:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,91,242 // cvtdq2ps %xmm10,%xmm14
- .byte 68,15,89,53,21,196,1,0 // mulps 0x1c415(%rip),%xmm14 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
- .byte 68,15,40,45,29,196,1,0 // movaps 0x1c41d(%rip),%xmm13 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
+ .byte 68,15,89,53,231,202,1,0 // mulps 0x1cae7(%rip),%xmm14 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,40,45,239,202,1,0 // movaps 0x1caef(%rip),%xmm13 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
.byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,65,193,1,0 // orps 0x1c141(%rip),%xmm13 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
- .byte 68,15,88,53,25,196,1,0 // addps 0x1c419(%rip),%xmm14 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 15,40,21,34,196,1,0 // movaps 0x1c422(%rip),%xmm2 # 3b090 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
+ .byte 68,15,86,45,19,200,1,0 // orps 0x1c813(%rip),%xmm13 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,88,53,235,202,1,0 // addps 0x1caeb(%rip),%xmm14 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 15,40,21,244,202,1,0 // movaps 0x1caf4(%rip),%xmm2 # 3c630 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
.byte 65,15,89,213 // mulps %xmm13,%xmm2
.byte 68,15,92,242 // subps %xmm2,%xmm14
- .byte 68,15,88,45,34,196,1,0 // addps 0x1c422(%rip),%xmm13 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 15,40,21,43,196,1,0 // movaps 0x1c42b(%rip),%xmm2 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
+ .byte 68,15,88,45,244,202,1,0 // addps 0x1caf4(%rip),%xmm13 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 15,40,21,253,202,1,0 // movaps 0x1cafd(%rip),%xmm2 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
.byte 65,15,94,213 // divps %xmm13,%xmm2
.byte 68,15,92,242 // subps %xmm2,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 102,69,15,58,8,230,1 // roundps $0x1,%xmm14,%xmm12
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,53,24,196,1,0 // addps 0x1c418(%rip),%xmm14 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 15,40,21,33,196,1,0 // movaps 0x1c421(%rip),%xmm2 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
+ .byte 68,15,88,53,234,202,1,0 // addps 0x1caea(%rip),%xmm14 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 15,40,21,243,202,1,0 // movaps 0x1caf3(%rip),%xmm2 # 3c670 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
.byte 65,15,89,213 // mulps %xmm13,%xmm2
.byte 68,15,92,242 // subps %xmm2,%xmm14
- .byte 68,15,40,37,33,196,1,0 // movaps 0x1c421(%rip),%xmm12 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
+ .byte 68,15,40,37,243,202,1,0 // movaps 0x1caf3(%rip),%xmm12 # 3c680 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 15,40,21,38,196,1,0 // movaps 0x1c426(%rip),%xmm2 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
+ .byte 15,40,21,248,202,1,0 // movaps 0x1caf8(%rip),%xmm2 # 3c690 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
.byte 65,15,94,212 // divps %xmm12,%xmm2
.byte 65,15,88,214 // addps %xmm14,%xmm2
- .byte 15,89,21,39,196,1,0 // mulps 0x1c427(%rip),%xmm2 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
+ .byte 15,89,21,249,202,1,0 // mulps 0x1caf9(%rip),%xmm2 # 3c6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1000>
.byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
.byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
.byte 68,15,84,210 // andps %xmm2,%xmm10
@@ -29724,7 +30743,7 @@ _sk_parametric_b_sse41:
.byte 65,15,88,210 // addps %xmm10,%xmm2
.byte 102,65,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm2
.byte 65,15,95,211 // maxps %xmm11,%xmm2
- .byte 15,93,21,172,192,1,0 // minps 0x1c0ac(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,93,21,126,199,1,0 // minps 0x1c77e(%rip),%xmm2 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -29755,32 +30774,32 @@ _sk_parametric_a_sse41:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,91,242 // cvtdq2ps %xmm10,%xmm14
- .byte 68,15,89,53,233,194,1,0 // mulps 0x1c2e9(%rip),%xmm14 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
- .byte 68,15,40,45,241,194,1,0 // movaps 0x1c2f1(%rip),%xmm13 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
+ .byte 68,15,89,53,187,201,1,0 // mulps 0x1c9bb(%rip),%xmm14 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,40,45,195,201,1,0 // movaps 0x1c9c3(%rip),%xmm13 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
.byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,21,192,1,0 // orps 0x1c015(%rip),%xmm13 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
- .byte 68,15,88,53,237,194,1,0 // addps 0x1c2ed(%rip),%xmm14 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 15,40,29,246,194,1,0 // movaps 0x1c2f6(%rip),%xmm3 # 3b090 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
+ .byte 68,15,86,45,231,198,1,0 // orps 0x1c6e7(%rip),%xmm13 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,88,53,191,201,1,0 // addps 0x1c9bf(%rip),%xmm14 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 15,40,29,200,201,1,0 // movaps 0x1c9c8(%rip),%xmm3 # 3c630 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
.byte 65,15,89,221 // mulps %xmm13,%xmm3
.byte 68,15,92,243 // subps %xmm3,%xmm14
- .byte 68,15,88,45,246,194,1,0 // addps 0x1c2f6(%rip),%xmm13 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 15,40,29,255,194,1,0 // movaps 0x1c2ff(%rip),%xmm3 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
+ .byte 68,15,88,45,200,201,1,0 // addps 0x1c9c8(%rip),%xmm13 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 15,40,29,209,201,1,0 // movaps 0x1c9d1(%rip),%xmm3 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
.byte 65,15,94,221 // divps %xmm13,%xmm3
.byte 68,15,92,243 // subps %xmm3,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 102,69,15,58,8,230,1 // roundps $0x1,%xmm14,%xmm12
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,53,236,194,1,0 // addps 0x1c2ec(%rip),%xmm14 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 15,40,29,245,194,1,0 // movaps 0x1c2f5(%rip),%xmm3 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
+ .byte 68,15,88,53,190,201,1,0 // addps 0x1c9be(%rip),%xmm14 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 15,40,29,199,201,1,0 // movaps 0x1c9c7(%rip),%xmm3 # 3c670 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
.byte 65,15,89,221 // mulps %xmm13,%xmm3
.byte 68,15,92,243 // subps %xmm3,%xmm14
- .byte 68,15,40,37,245,194,1,0 // movaps 0x1c2f5(%rip),%xmm12 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
+ .byte 68,15,40,37,199,201,1,0 // movaps 0x1c9c7(%rip),%xmm12 # 3c680 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 15,40,29,250,194,1,0 // movaps 0x1c2fa(%rip),%xmm3 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
+ .byte 15,40,29,204,201,1,0 // movaps 0x1c9cc(%rip),%xmm3 # 3c690 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
.byte 65,15,94,220 // divps %xmm12,%xmm3
.byte 65,15,88,222 // addps %xmm14,%xmm3
- .byte 15,89,29,251,194,1,0 // mulps 0x1c2fb(%rip),%xmm3 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
+ .byte 15,89,29,205,201,1,0 // mulps 0x1c9cd(%rip),%xmm3 # 3c6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1000>
.byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3
.byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
.byte 68,15,84,211 // andps %xmm3,%xmm10
@@ -29789,7 +30808,7 @@ _sk_parametric_a_sse41:
.byte 65,15,88,218 // addps %xmm10,%xmm3
.byte 102,65,15,56,20,217 // blendvps %xmm0,%xmm9,%xmm3
.byte 65,15,95,219 // maxps %xmm11,%xmm3
- .byte 15,93,29,128,191,1,0 // minps 0x1bf80(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,93,29,82,198,1,0 // minps 0x1c652(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -29807,21 +30826,21 @@ _sk_gamma_sse41:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 15,40,5,250,193,1,0 // movaps 0x1c1fa(%rip),%xmm0 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
+ .byte 15,40,5,204,200,1,0 // movaps 0x1c8cc(%rip),%xmm0 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 68,15,40,5,252,193,1,0 // movaps 0x1c1fc(%rip),%xmm8 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
+ .byte 68,15,40,5,206,200,1,0 // movaps 0x1c8ce(%rip),%xmm8 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,30,191,1,0 // orps 0x1bf1e(%rip),%xmm0 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
- .byte 15,88,53,247,193,1,0 // addps 0x1c1f7(%rip),%xmm6 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 68,15,40,29,255,193,1,0 // movaps 0x1c1ff(%rip),%xmm11 # 3b090 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
+ .byte 15,86,5,240,197,1,0 // orps 0x1c5f0(%rip),%xmm0 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,88,53,201,200,1,0 // addps 0x1c8c9(%rip),%xmm6 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 68,15,40,29,209,200,1,0 // movaps 0x1c8d1(%rip),%xmm11 # 3c630 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 15,92,241 // subps %xmm1,%xmm6
- .byte 68,15,40,61,253,193,1,0 // movaps 0x1c1fd(%rip),%xmm15 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
+ .byte 68,15,40,61,207,200,1,0 // movaps 0x1c8cf(%rip),%xmm15 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
.byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,53,1,194,1,0 // movaps 0x1c201(%rip),%xmm14 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
+ .byte 68,15,40,53,211,200,1,0 // movaps 0x1c8d3(%rip),%xmm14 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
.byte 65,15,40,206 // movaps %xmm14,%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,92,241 // subps %xmm1,%xmm6
@@ -29832,19 +30851,19 @@ _sk_gamma_sse41:
.byte 102,15,58,8,198,1 // roundps $0x1,%xmm6,%xmm0
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,53,231,193,1,0 // addps 0x1c1e7(%rip),%xmm6 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 15,40,29,0,194,1,0 // movaps 0x1c200(%rip),%xmm3 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
+ .byte 15,88,53,185,200,1,0 // addps 0x1c8b9(%rip),%xmm6 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 15,40,29,210,200,1,0 // movaps 0x1c8d2(%rip),%xmm3 # 3c680 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,222,193,1,0 // movaps 0x1c1de(%rip),%xmm1 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
+ .byte 15,40,13,176,200,1,0 // movaps 0x1c8b0(%rip),%xmm1 # 3c670 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
- .byte 68,15,40,45,240,193,1,0 // movaps 0x1c1f0(%rip),%xmm13 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
+ .byte 68,15,40,45,194,200,1,0 // movaps 0x1c8c2(%rip),%xmm13 # 3c690 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
.byte 65,15,40,197 // movaps %xmm13,%xmm0
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 68,15,40,13,237,193,1,0 // movaps 0x1c1ed(%rip),%xmm9 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
+ .byte 68,15,40,13,191,200,1,0 // movaps 0x1c8bf(%rip),%xmm9 # 3c6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1000>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,246 // xorps %xmm6,%xmm6
@@ -29854,9 +30873,9 @@ _sk_gamma_sse41:
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,53,101,190,1,0 // movaps 0x1be65(%rip),%xmm6 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,40,53,55,197,1,0 // movaps 0x1c537(%rip),%xmm6 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 15,86,254 // orps %xmm6,%xmm7
- .byte 15,88,5,59,193,1,0 // addps 0x1c13b(%rip),%xmm0 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 15,88,5,13,200,1,0 // addps 0x1c80d(%rip),%xmm0 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 65,15,89,235 // mulps %xmm11,%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
@@ -29868,7 +30887,7 @@ _sk_gamma_sse41:
.byte 102,15,58,8,232,1 // roundps $0x1,%xmm0,%xmm5
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,92,253 // subps %xmm5,%xmm7
- .byte 68,15,40,61,76,193,1,0 // movaps 0x1c14c(%rip),%xmm15 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
+ .byte 68,15,40,61,30,200,1,0 // movaps 0x1c81e(%rip),%xmm15 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
.byte 65,15,88,199 // addps %xmm15,%xmm0
.byte 15,40,235 // movaps %xmm3,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
@@ -29883,13 +30902,13 @@ _sk_gamma_sse41:
.byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,179,192,1,0 // mulps 0x1c0b3(%rip),%xmm0 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
+ .byte 15,89,5,133,199,1,0 // mulps 0x1c785(%rip),%xmm0 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,86,198 // orps %xmm6,%xmm8
- .byte 15,88,5,196,192,1,0 // addps 0x1c0c4(%rip),%xmm0 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 15,88,5,150,199,1,0 // addps 0x1c796(%rip),%xmm0 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,212,192,1,0 // addps 0x1c0d4(%rip),%xmm8 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
+ .byte 68,15,88,5,166,199,1,0 // addps 0x1c7a6(%rip),%xmm8 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
.byte 69,15,94,240 // divps %xmm8,%xmm14
.byte 65,15,92,198 // subps %xmm14,%xmm0
.byte 15,89,194 // mulps %xmm2,%xmm0
@@ -29930,21 +30949,21 @@ _sk_gamma_dst_sse41:
.byte 15,41,76,36,184 // movaps %xmm1,-0x48(%rsp)
.byte 15,41,68,36,168 // movaps %xmm0,-0x58(%rsp)
.byte 15,91,221 // cvtdq2ps %xmm5,%xmm3
- .byte 15,40,5,0,192,1,0 // movaps 0x1c000(%rip),%xmm0 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
+ .byte 15,40,5,210,198,1,0 // movaps 0x1c6d2(%rip),%xmm0 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,5,2,192,1,0 // movaps 0x1c002(%rip),%xmm8 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
+ .byte 68,15,40,5,212,198,1,0 // movaps 0x1c6d4(%rip),%xmm8 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,36,189,1,0 // orps 0x1bd24(%rip),%xmm0 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
- .byte 15,88,29,253,191,1,0 // addps 0x1bffd(%rip),%xmm3 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 68,15,40,29,5,192,1,0 // movaps 0x1c005(%rip),%xmm11 # 3b090 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
+ .byte 15,86,5,246,195,1,0 // orps 0x1c3f6(%rip),%xmm0 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,88,29,207,198,1,0 // addps 0x1c6cf(%rip),%xmm3 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 68,15,40,29,215,198,1,0 // movaps 0x1c6d7(%rip),%xmm11 # 3c630 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 15,92,217 // subps %xmm1,%xmm3
- .byte 68,15,40,61,3,192,1,0 // movaps 0x1c003(%rip),%xmm15 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
+ .byte 68,15,40,61,213,198,1,0 // movaps 0x1c6d5(%rip),%xmm15 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
.byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,53,7,192,1,0 // movaps 0x1c007(%rip),%xmm14 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
+ .byte 68,15,40,53,217,198,1,0 // movaps 0x1c6d9(%rip),%xmm14 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
.byte 65,15,40,206 // movaps %xmm14,%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,92,217 // subps %xmm1,%xmm3
@@ -29955,19 +30974,19 @@ _sk_gamma_dst_sse41:
.byte 102,15,58,8,195,1 // roundps $0x1,%xmm3,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,29,237,191,1,0 // addps 0x1bfed(%rip),%xmm3 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 15,40,37,6,192,1,0 // movaps 0x1c006(%rip),%xmm4 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
+ .byte 15,88,29,191,198,1,0 // addps 0x1c6bf(%rip),%xmm3 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 15,40,37,216,198,1,0 // movaps 0x1c6d8(%rip),%xmm4 # 3c680 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
.byte 68,15,40,204 // movaps %xmm4,%xmm9
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,228,191,1,0 // movaps 0x1bfe4(%rip),%xmm1 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
+ .byte 15,40,13,182,198,1,0 // movaps 0x1c6b6(%rip),%xmm1 # 3c670 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,92,216 // subps %xmm0,%xmm3
- .byte 68,15,40,45,246,191,1,0 // movaps 0x1bff6(%rip),%xmm13 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
+ .byte 68,15,40,45,200,198,1,0 // movaps 0x1c6c8(%rip),%xmm13 # 3c690 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
.byte 65,15,40,197 // movaps %xmm13,%xmm0
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 15,88,195 // addps %xmm3,%xmm0
- .byte 68,15,40,13,243,191,1,0 // movaps 0x1bff3(%rip),%xmm9 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
+ .byte 68,15,40,13,197,198,1,0 // movaps 0x1c6c5(%rip),%xmm9 # 3c6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1000>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,219 // xorps %xmm3,%xmm3
@@ -29977,9 +30996,9 @@ _sk_gamma_dst_sse41:
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,29,107,188,1,0 // movaps 0x1bc6b(%rip),%xmm3 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,40,29,61,195,1,0 // movaps 0x1c33d(%rip),%xmm3 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 15,86,251 // orps %xmm3,%xmm7
- .byte 15,88,5,65,191,1,0 // addps 0x1bf41(%rip),%xmm0 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 15,88,5,19,198,1,0 // addps 0x1c613(%rip),%xmm0 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
.byte 15,40,247 // movaps %xmm7,%xmm6
.byte 65,15,89,243 // mulps %xmm11,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
@@ -29991,7 +31010,7 @@ _sk_gamma_dst_sse41:
.byte 102,15,58,8,240,1 // roundps $0x1,%xmm0,%xmm6
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,92,254 // subps %xmm6,%xmm7
- .byte 68,15,40,61,82,191,1,0 // movaps 0x1bf52(%rip),%xmm15 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
+ .byte 68,15,40,61,36,198,1,0 // movaps 0x1c624(%rip),%xmm15 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
.byte 65,15,88,199 // addps %xmm15,%xmm0
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,92,247 // subps %xmm7,%xmm6
@@ -30006,13 +31025,13 @@ _sk_gamma_dst_sse41:
.byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,185,190,1,0 // mulps 0x1beb9(%rip),%xmm0 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
+ .byte 15,89,5,139,197,1,0 // mulps 0x1c58b(%rip),%xmm0 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,86,195 // orps %xmm3,%xmm8
- .byte 15,88,5,202,190,1,0 // addps 0x1beca(%rip),%xmm0 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 15,88,5,156,197,1,0 // addps 0x1c59c(%rip),%xmm0 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,218,190,1,0 // addps 0x1beda(%rip),%xmm8 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
+ .byte 68,15,88,5,172,197,1,0 // addps 0x1c5ac(%rip),%xmm8 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
.byte 69,15,94,240 // divps %xmm8,%xmm14
.byte 65,15,92,198 // subps %xmm14,%xmm0
.byte 15,89,194 // mulps %xmm2,%xmm0
@@ -30045,29 +31064,29 @@ HIDDEN _sk_lab_to_xyz_sse41
FUNCTION(_sk_lab_to_xyz_sse41)
_sk_lab_to_xyz_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,89,5,216,190,1,0 // mulps 0x1bed8(%rip),%xmm8 # 3b110 <_sk_srcover_bgra_8888_sse2_lowp+0x1014>
- .byte 68,15,40,13,80,188,1,0 // movaps 0x1bc50(%rip),%xmm9 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 68,15,89,5,170,197,1,0 // mulps 0x1c5aa(%rip),%xmm8 # 3c6b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1010>
+ .byte 68,15,40,13,34,195,1,0 // movaps 0x1c322(%rip),%xmm9 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 15,40,5,213,190,1,0 // movaps 0x1bed5(%rip),%xmm0 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x1024>
+ .byte 15,40,5,167,197,1,0 // movaps 0x1c5a7(%rip),%xmm0 # 3c6c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1020>
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,88,5,211,190,1,0 // addps 0x1bed3(%rip),%xmm8 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x1034>
- .byte 68,15,89,5,219,190,1,0 // mulps 0x1bedb(%rip),%xmm8 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x1044>
- .byte 15,89,13,228,190,1,0 // mulps 0x1bee4(%rip),%xmm1 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x1054>
+ .byte 68,15,88,5,165,197,1,0 // addps 0x1c5a5(%rip),%xmm8 # 3c6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1030>
+ .byte 68,15,89,5,173,197,1,0 // mulps 0x1c5ad(%rip),%xmm8 # 3c6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1040>
+ .byte 15,89,13,182,197,1,0 // mulps 0x1c5b6(%rip),%xmm1 # 3c6f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1050>
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 15,89,21,233,190,1,0 // mulps 0x1bee9(%rip),%xmm2 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x1064>
+ .byte 15,89,21,187,197,1,0 // mulps 0x1c5bb(%rip),%xmm2 # 3c700 <_sk_srcover_bgra_8888_sse2_lowp+0x1060>
.byte 69,15,40,208 // movaps %xmm8,%xmm10
.byte 68,15,92,210 // subps %xmm2,%xmm10
.byte 68,15,40,217 // movaps %xmm1,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
.byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 68,15,40,13,221,190,1,0 // movaps 0x1bedd(%rip),%xmm9 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1074>
+ .byte 68,15,40,13,175,197,1,0 // movaps 0x1c5af(%rip),%xmm9 # 3c710 <_sk_srcover_bgra_8888_sse2_lowp+0x1070>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 15,40,21,221,190,1,0 // movaps 0x1bedd(%rip),%xmm2 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1084>
+ .byte 15,40,21,175,197,1,0 // movaps 0x1c5af(%rip),%xmm2 # 3c720 <_sk_srcover_bgra_8888_sse2_lowp+0x1080>
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 68,15,40,37,226,190,1,0 // movaps 0x1bee2(%rip),%xmm12 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1094>
+ .byte 68,15,40,37,180,197,1,0 // movaps 0x1c5b4(%rip),%xmm12 # 3c730 <_sk_srcover_bgra_8888_sse2_lowp+0x1090>
.byte 65,15,89,204 // mulps %xmm12,%xmm1
.byte 102,65,15,56,20,203 // blendvps %xmm0,%xmm11,%xmm1
.byte 69,15,40,216 // movaps %xmm8,%xmm11
@@ -30086,8 +31105,8 @@ _sk_lab_to_xyz_sse41:
.byte 65,15,89,212 // mulps %xmm12,%xmm2
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2
- .byte 15,89,13,155,190,1,0 // mulps 0x1be9b(%rip),%xmm1 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x10a4>
- .byte 15,89,21,164,190,1,0 // mulps 0x1bea4(%rip),%xmm2 # 3b1b0 <_sk_srcover_bgra_8888_sse2_lowp+0x10b4>
+ .byte 15,89,13,109,197,1,0 // mulps 0x1c56d(%rip),%xmm1 # 3c740 <_sk_srcover_bgra_8888_sse2_lowp+0x10a0>
+ .byte 15,89,21,118,197,1,0 // mulps 0x1c576(%rip),%xmm2 # 3c750 <_sk_srcover_bgra_8888_sse2_lowp+0x10b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,40,200 // movaps %xmm8,%xmm1
@@ -30102,11 +31121,11 @@ _sk_load_a8_sse41:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 1f350 <_sk_load_a8_sse41+0x39>
+ .byte 117,39 // jne 2021e <_sk_load_a8_sse41+0x39>
.byte 102,65,15,56,49,4,16 // pmovzxbd (%r8,%rdx,1),%xmm0
- .byte 102,15,219,5,40,187,1,0 // pand 0x1bb28(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,219,5,250,193,1,0 // pand 0x1c1fa(%rip),%xmm0 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,126,188,1,0 // mulps 0x1bc7e(%rip),%xmm3 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 15,89,29,80,195,1,0 // mulps 0x1c350(%rip),%xmm3 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -30115,12 +31134,12 @@ _sk_load_a8_sse41:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,49 // je 1f389 <_sk_load_a8_sse41+0x72>
+ .byte 116,49 // je 20257 <_sk_load_a8_sse41+0x72>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 1f373 <_sk_load_a8_sse41+0x5c>
+ .byte 116,19 // je 20241 <_sk_load_a8_sse41+0x5c>
.byte 60,3 // cmp $0x3,%al
- .byte 117,204 // jne 1f330 <_sk_load_a8_sse41+0x19>
+ .byte 117,204 // jne 201fe <_sk_load_a8_sse41+0x19>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -30128,10 +31147,10 @@ _sk_load_a8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,167 // jmp 1f330 <_sk_load_a8_sse41+0x19>
+ .byte 235,167 // jmp 201fe <_sk_load_a8_sse41+0x19>
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,156 // jmp 1f330 <_sk_load_a8_sse41+0x19>
+ .byte 235,156 // jmp 201fe <_sk_load_a8_sse41+0x19>
HIDDEN _sk_load_a8_dst_sse41
.globl _sk_load_a8_dst_sse41
@@ -30142,11 +31161,11 @@ _sk_load_a8_dst_sse41:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 1f3cd <_sk_load_a8_dst_sse41+0x39>
+ .byte 117,39 // jne 2029b <_sk_load_a8_dst_sse41+0x39>
.byte 102,65,15,56,49,36,16 // pmovzxbd (%r8,%rdx,1),%xmm4
- .byte 102,15,219,37,171,186,1,0 // pand 0x1baab(%rip),%xmm4 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,219,37,125,193,1,0 // pand 0x1c17d(%rip),%xmm4 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,1,188,1,0 // mulps 0x1bc01(%rip),%xmm7 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 15,89,61,211,194,1,0 // mulps 0x1c2d3(%rip),%xmm7 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
@@ -30155,12 +31174,12 @@ _sk_load_a8_dst_sse41:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,49 // je 1f406 <_sk_load_a8_dst_sse41+0x72>
+ .byte 116,49 // je 202d4 <_sk_load_a8_dst_sse41+0x72>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 1f3f0 <_sk_load_a8_dst_sse41+0x5c>
+ .byte 116,19 // je 202be <_sk_load_a8_dst_sse41+0x5c>
.byte 60,3 // cmp $0x3,%al
- .byte 117,204 // jne 1f3ad <_sk_load_a8_dst_sse41+0x19>
+ .byte 117,204 // jne 2027b <_sk_load_a8_dst_sse41+0x19>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -30168,10 +31187,10 @@ _sk_load_a8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,167 // jmp 1f3ad <_sk_load_a8_dst_sse41+0x19>
+ .byte 235,167 // jmp 2027b <_sk_load_a8_dst_sse41+0x19>
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,156 // jmp 1f3ad <_sk_load_a8_dst_sse41+0x19>
+ .byte 235,156 // jmp 2027b <_sk_load_a8_dst_sse41+0x19>
HIDDEN _sk_gather_a8_sse41
.globl _sk_gather_a8_sse41
@@ -30214,7 +31233,7 @@ _sk_gather_a8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,2,187,1,0 // mulps 0x1bb02(%rip),%xmm3 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 15,89,29,212,193,1,0 // mulps 0x1c1d4(%rip),%xmm3 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -30231,13 +31250,13 @@ _sk_store_a8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,195 // maxps %xmm3,%xmm8
- .byte 68,15,93,5,199,184,1,0 // minps 0x1b8c7(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,89,5,159,185,1,0 // mulps 0x1b99f(%rip),%xmm8 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 68,15,93,5,153,191,1,0 // minps 0x1bf99(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
+ .byte 68,15,89,5,113,192,1,0 // mulps 0x1c071(%rip),%xmm8 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 1f513 <_sk_store_a8_sse41+0x47>
+ .byte 117,13 // jne 203e1 <_sk_store_a8_sse41+0x47>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 65,137,4,16 // mov %eax,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -30246,17 +31265,17 @@ _sk_store_a8_sse41:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,37 // je 1f546 <_sk_store_a8_sse41+0x7a>
+ .byte 116,37 // je 20414 <_sk_store_a8_sse41+0x7a>
.byte 60,2 // cmp $0x2,%al
- .byte 116,13 // je 1f532 <_sk_store_a8_sse41+0x66>
+ .byte 116,13 // je 20400 <_sk_store_a8_sse41+0x66>
.byte 60,3 // cmp $0x3,%al
- .byte 117,230 // jne 1f50f <_sk_store_a8_sse41+0x43>
+ .byte 117,230 // jne 203dd <_sk_store_a8_sse41+0x43>
.byte 102,69,15,58,20,68,16,2,8 // pextrb $0x8,%xmm8,0x2(%r8,%rdx,1)
- .byte 102,68,15,56,0,5,132,188,1,0 // pshufb 0x1bc84(%rip),%xmm8 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x10c4>
+ .byte 102,68,15,56,0,5,86,195,1,0 // pshufb 0x1c356(%rip),%xmm8 # 3c760 <_sk_srcover_bgra_8888_sse2_lowp+0x10c0>
.byte 102,69,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,201 // jmp 1f50f <_sk_store_a8_sse41+0x43>
+ .byte 235,201 // jmp 203dd <_sk_store_a8_sse41+0x43>
.byte 102,69,15,58,20,4,16,0 // pextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,191 // jmp 1f50f <_sk_store_a8_sse41+0x43>
+ .byte 235,191 // jmp 203dd <_sk_store_a8_sse41+0x43>
HIDDEN _sk_load_g8_sse41
.globl _sk_load_g8_sse41
@@ -30267,25 +31286,25 @@ _sk_load_g8_sse41:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 1f58c <_sk_load_g8_sse41+0x3c>
+ .byte 117,42 // jne 2045a <_sk_load_g8_sse41+0x3c>
.byte 102,65,15,56,49,4,16 // pmovzxbd (%r8,%rdx,1),%xmm0
- .byte 102,15,219,5,239,184,1,0 // pand 0x1b8ef(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,219,5,193,191,1,0 // pand 0x1bfc1(%rip),%xmm0 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,69,186,1,0 // mulps 0x1ba45(%rip),%xmm0 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 15,89,5,23,193,1,0 // mulps 0x1c117(%rip),%xmm0 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,44,184,1,0 // movaps 0x1b82c(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,29,254,190,1,0 // movaps 0x1befe(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,49 // je 1f5c5 <_sk_load_g8_sse41+0x75>
+ .byte 116,49 // je 20493 <_sk_load_g8_sse41+0x75>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 1f5af <_sk_load_g8_sse41+0x5f>
+ .byte 116,19 // je 2047d <_sk_load_g8_sse41+0x5f>
.byte 60,3 // cmp $0x3,%al
- .byte 117,201 // jne 1f569 <_sk_load_g8_sse41+0x19>
+ .byte 117,201 // jne 20437 <_sk_load_g8_sse41+0x19>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -30293,10 +31312,10 @@ _sk_load_g8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,164 // jmp 1f569 <_sk_load_g8_sse41+0x19>
+ .byte 235,164 // jmp 20437 <_sk_load_g8_sse41+0x19>
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,153 // jmp 1f569 <_sk_load_g8_sse41+0x19>
+ .byte 235,153 // jmp 20437 <_sk_load_g8_sse41+0x19>
HIDDEN _sk_load_g8_dst_sse41
.globl _sk_load_g8_dst_sse41
@@ -30307,25 +31326,25 @@ _sk_load_g8_dst_sse41:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 1f60c <_sk_load_g8_dst_sse41+0x3c>
+ .byte 117,42 // jne 204da <_sk_load_g8_dst_sse41+0x3c>
.byte 102,65,15,56,49,36,16 // pmovzxbd (%r8,%rdx,1),%xmm4
- .byte 102,15,219,37,111,184,1,0 // pand 0x1b86f(%rip),%xmm4 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,219,37,65,191,1,0 // pand 0x1bf41(%rip),%xmm4 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,197,185,1,0 // mulps 0x1b9c5(%rip),%xmm4 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 15,89,37,151,192,1,0 // mulps 0x1c097(%rip),%xmm4 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,172,183,1,0 // movaps 0x1b7ac(%rip),%xmm7 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,61,126,190,1,0 // movaps 0x1be7e(%rip),%xmm7 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,49 // je 1f645 <_sk_load_g8_dst_sse41+0x75>
+ .byte 116,49 // je 20513 <_sk_load_g8_dst_sse41+0x75>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 1f62f <_sk_load_g8_dst_sse41+0x5f>
+ .byte 116,19 // je 204fd <_sk_load_g8_dst_sse41+0x5f>
.byte 60,3 // cmp $0x3,%al
- .byte 117,201 // jne 1f5e9 <_sk_load_g8_dst_sse41+0x19>
+ .byte 117,201 // jne 204b7 <_sk_load_g8_dst_sse41+0x19>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -30333,10 +31352,10 @@ _sk_load_g8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,164 // jmp 1f5e9 <_sk_load_g8_dst_sse41+0x19>
+ .byte 235,164 // jmp 204b7 <_sk_load_g8_dst_sse41+0x19>
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,153 // jmp 1f5e9 <_sk_load_g8_dst_sse41+0x19>
+ .byte 235,153 // jmp 204b7 <_sk_load_g8_dst_sse41+0x19>
HIDDEN _sk_gather_g8_sse41
.globl _sk_gather_g8_sse41
@@ -30379,9 +31398,9 @@ _sk_gather_g8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,195,184,1,0 // mulps 0x1b8c3(%rip),%xmm0 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 15,89,5,149,191,1,0 // mulps 0x1bf95(%rip),%xmm0 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,170,182,1,0 // movaps 0x1b6aa(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,29,124,189,1,0 // movaps 0x1bd7c(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -30396,41 +31415,41 @@ _sk_load_565_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 1f773 <_sk_load_565_sse41+0x65>
+ .byte 117,80 // jne 20641 <_sk_load_565_sse41+0x65>
.byte 102,65,15,56,51,20,80 // pmovzxwd (%r8,%rdx,2),%xmm2
- .byte 102,15,111,5,158,184,1,0 // movdqa 0x1b89e(%rip),%xmm0 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,5,112,191,1,0 // movdqa 0x1bf70(%rip),%xmm0 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,160,184,1,0 // mulps 0x1b8a0(%rip),%xmm0 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,15,111,13,168,184,1,0 // movdqa 0x1b8a8(%rip),%xmm1 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
+ .byte 15,89,5,114,191,1,0 // mulps 0x1bf72(%rip),%xmm0 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 102,15,111,13,122,191,1,0 // movdqa 0x1bf7a(%rip),%xmm1 # 3c590 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,170,184,1,0 // mulps 0x1b8aa(%rip),%xmm1 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,15,219,21,178,184,1,0 // pand 0x1b8b2(%rip),%xmm2 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
+ .byte 15,89,13,124,191,1,0 // mulps 0x1bf7c(%rip),%xmm1 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 102,15,219,21,132,191,1,0 // pand 0x1bf84(%rip),%xmm2 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,184,184,1,0 // mulps 0x1b8b8(%rip),%xmm2 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
+ .byte 15,89,21,138,191,1,0 // mulps 0x1bf8a(%rip),%xmm2 # 3c5c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf20>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,63,182,1,0 // movaps 0x1b63f(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,29,17,189,1,0 // movaps 0x1bd11(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,46 // je 1f7a9 <_sk_load_565_sse41+0x9b>
+ .byte 116,46 // je 20677 <_sk_load_565_sse41+0x9b>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 1f796 <_sk_load_565_sse41+0x88>
+ .byte 116,19 // je 20664 <_sk_load_565_sse41+0x88>
.byte 60,3 // cmp $0x3,%al
- .byte 117,163 // jne 1f72a <_sk_load_565_sse41+0x1c>
+ .byte 117,163 // jne 205f8 <_sk_load_565_sse41+0x1c>
.byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm2
- .byte 235,129 // jmp 1f72a <_sk_load_565_sse41+0x1c>
+ .byte 235,129 // jmp 205f8 <_sk_load_565_sse41+0x1c>
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,115,255,255,255 // jmpq 1f72a <_sk_load_565_sse41+0x1c>
+ .byte 233,115,255,255,255 // jmpq 205f8 <_sk_load_565_sse41+0x1c>
HIDDEN _sk_load_565_dst_sse41
.globl _sk_load_565_dst_sse41
@@ -30442,41 +31461,41 @@ _sk_load_565_dst_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 1f81c <_sk_load_565_dst_sse41+0x65>
+ .byte 117,80 // jne 206ea <_sk_load_565_dst_sse41+0x65>
.byte 102,65,15,56,51,52,80 // pmovzxwd (%r8,%rdx,2),%xmm6
- .byte 102,15,111,37,245,183,1,0 // movdqa 0x1b7f5(%rip),%xmm4 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,37,199,190,1,0 // movdqa 0x1bec7(%rip),%xmm4 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,247,183,1,0 // mulps 0x1b7f7(%rip),%xmm4 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,15,111,45,255,183,1,0 // movdqa 0x1b7ff(%rip),%xmm5 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
+ .byte 15,89,37,201,190,1,0 // mulps 0x1bec9(%rip),%xmm4 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 102,15,111,45,209,190,1,0 // movdqa 0x1bed1(%rip),%xmm5 # 3c590 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,1,184,1,0 // mulps 0x1b801(%rip),%xmm5 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,15,219,53,9,184,1,0 // pand 0x1b809(%rip),%xmm6 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
+ .byte 15,89,45,211,190,1,0 // mulps 0x1bed3(%rip),%xmm5 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 102,15,219,53,219,190,1,0 // pand 0x1bedb(%rip),%xmm6 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,15,184,1,0 // mulps 0x1b80f(%rip),%xmm6 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
+ .byte 15,89,53,225,190,1,0 // mulps 0x1bee1(%rip),%xmm6 # 3c5c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf20>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,150,181,1,0 // movaps 0x1b596(%rip),%xmm7 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,61,104,188,1,0 // movaps 0x1bc68(%rip),%xmm7 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,46 // je 1f852 <_sk_load_565_dst_sse41+0x9b>
+ .byte 116,46 // je 20720 <_sk_load_565_dst_sse41+0x9b>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 1f83f <_sk_load_565_dst_sse41+0x88>
+ .byte 116,19 // je 2070d <_sk_load_565_dst_sse41+0x88>
.byte 60,3 // cmp $0x3,%al
- .byte 117,163 // jne 1f7d3 <_sk_load_565_dst_sse41+0x1c>
+ .byte 117,163 // jne 206a1 <_sk_load_565_dst_sse41+0x1c>
.byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,244,15 // pblendw $0xf,%xmm4,%xmm6
- .byte 235,129 // jmp 1f7d3 <_sk_load_565_dst_sse41+0x1c>
+ .byte 235,129 // jmp 206a1 <_sk_load_565_dst_sse41+0x1c>
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,115,255,255,255 // jmpq 1f7d3 <_sk_load_565_dst_sse41+0x1c>
+ .byte 233,115,255,255,255 // jmpq 206a1 <_sk_load_565_dst_sse41+0x1c>
HIDDEN _sk_gather_565_sse41
.globl _sk_gather_565_sse41
@@ -30518,19 +31537,19 @@ _sk_gather_565_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,208 // pmovzxwd %xmm0,%xmm2
- .byte 102,15,111,5,200,182,1,0 // movdqa 0x1b6c8(%rip),%xmm0 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,5,154,189,1,0 // movdqa 0x1bd9a(%rip),%xmm0 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,202,182,1,0 // mulps 0x1b6ca(%rip),%xmm0 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,15,111,13,210,182,1,0 // movdqa 0x1b6d2(%rip),%xmm1 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
+ .byte 15,89,5,156,189,1,0 // mulps 0x1bd9c(%rip),%xmm0 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 102,15,111,13,164,189,1,0 // movdqa 0x1bda4(%rip),%xmm1 # 3c590 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,212,182,1,0 // mulps 0x1b6d4(%rip),%xmm1 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,15,219,21,220,182,1,0 // pand 0x1b6dc(%rip),%xmm2 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
+ .byte 15,89,13,166,189,1,0 // mulps 0x1bda6(%rip),%xmm1 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 102,15,219,21,174,189,1,0 // pand 0x1bdae(%rip),%xmm2 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,226,182,1,0 // mulps 0x1b6e2(%rip),%xmm2 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
+ .byte 15,89,21,180,189,1,0 // mulps 0x1bdb4(%rip),%xmm2 # 3c5c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf20>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,105,180,1,0 // movaps 0x1b469(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,29,59,187,1,0 // movaps 0x1bb3b(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse41
@@ -30545,16 +31564,16 @@ _sk_store_565_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,67,180,1,0 // movaps 0x1b443(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,21,21,187,1,0 // movaps 0x1bb15(%rip),%xmm10 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,87,184,1,0 // movaps 0x1b857(%rip),%xmm11 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x10d4>
+ .byte 68,15,40,29,41,191,1,0 // movaps 0x1bf29(%rip),%xmm11 # 3c770 <_sk_srcover_bgra_8888_sse2_lowp+0x10d0>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 68,15,95,225 // maxps %xmm1,%xmm12
.byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 68,15,89,37,68,184,1,0 // mulps 0x1b844(%rip),%xmm12 # 3b1e0 <_sk_srcover_bgra_8888_sse2_lowp+0x10e4>
+ .byte 68,15,89,37,22,191,1,0 // mulps 0x1bf16(%rip),%xmm12 # 3c780 <_sk_srcover_bgra_8888_sse2_lowp+0x10e0>
.byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
.byte 102,65,15,114,244,5 // pslld $0x5,%xmm12
.byte 68,15,95,194 // maxps %xmm2,%xmm8
@@ -30565,7 +31584,7 @@ _sk_store_565_sse41:
.byte 102,69,15,86,196 // orpd %xmm12,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1f9d7 <_sk_store_565_sse41+0x8e>
+ .byte 117,10 // jne 208a5 <_sk_store_565_sse41+0x8e>
.byte 102,69,15,214,4,80 // movq %xmm8,(%r8,%rdx,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30573,17 +31592,17 @@ _sk_store_565_sse41:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,31 // je 1fa04 <_sk_store_565_sse41+0xbb>
+ .byte 116,31 // je 208d2 <_sk_store_565_sse41+0xbb>
.byte 60,2 // cmp $0x2,%al
- .byte 116,13 // je 1f9f6 <_sk_store_565_sse41+0xad>
+ .byte 116,13 // je 208c4 <_sk_store_565_sse41+0xad>
.byte 60,3 // cmp $0x3,%al
- .byte 117,230 // jne 1f9d3 <_sk_store_565_sse41+0x8a>
+ .byte 117,230 // jne 208a1 <_sk_store_565_sse41+0x8a>
.byte 102,69,15,58,21,68,80,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rdx,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,207 // jmp 1f9d3 <_sk_store_565_sse41+0x8a>
+ .byte 235,207 // jmp 208a1 <_sk_store_565_sse41+0x8a>
.byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,197 // jmp 1f9d3 <_sk_store_565_sse41+0x8a>
+ .byte 235,197 // jmp 208a1 <_sk_store_565_sse41+0x8a>
HIDDEN _sk_load_4444_sse41
.globl _sk_load_4444_sse41
@@ -30595,44 +31614,44 @@ _sk_load_4444_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 1fa82 <_sk_load_4444_sse41+0x74>
+ .byte 117,95 // jne 20950 <_sk_load_4444_sse41+0x74>
.byte 102,65,15,56,51,28,80 // pmovzxwd (%r8,%rdx,2),%xmm3
- .byte 102,15,111,5,190,183,1,0 // movdqa 0x1b7be(%rip),%xmm0 # 3b1f0 <_sk_srcover_bgra_8888_sse2_lowp+0x10f4>
+ .byte 102,15,111,5,144,190,1,0 // movdqa 0x1be90(%rip),%xmm0 # 3c790 <_sk_srcover_bgra_8888_sse2_lowp+0x10f0>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,192,183,1,0 // mulps 0x1b7c0(%rip),%xmm0 # 3b200 <_sk_srcover_bgra_8888_sse2_lowp+0x1104>
- .byte 102,15,111,13,200,183,1,0 // movdqa 0x1b7c8(%rip),%xmm1 # 3b210 <_sk_srcover_bgra_8888_sse2_lowp+0x1114>
+ .byte 15,89,5,146,190,1,0 // mulps 0x1be92(%rip),%xmm0 # 3c7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1100>
+ .byte 102,15,111,13,154,190,1,0 // movdqa 0x1be9a(%rip),%xmm1 # 3c7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1110>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,202,183,1,0 // mulps 0x1b7ca(%rip),%xmm1 # 3b220 <_sk_srcover_bgra_8888_sse2_lowp+0x1124>
- .byte 102,15,111,21,210,183,1,0 // movdqa 0x1b7d2(%rip),%xmm2 # 3b230 <_sk_srcover_bgra_8888_sse2_lowp+0x1134>
+ .byte 15,89,13,156,190,1,0 // mulps 0x1be9c(%rip),%xmm1 # 3c7c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1120>
+ .byte 102,15,111,21,164,190,1,0 // movdqa 0x1bea4(%rip),%xmm2 # 3c7d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1130>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,212,183,1,0 // mulps 0x1b7d4(%rip),%xmm2 # 3b240 <_sk_srcover_bgra_8888_sse2_lowp+0x1144>
- .byte 102,15,219,29,220,183,1,0 // pand 0x1b7dc(%rip),%xmm3 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x1154>
+ .byte 15,89,21,166,190,1,0 // mulps 0x1bea6(%rip),%xmm2 # 3c7e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1140>
+ .byte 102,15,219,29,174,190,1,0 // pand 0x1beae(%rip),%xmm3 # 3c7f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1150>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,226,183,1,0 // mulps 0x1b7e2(%rip),%xmm3 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x1164>
+ .byte 15,89,29,180,190,1,0 // mulps 0x1beb4(%rip),%xmm3 # 3c800 <_sk_srcover_bgra_8888_sse2_lowp+0x1160>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,49 // je 1fabb <_sk_load_4444_sse41+0xad>
+ .byte 116,49 // je 20989 <_sk_load_4444_sse41+0xad>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 1faa5 <_sk_load_4444_sse41+0x97>
+ .byte 116,19 // je 20973 <_sk_load_4444_sse41+0x97>
.byte 60,3 // cmp $0x3,%al
- .byte 117,148 // jne 1fa2a <_sk_load_4444_sse41+0x1c>
+ .byte 117,148 // jne 208f8 <_sk_load_4444_sse41+0x1c>
.byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,111,255,255,255 // jmpq 1fa2a <_sk_load_4444_sse41+0x1c>
+ .byte 233,111,255,255,255 // jmpq 208f8 <_sk_load_4444_sse41+0x1c>
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,97,255,255,255 // jmpq 1fa2a <_sk_load_4444_sse41+0x1c>
+ .byte 233,97,255,255,255 // jmpq 208f8 <_sk_load_4444_sse41+0x1c>
HIDDEN _sk_load_4444_dst_sse41
.globl _sk_load_4444_dst_sse41
@@ -30644,44 +31663,44 @@ _sk_load_4444_dst_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 1fb3d <_sk_load_4444_dst_sse41+0x74>
+ .byte 117,95 // jne 20a0b <_sk_load_4444_dst_sse41+0x74>
.byte 102,65,15,56,51,60,80 // pmovzxwd (%r8,%rdx,2),%xmm7
- .byte 102,15,111,37,3,183,1,0 // movdqa 0x1b703(%rip),%xmm4 # 3b1f0 <_sk_srcover_bgra_8888_sse2_lowp+0x10f4>
+ .byte 102,15,111,37,213,189,1,0 // movdqa 0x1bdd5(%rip),%xmm4 # 3c790 <_sk_srcover_bgra_8888_sse2_lowp+0x10f0>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,5,183,1,0 // mulps 0x1b705(%rip),%xmm4 # 3b200 <_sk_srcover_bgra_8888_sse2_lowp+0x1104>
- .byte 102,15,111,45,13,183,1,0 // movdqa 0x1b70d(%rip),%xmm5 # 3b210 <_sk_srcover_bgra_8888_sse2_lowp+0x1114>
+ .byte 15,89,37,215,189,1,0 // mulps 0x1bdd7(%rip),%xmm4 # 3c7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1100>
+ .byte 102,15,111,45,223,189,1,0 // movdqa 0x1bddf(%rip),%xmm5 # 3c7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1110>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,15,183,1,0 // mulps 0x1b70f(%rip),%xmm5 # 3b220 <_sk_srcover_bgra_8888_sse2_lowp+0x1124>
- .byte 102,15,111,53,23,183,1,0 // movdqa 0x1b717(%rip),%xmm6 # 3b230 <_sk_srcover_bgra_8888_sse2_lowp+0x1134>
+ .byte 15,89,45,225,189,1,0 // mulps 0x1bde1(%rip),%xmm5 # 3c7c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1120>
+ .byte 102,15,111,53,233,189,1,0 // movdqa 0x1bde9(%rip),%xmm6 # 3c7d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1130>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,25,183,1,0 // mulps 0x1b719(%rip),%xmm6 # 3b240 <_sk_srcover_bgra_8888_sse2_lowp+0x1144>
- .byte 102,15,219,61,33,183,1,0 // pand 0x1b721(%rip),%xmm7 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x1154>
+ .byte 15,89,53,235,189,1,0 // mulps 0x1bdeb(%rip),%xmm6 # 3c7e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1140>
+ .byte 102,15,219,61,243,189,1,0 // pand 0x1bdf3(%rip),%xmm7 # 3c7f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1150>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,39,183,1,0 // mulps 0x1b727(%rip),%xmm7 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x1164>
+ .byte 15,89,61,249,189,1,0 // mulps 0x1bdf9(%rip),%xmm7 # 3c800 <_sk_srcover_bgra_8888_sse2_lowp+0x1160>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,49 // je 1fb76 <_sk_load_4444_dst_sse41+0xad>
+ .byte 116,49 // je 20a44 <_sk_load_4444_dst_sse41+0xad>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 1fb60 <_sk_load_4444_dst_sse41+0x97>
+ .byte 116,19 // je 20a2e <_sk_load_4444_dst_sse41+0x97>
.byte 60,3 // cmp $0x3,%al
- .byte 117,148 // jne 1fae5 <_sk_load_4444_dst_sse41+0x1c>
+ .byte 117,148 // jne 209b3 <_sk_load_4444_dst_sse41+0x1c>
.byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,111,255,255,255 // jmpq 1fae5 <_sk_load_4444_dst_sse41+0x1c>
+ .byte 233,111,255,255,255 // jmpq 209b3 <_sk_load_4444_dst_sse41+0x1c>
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,97,255,255,255 // jmpq 1fae5 <_sk_load_4444_dst_sse41+0x1c>
+ .byte 233,97,255,255,255 // jmpq 209b3 <_sk_load_4444_dst_sse41+0x1c>
HIDDEN _sk_gather_4444_sse41
.globl _sk_gather_4444_sse41
@@ -30723,21 +31742,21 @@ _sk_gather_4444_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,216 // pmovzxwd %xmm0,%xmm3
- .byte 102,15,111,5,196,181,1,0 // movdqa 0x1b5c4(%rip),%xmm0 # 3b1f0 <_sk_srcover_bgra_8888_sse2_lowp+0x10f4>
+ .byte 102,15,111,5,150,188,1,0 // movdqa 0x1bc96(%rip),%xmm0 # 3c790 <_sk_srcover_bgra_8888_sse2_lowp+0x10f0>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,198,181,1,0 // mulps 0x1b5c6(%rip),%xmm0 # 3b200 <_sk_srcover_bgra_8888_sse2_lowp+0x1104>
- .byte 102,15,111,13,206,181,1,0 // movdqa 0x1b5ce(%rip),%xmm1 # 3b210 <_sk_srcover_bgra_8888_sse2_lowp+0x1114>
+ .byte 15,89,5,152,188,1,0 // mulps 0x1bc98(%rip),%xmm0 # 3c7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1100>
+ .byte 102,15,111,13,160,188,1,0 // movdqa 0x1bca0(%rip),%xmm1 # 3c7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1110>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,208,181,1,0 // mulps 0x1b5d0(%rip),%xmm1 # 3b220 <_sk_srcover_bgra_8888_sse2_lowp+0x1124>
- .byte 102,15,111,21,216,181,1,0 // movdqa 0x1b5d8(%rip),%xmm2 # 3b230 <_sk_srcover_bgra_8888_sse2_lowp+0x1134>
+ .byte 15,89,13,162,188,1,0 // mulps 0x1bca2(%rip),%xmm1 # 3c7c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1120>
+ .byte 102,15,111,21,170,188,1,0 // movdqa 0x1bcaa(%rip),%xmm2 # 3c7d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1130>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,218,181,1,0 // mulps 0x1b5da(%rip),%xmm2 # 3b240 <_sk_srcover_bgra_8888_sse2_lowp+0x1144>
- .byte 102,15,219,29,226,181,1,0 // pand 0x1b5e2(%rip),%xmm3 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x1154>
+ .byte 15,89,21,172,188,1,0 // mulps 0x1bcac(%rip),%xmm2 # 3c7e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1140>
+ .byte 102,15,219,29,180,188,1,0 // pand 0x1bcb4(%rip),%xmm3 # 3c7f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1150>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,232,181,1,0 // mulps 0x1b5e8(%rip),%xmm3 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x1164>
+ .byte 15,89,29,186,188,1,0 // mulps 0x1bcba(%rip),%xmm3 # 3c800 <_sk_srcover_bgra_8888_sse2_lowp+0x1160>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30753,9 +31772,9 @@ _sk_store_4444_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,16,177,1,0 // movaps 0x1b110(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,21,226,183,1,0 // movaps 0x1b7e2(%rip),%xmm10 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,196,181,1,0 // movaps 0x1b5c4(%rip),%xmm11 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1174>
+ .byte 68,15,40,29,150,188,1,0 // movaps 0x1bc96(%rip),%xmm11 # 3c810 <_sk_srcover_bgra_8888_sse2_lowp+0x1170>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,12 // pslld $0xc,%xmm9
@@ -30780,7 +31799,7 @@ _sk_store_4444_sse41:
.byte 102,69,15,86,196 // orpd %xmm12,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1fd27 <_sk_store_4444_sse41+0xab>
+ .byte 117,10 // jne 20bf5 <_sk_store_4444_sse41+0xab>
.byte 102,69,15,214,4,80 // movq %xmm8,(%r8,%rdx,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30788,17 +31807,17 @@ _sk_store_4444_sse41:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,31 // je 1fd54 <_sk_store_4444_sse41+0xd8>
+ .byte 116,31 // je 20c22 <_sk_store_4444_sse41+0xd8>
.byte 60,2 // cmp $0x2,%al
- .byte 116,13 // je 1fd46 <_sk_store_4444_sse41+0xca>
+ .byte 116,13 // je 20c14 <_sk_store_4444_sse41+0xca>
.byte 60,3 // cmp $0x3,%al
- .byte 117,230 // jne 1fd23 <_sk_store_4444_sse41+0xa7>
+ .byte 117,230 // jne 20bf1 <_sk_store_4444_sse41+0xa7>
.byte 102,69,15,58,21,68,80,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rdx,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,207 // jmp 1fd23 <_sk_store_4444_sse41+0xa7>
+ .byte 235,207 // jmp 20bf1 <_sk_store_4444_sse41+0xa7>
.byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,197 // jmp 1fd23 <_sk_store_4444_sse41+0xa7>
+ .byte 235,197 // jmp 20bf1 <_sk_store_4444_sse41+0xa7>
HIDDEN _sk_load_8888_sse41
.globl _sk_load_8888_sse41
@@ -30810,19 +31829,19 @@ _sk_load_8888_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1fdcd <_sk_load_8888_sse41+0x6f>
+ .byte 117,89 // jne 20c9b <_sk_load_8888_sse41+0x6f>
.byte 243,65,15,111,28,144 // movdqu (%r8,%rdx,4),%xmm3
- .byte 102,15,111,5,222,176,1,0 // movdqa 0x1b0de(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,111,5,176,183,1,0 // movdqa 0x1b7b0(%rip),%xmm0 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,47,178,1,0 // movaps 0x1b22f(%rip),%xmm8 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,40,5,1,185,1,0 // movaps 0x1b901(%rip),%xmm8 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,206,176,1,0 // pshufb 0x1b0ce(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
+ .byte 102,15,56,0,13,160,183,1,0 // pshufb 0x1b7a0(%rip),%xmm1 # 3c410 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,202,176,1,0 // pshufb 0x1b0ca(%rip),%xmm2 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
+ .byte 102,15,56,0,21,156,183,1,0 // pshufb 0x1b79c(%rip),%xmm2 # 3c420 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -30833,19 +31852,19 @@ _sk_load_8888_sse41:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,41 // je 1fdfe <_sk_load_8888_sse41+0xa0>
+ .byte 116,41 // je 20ccc <_sk_load_8888_sse41+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 60,2 // cmp $0x2,%al
- .byte 116,16 // je 1fded <_sk_load_8888_sse41+0x8f>
+ .byte 116,16 // je 20cbb <_sk_load_8888_sse41+0x8f>
.byte 60,3 // cmp $0x3,%al
- .byte 117,153 // jne 1fd7a <_sk_load_8888_sse41+0x1c>
+ .byte 117,153 // jne 20c48 <_sk_load_8888_sse41+0x1c>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,124,255,255,255 // jmpq 1fd7a <_sk_load_8888_sse41+0x1c>
+ .byte 233,124,255,255,255 // jmpq 20c48 <_sk_load_8888_sse41+0x1c>
.byte 102,65,15,110,28,144 // movd (%r8,%rdx,4),%xmm3
- .byte 233,113,255,255,255 // jmpq 1fd7a <_sk_load_8888_sse41+0x1c>
+ .byte 233,113,255,255,255 // jmpq 20c48 <_sk_load_8888_sse41+0x1c>
HIDDEN _sk_load_8888_dst_sse41
.globl _sk_load_8888_dst_sse41
@@ -30857,19 +31876,19 @@ _sk_load_8888_dst_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1fe78 <_sk_load_8888_dst_sse41+0x6f>
+ .byte 117,89 // jne 20d46 <_sk_load_8888_dst_sse41+0x6f>
.byte 243,65,15,111,60,144 // movdqu (%r8,%rdx,4),%xmm7
- .byte 102,15,111,37,51,176,1,0 // movdqa 0x1b033(%rip),%xmm4 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,111,37,5,183,1,0 // movdqa 0x1b705(%rip),%xmm4 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,132,177,1,0 // movaps 0x1b184(%rip),%xmm8 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,40,5,86,184,1,0 // movaps 0x1b856(%rip),%xmm8 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,35,176,1,0 // pshufb 0x1b023(%rip),%xmm5 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
+ .byte 102,15,56,0,45,245,182,1,0 // pshufb 0x1b6f5(%rip),%xmm5 # 3c410 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,31,176,1,0 // pshufb 0x1b01f(%rip),%xmm6 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
+ .byte 102,15,56,0,53,241,182,1,0 // pshufb 0x1b6f1(%rip),%xmm6 # 3c420 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -30880,19 +31899,19 @@ _sk_load_8888_dst_sse41:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,41 // je 1fea9 <_sk_load_8888_dst_sse41+0xa0>
+ .byte 116,41 // je 20d77 <_sk_load_8888_dst_sse41+0xa0>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 60,2 // cmp $0x2,%al
- .byte 116,16 // je 1fe98 <_sk_load_8888_dst_sse41+0x8f>
+ .byte 116,16 // je 20d66 <_sk_load_8888_dst_sse41+0x8f>
.byte 60,3 // cmp $0x3,%al
- .byte 117,153 // jne 1fe25 <_sk_load_8888_dst_sse41+0x1c>
+ .byte 117,153 // jne 20cf3 <_sk_load_8888_dst_sse41+0x1c>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,124,255,255,255 // jmpq 1fe25 <_sk_load_8888_dst_sse41+0x1c>
+ .byte 233,124,255,255,255 // jmpq 20cf3 <_sk_load_8888_dst_sse41+0x1c>
.byte 102,65,15,110,60,144 // movd (%r8,%rdx,4),%xmm7
- .byte 233,113,255,255,255 // jmpq 1fe25 <_sk_load_8888_dst_sse41+0x1c>
+ .byte 233,113,255,255,255 // jmpq 20cf3 <_sk_load_8888_dst_sse41+0x1c>
HIDDEN _sk_gather_8888_sse41
.globl _sk_gather_8888_sse41
@@ -30929,17 +31948,17 @@ _sk_gather_8888_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,21,175,1,0 // movdqa 0x1af15(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,111,5,231,181,1,0 // movdqa 0x1b5e7(%rip),%xmm0 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,102,176,1,0 // movaps 0x1b066(%rip),%xmm8 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,40,5,56,183,1,0 // movaps 0x1b738(%rip),%xmm8 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,5,175,1,0 // pshufb 0x1af05(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
+ .byte 102,15,56,0,13,215,181,1,0 // pshufb 0x1b5d7(%rip),%xmm1 # 3c410 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,1,175,1,0 // pshufb 0x1af01(%rip),%xmm2 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
+ .byte 102,15,56,0,21,211,181,1,0 // pshufb 0x1b5d3(%rip),%xmm2 # 3c420 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -30960,9 +31979,9 @@ _sk_store_8888_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,245,173,1,0 // movaps 0x1adf5(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,21,199,180,1,0 // movaps 0x1b4c7(%rip),%xmm10 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,201,174,1,0 // movaps 0x1aec9(%rip),%xmm11 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,29,155,181,1,0 // movaps 0x1b59b(%rip),%xmm11 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 69,15,87,228 // xorps %xmm12,%xmm12
@@ -30986,23 +32005,23 @@ _sk_store_8888_sse41:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,196 // por %xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 2003c <_sk_store_8888_sse41+0xa6>
+ .byte 117,10 // jne 20f0a <_sk_store_8888_sse41+0xa6>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,25 // je 2005d <_sk_store_8888_sse41+0xc7>
+ .byte 116,25 // je 20f2b <_sk_store_8888_sse41+0xc7>
.byte 60,2 // cmp $0x2,%al
- .byte 116,13 // je 20055 <_sk_store_8888_sse41+0xbf>
+ .byte 116,13 // je 20f23 <_sk_store_8888_sse41+0xbf>
.byte 60,3 // cmp $0x3,%al
- .byte 117,236 // jne 20038 <_sk_store_8888_sse41+0xa2>
+ .byte 117,236 // jne 20f06 <_sk_store_8888_sse41+0xa2>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,219 // jmp 20038 <_sk_store_8888_sse41+0xa2>
+ .byte 235,219 // jmp 20f06 <_sk_store_8888_sse41+0xa2>
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,211 // jmp 20038 <_sk_store_8888_sse41+0xa2>
+ .byte 235,211 // jmp 20f06 <_sk_store_8888_sse41+0xa2>
HIDDEN _sk_load_bgra_sse41
.globl _sk_load_bgra_sse41
@@ -31014,19 +32033,19 @@ _sk_load_bgra_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 200d4 <_sk_load_bgra_sse41+0x6f>
+ .byte 117,89 // jne 20fa2 <_sk_load_bgra_sse41+0x6f>
.byte 243,65,15,111,28,144 // movdqu (%r8,%rdx,4),%xmm3
- .byte 102,15,111,5,215,173,1,0 // movdqa 0x1add7(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,111,5,169,180,1,0 // movdqa 0x1b4a9(%rip),%xmm0 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,40,175,1,0 // movaps 0x1af28(%rip),%xmm8 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,40,5,250,181,1,0 // movaps 0x1b5fa(%rip),%xmm8 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,199,173,1,0 // pshufb 0x1adc7(%rip),%xmm0 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
+ .byte 102,15,56,0,5,153,180,1,0 // pshufb 0x1b499(%rip),%xmm0 # 3c410 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,195,173,1,0 // pshufb 0x1adc3(%rip),%xmm0 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
+ .byte 102,15,56,0,5,149,180,1,0 // pshufb 0x1b495(%rip),%xmm0 # 3c420 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -31037,19 +32056,19 @@ _sk_load_bgra_sse41:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,41 // je 20105 <_sk_load_bgra_sse41+0xa0>
+ .byte 116,41 // je 20fd3 <_sk_load_bgra_sse41+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 60,2 // cmp $0x2,%al
- .byte 116,16 // je 200f4 <_sk_load_bgra_sse41+0x8f>
+ .byte 116,16 // je 20fc2 <_sk_load_bgra_sse41+0x8f>
.byte 60,3 // cmp $0x3,%al
- .byte 117,153 // jne 20081 <_sk_load_bgra_sse41+0x1c>
+ .byte 117,153 // jne 20f4f <_sk_load_bgra_sse41+0x1c>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,124,255,255,255 // jmpq 20081 <_sk_load_bgra_sse41+0x1c>
+ .byte 233,124,255,255,255 // jmpq 20f4f <_sk_load_bgra_sse41+0x1c>
.byte 102,65,15,110,28,144 // movd (%r8,%rdx,4),%xmm3
- .byte 233,113,255,255,255 // jmpq 20081 <_sk_load_bgra_sse41+0x1c>
+ .byte 233,113,255,255,255 // jmpq 20f4f <_sk_load_bgra_sse41+0x1c>
HIDDEN _sk_load_bgra_dst_sse41
.globl _sk_load_bgra_dst_sse41
@@ -31061,19 +32080,19 @@ _sk_load_bgra_dst_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 2017f <_sk_load_bgra_dst_sse41+0x6f>
+ .byte 117,89 // jne 2104d <_sk_load_bgra_dst_sse41+0x6f>
.byte 243,65,15,111,60,144 // movdqu (%r8,%rdx,4),%xmm7
- .byte 102,15,111,37,44,173,1,0 // movdqa 0x1ad2c(%rip),%xmm4 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,111,37,254,179,1,0 // movdqa 0x1b3fe(%rip),%xmm4 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 68,15,40,5,125,174,1,0 // movaps 0x1ae7d(%rip),%xmm8 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,40,5,79,181,1,0 // movaps 0x1b54f(%rip),%xmm8 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,28,173,1,0 // pshufb 0x1ad1c(%rip),%xmm4 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
+ .byte 102,15,56,0,37,238,179,1,0 // pshufb 0x1b3ee(%rip),%xmm4 # 3c410 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,24,173,1,0 // pshufb 0x1ad18(%rip),%xmm4 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
+ .byte 102,15,56,0,37,234,179,1,0 // pshufb 0x1b3ea(%rip),%xmm4 # 3c420 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -31084,19 +32103,19 @@ _sk_load_bgra_dst_sse41:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,41 // je 201b0 <_sk_load_bgra_dst_sse41+0xa0>
+ .byte 116,41 // je 2107e <_sk_load_bgra_dst_sse41+0xa0>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 60,2 // cmp $0x2,%al
- .byte 116,16 // je 2019f <_sk_load_bgra_dst_sse41+0x8f>
+ .byte 116,16 // je 2106d <_sk_load_bgra_dst_sse41+0x8f>
.byte 60,3 // cmp $0x3,%al
- .byte 117,153 // jne 2012c <_sk_load_bgra_dst_sse41+0x1c>
+ .byte 117,153 // jne 20ffa <_sk_load_bgra_dst_sse41+0x1c>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,124,255,255,255 // jmpq 2012c <_sk_load_bgra_dst_sse41+0x1c>
+ .byte 233,124,255,255,255 // jmpq 20ffa <_sk_load_bgra_dst_sse41+0x1c>
.byte 102,65,15,110,60,144 // movd (%r8,%rdx,4),%xmm7
- .byte 233,113,255,255,255 // jmpq 2012c <_sk_load_bgra_dst_sse41+0x1c>
+ .byte 233,113,255,255,255 // jmpq 20ffa <_sk_load_bgra_dst_sse41+0x1c>
HIDDEN _sk_gather_bgra_sse41
.globl _sk_gather_bgra_sse41
@@ -31133,17 +32152,17 @@ _sk_gather_bgra_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,14,172,1,0 // movdqa 0x1ac0e(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,111,5,224,178,1,0 // movdqa 0x1b2e0(%rip),%xmm0 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,95,173,1,0 // movaps 0x1ad5f(%rip),%xmm8 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,40,5,49,180,1,0 // movaps 0x1b431(%rip),%xmm8 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,254,171,1,0 // pshufb 0x1abfe(%rip),%xmm0 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
+ .byte 102,15,56,0,5,208,178,1,0 // pshufb 0x1b2d0(%rip),%xmm0 # 3c410 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,250,171,1,0 // pshufb 0x1abfa(%rip),%xmm0 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
+ .byte 102,15,56,0,5,204,178,1,0 // pshufb 0x1b2cc(%rip),%xmm0 # 3c420 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -31164,9 +32183,9 @@ _sk_store_bgra_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 68,15,40,21,238,170,1,0 // movaps 0x1aaee(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,21,192,177,1,0 // movaps 0x1b1c0(%rip),%xmm10 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,194,171,1,0 // movaps 0x1abc2(%rip),%xmm11 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,29,148,178,1,0 // movaps 0x1b294(%rip),%xmm11 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 69,15,87,228 // xorps %xmm12,%xmm12
@@ -31190,23 +32209,236 @@ _sk_store_bgra_sse41:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,196 // por %xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 20343 <_sk_store_bgra_sse41+0xa6>
+ .byte 117,10 // jne 21211 <_sk_store_bgra_sse41+0xa6>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,25 // je 20364 <_sk_store_bgra_sse41+0xc7>
+ .byte 116,25 // je 21232 <_sk_store_bgra_sse41+0xc7>
.byte 60,2 // cmp $0x2,%al
- .byte 116,13 // je 2035c <_sk_store_bgra_sse41+0xbf>
+ .byte 116,13 // je 2122a <_sk_store_bgra_sse41+0xbf>
.byte 60,3 // cmp $0x3,%al
- .byte 117,236 // jne 2033f <_sk_store_bgra_sse41+0xa2>
+ .byte 117,236 // jne 2120d <_sk_store_bgra_sse41+0xa2>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,219 // jmp 2033f <_sk_store_bgra_sse41+0xa2>
+ .byte 235,219 // jmp 2120d <_sk_store_bgra_sse41+0xa2>
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,211 // jmp 2033f <_sk_store_bgra_sse41+0xa2>
+ .byte 235,211 // jmp 2120d <_sk_store_bgra_sse41+0xa2>
+
+HIDDEN _sk_load_1010102_sse41
+.globl _sk_load_1010102_sse41
+FUNCTION(_sk_load_1010102_sse41)
+_sk_load_1010102_sse41:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,64,8 // movslq 0x8(%rax),%r8
+ .byte 76,15,175,193 // imul %rcx,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,101 // jne 212b5 <_sk_load_1010102_sse41+0x7b>
+ .byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
+ .byte 102,15,111,21,194,181,1,0 // movdqa 0x1b5c2(%rip),%xmm2 # 3c820 <_sk_srcover_bgra_8888_sse2_lowp+0x1180>
+ .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
+ .byte 102,15,219,194 // pand %xmm2,%xmm0
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 68,15,40,5,190,181,1,0 // movaps 0x1b5be(%rip),%xmm8 # 3c830 <_sk_srcover_bgra_8888_sse2_lowp+0x1190>
+ .byte 65,15,89,192 // mulps %xmm8,%xmm0
+ .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
+ .byte 102,15,114,209,10 // psrld $0xa,%xmm1
+ .byte 102,15,219,202 // pand %xmm2,%xmm1
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 65,15,89,200 // mulps %xmm8,%xmm1
+ .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
+ .byte 102,15,114,211,20 // psrld $0x14,%xmm3
+ .byte 102,15,219,218 // pand %xmm2,%xmm3
+ .byte 15,91,211 // cvtdq2ps %xmm3,%xmm2
+ .byte 65,15,89,208 // mulps %xmm8,%xmm2
+ .byte 102,65,15,114,209,30 // psrld $0x1e,%xmm9
+ .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
+ .byte 15,89,29,127,178,1,0 // mulps 0x1b27f(%rip),%xmm3 # 3c530 <_sk_srcover_bgra_8888_sse2_lowp+0xe90>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 137,248 // mov %edi,%eax
+ .byte 36,3 // and $0x3,%al
+ .byte 60,1 // cmp $0x1,%al
+ .byte 116,44 // je 212e9 <_sk_load_1010102_sse41+0xaf>
+ .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
+ .byte 60,2 // cmp $0x2,%al
+ .byte 116,17 // je 212d7 <_sk_load_1010102_sse41+0x9d>
+ .byte 60,3 // cmp $0x3,%al
+ .byte 117,140 // jne 21256 <_sk_load_1010102_sse41+0x1c>
+ .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
+ .byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
+ .byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
+ .byte 102,68,15,58,14,200,15 // pblendw $0xf,%xmm0,%xmm9
+ .byte 233,109,255,255,255 // jmpq 21256 <_sk_load_1010102_sse41+0x1c>
+ .byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
+ .byte 233,98,255,255,255 // jmpq 21256 <_sk_load_1010102_sse41+0x1c>
+
+HIDDEN _sk_load_1010102_dst_sse41
+.globl _sk_load_1010102_dst_sse41
+FUNCTION(_sk_load_1010102_dst_sse41)
+_sk_load_1010102_dst_sse41:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,64,8 // movslq 0x8(%rax),%r8
+ .byte 76,15,175,193 // imul %rcx,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,101 // jne 2136f <_sk_load_1010102_dst_sse41+0x7b>
+ .byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
+ .byte 102,15,111,53,8,181,1,0 // movdqa 0x1b508(%rip),%xmm6 # 3c820 <_sk_srcover_bgra_8888_sse2_lowp+0x1180>
+ .byte 102,65,15,111,225 // movdqa %xmm9,%xmm4
+ .byte 102,15,219,230 // pand %xmm6,%xmm4
+ .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
+ .byte 68,15,40,5,4,181,1,0 // movaps 0x1b504(%rip),%xmm8 # 3c830 <_sk_srcover_bgra_8888_sse2_lowp+0x1190>
+ .byte 65,15,89,224 // mulps %xmm8,%xmm4
+ .byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
+ .byte 102,15,114,213,10 // psrld $0xa,%xmm5
+ .byte 102,15,219,238 // pand %xmm6,%xmm5
+ .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
+ .byte 65,15,89,232 // mulps %xmm8,%xmm5
+ .byte 102,65,15,111,249 // movdqa %xmm9,%xmm7
+ .byte 102,15,114,215,20 // psrld $0x14,%xmm7
+ .byte 102,15,219,254 // pand %xmm6,%xmm7
+ .byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
+ .byte 65,15,89,240 // mulps %xmm8,%xmm6
+ .byte 102,65,15,114,209,30 // psrld $0x1e,%xmm9
+ .byte 65,15,91,249 // cvtdq2ps %xmm9,%xmm7
+ .byte 15,89,61,197,177,1,0 // mulps 0x1b1c5(%rip),%xmm7 # 3c530 <_sk_srcover_bgra_8888_sse2_lowp+0xe90>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 137,248 // mov %edi,%eax
+ .byte 36,3 // and $0x3,%al
+ .byte 60,1 // cmp $0x1,%al
+ .byte 116,44 // je 213a3 <_sk_load_1010102_dst_sse41+0xaf>
+ .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
+ .byte 60,2 // cmp $0x2,%al
+ .byte 116,17 // je 21391 <_sk_load_1010102_dst_sse41+0x9d>
+ .byte 60,3 // cmp $0x3,%al
+ .byte 117,140 // jne 21310 <_sk_load_1010102_dst_sse41+0x1c>
+ .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
+ .byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
+ .byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
+ .byte 102,68,15,58,14,204,15 // pblendw $0xf,%xmm4,%xmm9
+ .byte 233,109,255,255,255 // jmpq 21310 <_sk_load_1010102_dst_sse41+0x1c>
+ .byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
+ .byte 233,98,255,255,255 // jmpq 21310 <_sk_load_1010102_dst_sse41+0x1c>
+
+HIDDEN _sk_gather_1010102_sse41
+.globl _sk_gather_1010102_sse41
+FUNCTION(_sk_gather_1010102_sse41)
+_sk_gather_1010102_sse41:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 243,15,16,80,12 // movss 0xc(%rax),%xmm2
+ .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
+ .byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
+ .byte 102,65,15,254,208 // paddd %xmm8,%xmm2
+ .byte 15,87,219 // xorps %xmm3,%xmm3
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,200 // maxps %xmm0,%xmm9
+ .byte 68,15,93,202 // minps %xmm2,%xmm9
+ .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
+ .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
+ .byte 102,65,15,254,192 // paddd %xmm8,%xmm0
+ .byte 15,95,217 // maxps %xmm1,%xmm3
+ .byte 15,93,216 // minps %xmm0,%xmm3
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
+ .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
+ .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
+ .byte 102,15,56,64,200 // pmulld %xmm0,%xmm1
+ .byte 243,65,15,91,193 // cvttps2dq %xmm9,%xmm0
+ .byte 102,15,254,193 // paddd %xmm1,%xmm0
+ .byte 102,72,15,126,192 // movq %xmm0,%rax
+ .byte 65,137,193 // mov %eax,%r9d
+ .byte 72,193,232,32 // shr $0x20,%rax
+ .byte 102,73,15,58,22,194,1 // pextrq $0x1,%xmm0,%r10
+ .byte 69,137,211 // mov %r10d,%r11d
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 102,71,15,110,12,136 // movd (%r8,%r9,4),%xmm9
+ .byte 102,69,15,58,34,12,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm9
+ .byte 102,71,15,58,34,12,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm9
+ .byte 102,71,15,58,34,12,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm9
+ .byte 102,15,111,21,219,179,1,0 // movdqa 0x1b3db(%rip),%xmm2 # 3c820 <_sk_srcover_bgra_8888_sse2_lowp+0x1180>
+ .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
+ .byte 102,15,219,194 // pand %xmm2,%xmm0
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 68,15,40,5,215,179,1,0 // movaps 0x1b3d7(%rip),%xmm8 # 3c830 <_sk_srcover_bgra_8888_sse2_lowp+0x1190>
+ .byte 65,15,89,192 // mulps %xmm8,%xmm0
+ .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
+ .byte 102,15,114,209,10 // psrld $0xa,%xmm1
+ .byte 102,15,219,202 // pand %xmm2,%xmm1
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 65,15,89,200 // mulps %xmm8,%xmm1
+ .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
+ .byte 102,15,114,211,20 // psrld $0x14,%xmm3
+ .byte 102,15,219,218 // pand %xmm2,%xmm3
+ .byte 15,91,211 // cvtdq2ps %xmm3,%xmm2
+ .byte 65,15,89,208 // mulps %xmm8,%xmm2
+ .byte 102,65,15,114,209,30 // psrld $0x1e,%xmm9
+ .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
+ .byte 15,89,29,152,176,1,0 // mulps 0x1b098(%rip),%xmm3 # 3c530 <_sk_srcover_bgra_8888_sse2_lowp+0xe90>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_store_1010102_sse41
+.globl _sk_store_1010102_sse41
+FUNCTION(_sk_store_1010102_sse41)
+_sk_store_1010102_sse41:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,64,8 // movslq 0x8(%rax),%r8
+ .byte 76,15,175,193 // imul %rcx,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,200 // maxps %xmm0,%xmm9
+ .byte 68,15,40,21,143,174,1,0 // movaps 0x1ae8f(%rip),%xmm10 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 68,15,40,29,115,179,1,0 // movaps 0x1b373(%rip),%xmm11 # 3c840 <_sk_srcover_bgra_8888_sse2_lowp+0x11a0>
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
+ .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
+ .byte 69,15,87,228 // xorps %xmm12,%xmm12
+ .byte 68,15,95,225 // maxps %xmm1,%xmm12
+ .byte 69,15,93,226 // minps %xmm10,%xmm12
+ .byte 69,15,89,227 // mulps %xmm11,%xmm12
+ .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
+ .byte 102,65,15,114,244,10 // pslld $0xa,%xmm12
+ .byte 102,69,15,235,225 // por %xmm9,%xmm12
+ .byte 102,69,15,87,201 // xorpd %xmm9,%xmm9
+ .byte 68,15,95,202 // maxps %xmm2,%xmm9
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
+ .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
+ .byte 102,65,15,114,241,20 // pslld $0x14,%xmm9
+ .byte 102,69,15,235,204 // por %xmm12,%xmm9
+ .byte 68,15,95,195 // maxps %xmm3,%xmm8
+ .byte 69,15,93,194 // minps %xmm10,%xmm8
+ .byte 68,15,89,5,41,179,1,0 // mulps 0x1b329(%rip),%xmm8 # 3c850 <_sk_srcover_bgra_8888_sse2_lowp+0x11b0>
+ .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
+ .byte 102,65,15,114,240,30 // pslld $0x1e,%xmm8
+ .byte 102,69,15,235,193 // por %xmm9,%xmm8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,10 // jne 21546 <_sk_store_1010102_sse41+0xaa>
+ .byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 137,248 // mov %edi,%eax
+ .byte 36,3 // and $0x3,%al
+ .byte 60,1 // cmp $0x1,%al
+ .byte 116,25 // je 21567 <_sk_store_1010102_sse41+0xcb>
+ .byte 60,2 // cmp $0x2,%al
+ .byte 116,13 // je 2155f <_sk_store_1010102_sse41+0xc3>
+ .byte 60,3 // cmp $0x3,%al
+ .byte 117,236 // jne 21542 <_sk_store_1010102_sse41+0xa6>
+ .byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
+ .byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
+ .byte 235,219 // jmp 21542 <_sk_store_1010102_sse41+0xa6>
+ .byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
+ .byte 235,211 // jmp 21542 <_sk_store_1010102_sse41+0xa6>
HIDDEN _sk_load_f16_sse41
.globl _sk_load_f16_sse41
@@ -31218,7 +32450,7 @@ _sk_load_f16_sse41:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 204ca <_sk_load_f16_sse41+0x15e>
+ .byte 15,133,68,1,0,0 // jne 216cd <_sk_load_f16_sse41+0x15e>
.byte 102,65,15,16,4,208 // movupd (%r8,%rdx,8),%xmm0
.byte 243,65,15,111,76,208,16 // movdqu 0x10(%r8,%rdx,8),%xmm1
.byte 102,68,15,40,200 // movapd %xmm0,%xmm9
@@ -31228,19 +32460,19 @@ _sk_load_f16_sse41:
.byte 102,68,15,97,224 // punpcklwd %xmm0,%xmm12
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,193,174,1,0 // movdqa 0x1aec1(%rip),%xmm8 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1184>
+ .byte 102,68,15,111,5,158,178,1,0 // movdqa 0x1b29e(%rip),%xmm8 # 3c860 <_sk_srcover_bgra_8888_sse2_lowp+0x11c0>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,191,174,1,0 // movdqa 0x1aebf(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1194>
+ .byte 102,68,15,111,21,156,178,1,0 // movdqa 0x1b29c(%rip),%xmm10 # 3c870 <_sk_srcover_bgra_8888_sse2_lowp+0x11d0>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,194,174,1,0 // movdqa 0x1aec2(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x11a4>
+ .byte 102,15,111,29,159,178,1,0 // movdqa 0x1b29f(%rip),%xmm3 # 3c880 <_sk_srcover_bgra_8888_sse2_lowp+0x11e0>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,174,174,1,0 // movdqa 0x1aeae(%rip),%xmm11 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x11b4>
+ .byte 102,68,15,111,29,139,178,1,0 // movdqa 0x1b28b(%rip),%xmm11 # 3c890 <_sk_srcover_bgra_8888_sse2_lowp+0x11f0>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -31283,16 +32515,16 @@ _sk_load_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,208 // movsd (%r8,%rdx,8),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 204e3 <_sk_load_f16_sse41+0x177>
+ .byte 117,13 // jne 216e6 <_sk_load_f16_sse41+0x177>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,176,254,255,255 // jmpq 20393 <_sk_load_f16_sse41+0x27>
+ .byte 233,176,254,255,255 // jmpq 21596 <_sk_load_f16_sse41+0x27>
.byte 102,65,15,22,68,208,8 // movhpd 0x8(%r8,%rdx,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 20393 <_sk_load_f16_sse41+0x27>
+ .byte 15,130,155,254,255,255 // jb 21596 <_sk_load_f16_sse41+0x27>
.byte 243,65,15,126,76,208,16 // movq 0x10(%r8,%rdx,8),%xmm1
- .byte 233,143,254,255,255 // jmpq 20393 <_sk_load_f16_sse41+0x27>
+ .byte 233,143,254,255,255 // jmpq 21596 <_sk_load_f16_sse41+0x27>
HIDDEN _sk_load_f16_dst_sse41
.globl _sk_load_f16_dst_sse41
@@ -31304,7 +32536,7 @@ _sk_load_f16_dst_sse41:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 20662 <_sk_load_f16_dst_sse41+0x15e>
+ .byte 15,133,68,1,0,0 // jne 21865 <_sk_load_f16_dst_sse41+0x15e>
.byte 102,65,15,16,36,208 // movupd (%r8,%rdx,8),%xmm4
.byte 243,65,15,111,108,208,16 // movdqu 0x10(%r8,%rdx,8),%xmm5
.byte 102,68,15,40,204 // movapd %xmm4,%xmm9
@@ -31314,19 +32546,19 @@ _sk_load_f16_dst_sse41:
.byte 102,68,15,97,228 // punpcklwd %xmm4,%xmm12
.byte 102,68,15,105,204 // punpckhwd %xmm4,%xmm9
.byte 102,65,15,56,51,244 // pmovzxwd %xmm12,%xmm6
- .byte 102,68,15,111,5,41,173,1,0 // movdqa 0x1ad29(%rip),%xmm8 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1184>
+ .byte 102,68,15,111,5,6,177,1,0 // movdqa 0x1b106(%rip),%xmm8 # 3c860 <_sk_srcover_bgra_8888_sse2_lowp+0x11c0>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,219,232 // pand %xmm8,%xmm5
- .byte 102,68,15,111,21,39,173,1,0 // movdqa 0x1ad27(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1194>
+ .byte 102,68,15,111,21,4,177,1,0 // movdqa 0x1b104(%rip),%xmm10 # 3c870 <_sk_srcover_bgra_8888_sse2_lowp+0x11d0>
.byte 102,65,15,219,242 // pand %xmm10,%xmm6
- .byte 102,15,111,61,42,173,1,0 // movdqa 0x1ad2a(%rip),%xmm7 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x11a4>
+ .byte 102,15,111,61,7,177,1,0 // movdqa 0x1b107(%rip),%xmm7 # 3c880 <_sk_srcover_bgra_8888_sse2_lowp+0x11e0>
.byte 102,15,114,245,16 // pslld $0x10,%xmm5
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,56,63,231 // pmaxud %xmm7,%xmm4
.byte 102,15,118,230 // pcmpeqd %xmm6,%xmm4
.byte 102,15,114,246,13 // pslld $0xd,%xmm6
.byte 102,15,235,245 // por %xmm5,%xmm6
- .byte 102,68,15,111,29,22,173,1,0 // movdqa 0x1ad16(%rip),%xmm11 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x11b4>
+ .byte 102,68,15,111,29,243,176,1,0 // movdqa 0x1b0f3(%rip),%xmm11 # 3c890 <_sk_srcover_bgra_8888_sse2_lowp+0x11f0>
.byte 102,65,15,254,243 // paddd %xmm11,%xmm6
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 102,65,15,112,236,238 // pshufd $0xee,%xmm12,%xmm5
@@ -31369,16 +32601,16 @@ _sk_load_f16_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,208 // movsd (%r8,%rdx,8),%xmm4
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 2067b <_sk_load_f16_dst_sse41+0x177>
+ .byte 117,13 // jne 2187e <_sk_load_f16_dst_sse41+0x177>
.byte 243,15,126,228 // movq %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,176,254,255,255 // jmpq 2052b <_sk_load_f16_dst_sse41+0x27>
+ .byte 233,176,254,255,255 // jmpq 2172e <_sk_load_f16_dst_sse41+0x27>
.byte 102,65,15,22,100,208,8 // movhpd 0x8(%r8,%rdx,8),%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 2052b <_sk_load_f16_dst_sse41+0x27>
+ .byte 15,130,155,254,255,255 // jb 2172e <_sk_load_f16_dst_sse41+0x27>
.byte 243,65,15,126,108,208,16 // movq 0x10(%r8,%rdx,8),%xmm5
- .byte 233,143,254,255,255 // jmpq 2052b <_sk_load_f16_dst_sse41+0x27>
+ .byte 233,143,254,255,255 // jmpq 2172e <_sk_load_f16_dst_sse41+0x27>
HIDDEN _sk_gather_f16_sse41
.globl _sk_gather_f16_sse41
@@ -31424,19 +32656,19 @@ _sk_gather_f16_sse41:
.byte 102,68,15,97,226 // punpcklwd %xmm2,%xmm12
.byte 102,68,15,105,202 // punpckhwd %xmm2,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,39,171,1,0 // movdqa 0x1ab27(%rip),%xmm8 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1184>
+ .byte 102,68,15,111,5,4,175,1,0 // movdqa 0x1af04(%rip),%xmm8 # 3c860 <_sk_srcover_bgra_8888_sse2_lowp+0x11c0>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,37,171,1,0 // movdqa 0x1ab25(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1194>
+ .byte 102,68,15,111,21,2,175,1,0 // movdqa 0x1af02(%rip),%xmm10 # 3c870 <_sk_srcover_bgra_8888_sse2_lowp+0x11d0>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,40,171,1,0 // movdqa 0x1ab28(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x11a4>
+ .byte 102,15,111,29,5,175,1,0 // movdqa 0x1af05(%rip),%xmm3 # 3c880 <_sk_srcover_bgra_8888_sse2_lowp+0x11e0>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,20,171,1,0 // movdqa 0x1ab14(%rip),%xmm11 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x11b4>
+ .byte 102,68,15,111,29,241,174,1,0 // movdqa 0x1aef1(%rip),%xmm11 # 3c890 <_sk_srcover_bgra_8888_sse2_lowp+0x11f0>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -31487,20 +32719,20 @@ _sk_store_f16_sse41:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
- .byte 102,68,15,111,13,66,170,1,0 // movdqa 0x1aa42(%rip),%xmm9 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x11c4>
+ .byte 102,68,15,111,13,31,174,1,0 // movdqa 0x1ae1f(%rip),%xmm9 # 3c8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1200>
.byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,63,170,1,0 // movdqa 0x1aa3f(%rip),%xmm11 # 3b2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x11d4>
+ .byte 102,68,15,111,29,28,174,1,0 // movdqa 0x1ae1c(%rip),%xmm11 # 3c8b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1210>
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,69,15,219,235 // pand %xmm11,%xmm13
- .byte 102,68,15,111,21,60,170,1,0 // movdqa 0x1aa3c(%rip),%xmm10 # 3b2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x11e4>
+ .byte 102,68,15,111,21,25,174,1,0 // movdqa 0x1ae19(%rip),%xmm10 # 3c8c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1220>
.byte 102,65,15,114,212,16 // psrld $0x10,%xmm12
.byte 102,69,15,111,197 // movdqa %xmm13,%xmm8
.byte 102,69,15,56,63,194 // pmaxud %xmm10,%xmm8
.byte 102,69,15,118,197 // pcmpeqd %xmm13,%xmm8
.byte 102,65,15,114,213,13 // psrld $0xd,%xmm13
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
- .byte 102,68,15,111,37,34,170,1,0 // movdqa 0x1aa22(%rip),%xmm12 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x11f4>
+ .byte 102,68,15,111,37,255,173,1,0 // movdqa 0x1adff(%rip),%xmm12 # 3c8d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1230>
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
.byte 102,69,15,219,197 // pand %xmm13,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
@@ -31545,7 +32777,7 @@ _sk_store_f16_sse41:
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,98,205 // punpckldq %xmm13,%xmm9
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 209cc <_sk_store_f16_sse41+0x168>
+ .byte 117,21 // jne 21bcf <_sk_store_f16_sse41+0x168>
.byte 69,15,17,12,208 // movups %xmm9,(%r8,%rdx,8)
.byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
.byte 243,69,15,127,68,208,16 // movdqu %xmm8,0x10(%r8,%rdx,8)
@@ -31553,13 +32785,13 @@ _sk_store_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,12,208 // movq %xmm9,(%r8,%rdx,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 209c8 <_sk_store_f16_sse41+0x164>
+ .byte 116,240 // je 21bcb <_sk_store_f16_sse41+0x164>
.byte 102,69,15,23,76,208,8 // movhpd %xmm9,0x8(%r8,%rdx,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 209c8 <_sk_store_f16_sse41+0x164>
+ .byte 114,227 // jb 21bcb <_sk_store_f16_sse41+0x164>
.byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
.byte 102,69,15,214,68,208,16 // movq %xmm8,0x10(%r8,%rdx,8)
- .byte 235,213 // jmp 209c8 <_sk_store_f16_sse41+0x164>
+ .byte 235,213 // jmp 21bcb <_sk_store_f16_sse41+0x164>
HIDDEN _sk_load_u16_be_sse41
.globl _sk_load_u16_be_sse41
@@ -31572,7 +32804,7 @@ _sk_load_u16_be_sse41:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,185,0,0,0 // jne 20acd <_sk_load_u16_be_sse41+0xda>
+ .byte 15,133,185,0,0,0 // jne 21cd0 <_sk_load_u16_be_sse41+0xda>
.byte 102,67,15,16,4,65 // movupd (%r9,%r8,2),%xmm0
.byte 243,67,15,111,76,65,16 // movdqu 0x10(%r9,%r8,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -31588,7 +32820,7 @@ _sk_load_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,240,165,1,0 // movaps 0x1a5f0(%rip),%xmm8 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0xf54>
+ .byte 68,15,40,5,141,169,1,0 // movaps 0x1a98d(%rip),%xmm8 # 3c5f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -31616,16 +32848,16 @@ _sk_load_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,65 // movsd (%r9,%r8,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 20ae6 <_sk_load_u16_be_sse41+0xf3>
+ .byte 117,13 // jne 21ce9 <_sk_load_u16_be_sse41+0xf3>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,59,255,255,255 // jmpq 20a21 <_sk_load_u16_be_sse41+0x2e>
+ .byte 233,59,255,255,255 // jmpq 21c24 <_sk_load_u16_be_sse41+0x2e>
.byte 102,67,15,22,68,65,8 // movhpd 0x8(%r9,%r8,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,38,255,255,255 // jb 20a21 <_sk_load_u16_be_sse41+0x2e>
+ .byte 15,130,38,255,255,255 // jb 21c24 <_sk_load_u16_be_sse41+0x2e>
.byte 243,67,15,126,76,65,16 // movq 0x10(%r9,%r8,2),%xmm1
- .byte 233,26,255,255,255 // jmpq 20a21 <_sk_load_u16_be_sse41+0x2e>
+ .byte 233,26,255,255,255 // jmpq 21c24 <_sk_load_u16_be_sse41+0x2e>
HIDDEN _sk_load_rgb_u16_be_sse41
.globl _sk_load_rgb_u16_be_sse41
@@ -31638,7 +32870,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,170,0,0,0 // jne 20bce <_sk_load_rgb_u16_be_sse41+0xc7>
+ .byte 15,133,170,0,0,0 // jne 21dd1 <_sk_load_rgb_u16_be_sse41+0xc7>
.byte 243,67,15,111,20,65 // movdqu (%r9,%r8,2),%xmm2
.byte 243,67,15,111,92,65,8 // movdqu 0x8(%r9,%r8,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -31658,7 +32890,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,205,164,1,0 // movaps 0x1a4cd(%rip),%xmm8 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0xf54>
+ .byte 68,15,40,5,106,168,1,0 // movaps 0x1a86a(%rip),%xmm8 # 3c5f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -31675,27 +32907,27 @@ _sk_load_rgb_u16_be_sse41:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,228,161,1,0 // movaps 0x1a1e4(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,29,129,165,1,0 // movaps 0x1a581(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 255,224 // jmpq *%rax
.byte 102,67,15,110,20,65 // movd (%r9,%r8,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,67,15,196,84,65,4,2 // pinsrw $0x2,0x4(%r9,%r8,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 20bf3 <_sk_load_rgb_u16_be_sse41+0xec>
+ .byte 117,13 // jne 21df6 <_sk_load_rgb_u16_be_sse41+0xec>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,85,255,255,255 // jmpq 20b48 <_sk_load_rgb_u16_be_sse41+0x41>
+ .byte 233,85,255,255,255 // jmpq 21d4b <_sk_load_rgb_u16_be_sse41+0x41>
.byte 102,67,15,110,68,65,6 // movd 0x6(%r9,%r8,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,67,15,196,68,65,10,2 // pinsrw $0x2,0xa(%r9,%r8,2),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 20c24 <_sk_load_rgb_u16_be_sse41+0x11d>
+ .byte 114,24 // jb 21e27 <_sk_load_rgb_u16_be_sse41+0x11d>
.byte 102,67,15,110,92,65,12 // movd 0xc(%r9,%r8,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,67,15,196,92,65,16,2 // pinsrw $0x2,0x10(%r9,%r8,2),%xmm3
- .byte 233,36,255,255,255 // jmpq 20b48 <_sk_load_rgb_u16_be_sse41+0x41>
+ .byte 233,36,255,255,255 // jmpq 21d4b <_sk_load_rgb_u16_be_sse41+0x41>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,27,255,255,255 // jmpq 20b48 <_sk_load_rgb_u16_be_sse41+0x41>
+ .byte 233,27,255,255,255 // jmpq 21d4b <_sk_load_rgb_u16_be_sse41+0x41>
HIDDEN _sk_store_u16_be_sse41
.globl _sk_store_u16_be_sse41
@@ -31710,9 +32942,9 @@ _sk_store_u16_be_sse41:
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,40,21,87,161,1,0 // movaps 0x1a157(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,21,244,164,1,0 // movaps 0x1a4f4(%rip),%xmm10 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,93,194 // minps %xmm10,%xmm8
- .byte 68,15,40,29,155,166,1,0 // movaps 0x1a69b(%rip),%xmm11 # 3b300 <_sk_srcover_bgra_8888_sse2_lowp+0x1204>
+ .byte 68,15,40,29,120,170,1,0 // movaps 0x1aa78(%rip),%xmm11 # 3c8e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1240>
.byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
@@ -31754,7 +32986,7 @@ _sk_store_u16_be_sse41:
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,98,204 // punpckldq %xmm12,%xmm9
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 20d49 <_sk_store_u16_be_sse41+0x11c>
+ .byte 117,21 // jne 21f4c <_sk_store_u16_be_sse41+0x11c>
.byte 71,15,17,12,65 // movups %xmm9,(%r9,%r8,2)
.byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
.byte 243,71,15,127,68,65,16 // movdqu %xmm8,0x10(%r9,%r8,2)
@@ -31762,13 +32994,13 @@ _sk_store_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 102,71,15,214,12,65 // movq %xmm9,(%r9,%r8,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 20d45 <_sk_store_u16_be_sse41+0x118>
+ .byte 116,240 // je 21f48 <_sk_store_u16_be_sse41+0x118>
.byte 102,71,15,23,76,65,8 // movhpd %xmm9,0x8(%r9,%r8,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 20d45 <_sk_store_u16_be_sse41+0x118>
+ .byte 114,227 // jb 21f48 <_sk_store_u16_be_sse41+0x118>
.byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
.byte 102,71,15,214,68,65,16 // movq %xmm8,0x10(%r9,%r8,2)
- .byte 235,213 // jmp 20d45 <_sk_store_u16_be_sse41+0x118>
+ .byte 235,213 // jmp 21f48 <_sk_store_u16_be_sse41+0x118>
HIDDEN _sk_load_f32_sse41
.globl _sk_load_f32_sse41
@@ -31784,7 +33016,7 @@ _sk_load_f32_sse41:
.byte 72,193,224,4 // shl $0x4,%rax
.byte 70,15,16,4,8 // movups (%rax,%r9,1),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 20ddc <_sk_load_f32_sse41+0x6c>
+ .byte 117,66 // jne 21fdf <_sk_load_f32_sse41+0x6c>
.byte 67,15,16,68,129,16 // movups 0x10(%r9,%r8,4),%xmm0
.byte 67,15,16,92,129,32 // movups 0x20(%r9,%r8,4),%xmm3
.byte 71,15,16,76,129,48 // movups 0x30(%r9,%r8,4),%xmm9
@@ -31804,17 +33036,17 @@ _sk_load_f32_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 20dee <_sk_load_f32_sse41+0x7e>
+ .byte 117,8 // jne 21ff1 <_sk_load_f32_sse41+0x7e>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 20dac <_sk_load_f32_sse41+0x3c>
+ .byte 235,190 // jmp 21faf <_sk_load_f32_sse41+0x3c>
.byte 67,15,16,68,129,16 // movups 0x10(%r9,%r8,4),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 20e02 <_sk_load_f32_sse41+0x92>
+ .byte 114,8 // jb 22005 <_sk_load_f32_sse41+0x92>
.byte 67,15,16,92,129,32 // movups 0x20(%r9,%r8,4),%xmm3
- .byte 235,170 // jmp 20dac <_sk_load_f32_sse41+0x3c>
+ .byte 235,170 // jmp 21faf <_sk_load_f32_sse41+0x3c>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 20dac <_sk_load_f32_sse41+0x3c>
+ .byte 235,165 // jmp 21faf <_sk_load_f32_sse41+0x3c>
HIDDEN _sk_load_f32_dst_sse41
.globl _sk_load_f32_dst_sse41
@@ -31830,7 +33062,7 @@ _sk_load_f32_dst_sse41:
.byte 72,193,224,4 // shl $0x4,%rax
.byte 70,15,16,4,8 // movups (%rax,%r9,1),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 20e73 <_sk_load_f32_dst_sse41+0x6c>
+ .byte 117,66 // jne 22076 <_sk_load_f32_dst_sse41+0x6c>
.byte 67,15,16,100,129,16 // movups 0x10(%r9,%r8,4),%xmm4
.byte 67,15,16,124,129,32 // movups 0x20(%r9,%r8,4),%xmm7
.byte 71,15,16,76,129,48 // movups 0x30(%r9,%r8,4),%xmm9
@@ -31850,17 +33082,17 @@ _sk_load_f32_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 20e85 <_sk_load_f32_dst_sse41+0x7e>
+ .byte 117,8 // jne 22088 <_sk_load_f32_dst_sse41+0x7e>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 20e43 <_sk_load_f32_dst_sse41+0x3c>
+ .byte 235,190 // jmp 22046 <_sk_load_f32_dst_sse41+0x3c>
.byte 67,15,16,100,129,16 // movups 0x10(%r9,%r8,4),%xmm4
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 20e99 <_sk_load_f32_dst_sse41+0x92>
+ .byte 114,8 // jb 2209c <_sk_load_f32_dst_sse41+0x92>
.byte 67,15,16,124,129,32 // movups 0x20(%r9,%r8,4),%xmm7
- .byte 235,170 // jmp 20e43 <_sk_load_f32_dst_sse41+0x3c>
+ .byte 235,170 // jmp 22046 <_sk_load_f32_dst_sse41+0x3c>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 20e43 <_sk_load_f32_dst_sse41+0x3c>
+ .byte 235,165 // jmp 22046 <_sk_load_f32_dst_sse41+0x3c>
HIDDEN _sk_store_f32_sse41
.globl _sk_store_f32_sse41
@@ -31889,7 +33121,7 @@ _sk_store_f32_sse41:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,70,15,17,36,8 // movupd %xmm12,(%rax,%r9,1)
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 20f1c <_sk_store_f32_sse41+0x7e>
+ .byte 117,29 // jne 2211f <_sk_store_f32_sse41+0x7e>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 71,15,17,68,129,16 // movups %xmm8,0x10(%r9,%r8,4)
.byte 102,71,15,17,76,129,32 // movupd %xmm9,0x20(%r9,%r8,4)
@@ -31897,12 +33129,12 @@ _sk_store_f32_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 20f18 <_sk_store_f32_sse41+0x7a>
+ .byte 116,246 // je 2211b <_sk_store_f32_sse41+0x7a>
.byte 71,15,17,68,129,16 // movups %xmm8,0x10(%r9,%r8,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 20f18 <_sk_store_f32_sse41+0x7a>
+ .byte 114,234 // jb 2211b <_sk_store_f32_sse41+0x7a>
.byte 102,71,15,17,76,129,32 // movupd %xmm9,0x20(%r9,%r8,4)
- .byte 235,225 // jmp 20f18 <_sk_store_f32_sse41+0x7a>
+ .byte 235,225 // jmp 2211b <_sk_store_f32_sse41+0x7a>
HIDDEN _sk_repeat_x_sse41
.globl _sk_repeat_x_sse41
@@ -31948,7 +33180,7 @@ _sk_mirror_x_sse41:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,232,147,1,0 // mulss 0x193e8(%rip),%xmm9 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,137,151,1,0 // mulss 0x19789(%rip),%xmm9 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -31973,7 +33205,7 @@ _sk_mirror_y_sse41:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,143,147,1,0 // mulss 0x1938f(%rip),%xmm9 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,48,151,1,0 // mulss 0x19730(%rip),%xmm9 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -31992,7 +33224,7 @@ FUNCTION(_sk_clamp_x_1_sse41)
_sk_clamp_x_1_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,91,157,1,0 // minps 0x19d5b(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,93,5,248,160,1,0 // minps 0x1a0f8(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -32005,7 +33237,7 @@ _sk_repeat_x_1_sse41:
.byte 65,15,92,192 // subps %xmm8,%xmm0
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,56,157,1,0 // minps 0x19d38(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,93,5,213,160,1,0 // minps 0x1a0d5(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -32014,9 +33246,9 @@ HIDDEN _sk_mirror_x_1_sse41
.globl _sk_mirror_x_1_sse41
FUNCTION(_sk_mirror_x_1_sse41)
_sk_mirror_x_1_sse41:
- .byte 68,15,40,5,136,157,1,0 // movaps 0x19d88(%rip),%xmm8 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xd14>
+ .byte 68,15,40,5,37,161,1,0 // movaps 0x1a125(%rip),%xmm8 # 3c3b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd10>
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,13,12,157,1,0 // movaps 0x19d0c(%rip),%xmm9 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,13,169,160,1,0 // movaps 0x1a0a9(%rip),%xmm9 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
.byte 69,15,88,201 // addps %xmm9,%xmm9
@@ -32027,7 +33259,7 @@ _sk_mirror_x_1_sse41:
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 68,15,84,200 // andps %xmm0,%xmm9
.byte 69,15,95,193 // maxps %xmm9,%xmm8
- .byte 68,15,93,5,233,156,1,0 // minps 0x19ce9(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,93,5,134,160,1,0 // minps 0x1a086(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -32037,10 +33269,10 @@ HIDDEN _sk_luminance_to_alpha_sse41
FUNCTION(_sk_luminance_to_alpha_sse41)
_sk_luminance_to_alpha_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,55,162,1,0 // mulps 0x1a237(%rip),%xmm0 # 3b310 <_sk_srcover_bgra_8888_sse2_lowp+0x1214>
- .byte 15,89,13,64,162,1,0 // mulps 0x1a240(%rip),%xmm1 # 3b320 <_sk_srcover_bgra_8888_sse2_lowp+0x1224>
+ .byte 15,89,5,20,166,1,0 // mulps 0x1a614(%rip),%xmm0 # 3c8f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1250>
+ .byte 15,89,13,29,166,1,0 // mulps 0x1a61d(%rip),%xmm1 # 3c900 <_sk_srcover_bgra_8888_sse2_lowp+0x1260>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,70,162,1,0 // mulps 0x1a246(%rip),%xmm3 # 3b330 <_sk_srcover_bgra_8888_sse2_lowp+0x1234>
+ .byte 15,89,29,35,166,1,0 // mulps 0x1a623(%rip),%xmm3 # 3c910 <_sk_srcover_bgra_8888_sse2_lowp+0x1270>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -32352,9 +33584,9 @@ _sk_evenly_spaced_gradient_sse41:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 2158a <_sk_evenly_spaced_gradient_sse41+0x18>
+ .byte 120,7 // js 2278d <_sk_evenly_spaced_gradient_sse41+0x18>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 2159f <_sk_evenly_spaced_gradient_sse41+0x2d>
+ .byte 235,21 // jmp 227a2 <_sk_evenly_spaced_gradient_sse41+0x2d>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -32447,7 +33679,7 @@ _sk_gradient_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 2177c <_sk_gradient_sse41+0x38>
+ .byte 114,41 // jb 2297f <_sk_gradient_sse41+0x38>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 73,255,200 // dec %r8
.byte 73,131,193,4 // add $0x4,%r9
@@ -32458,7 +33690,7 @@ _sk_gradient_sse41:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 73,131,193,4 // add $0x4,%r9
.byte 73,255,200 // dec %r8
- .byte 117,230 // jne 21762 <_sk_gradient_sse41+0x1e>
+ .byte 117,230 // jne 22965 <_sk_gradient_sse41+0x1e>
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
@@ -32589,26 +33821,26 @@ _sk_xy_to_unit_angle_sse41:
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,237 // mulps %xmm13,%xmm13
- .byte 68,15,40,21,112,153,1,0 // movaps 0x19970(%rip),%xmm10 # 3b340 <_sk_srcover_bgra_8888_sse2_lowp+0x1244>
+ .byte 68,15,40,21,77,157,1,0 // movaps 0x19d4d(%rip),%xmm10 # 3c920 <_sk_srcover_bgra_8888_sse2_lowp+0x1280>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,116,153,1,0 // addps 0x19974(%rip),%xmm10 # 3b350 <_sk_srcover_bgra_8888_sse2_lowp+0x1254>
+ .byte 68,15,88,21,81,157,1,0 // addps 0x19d51(%rip),%xmm10 # 3c930 <_sk_srcover_bgra_8888_sse2_lowp+0x1290>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,120,153,1,0 // addps 0x19978(%rip),%xmm10 # 3b360 <_sk_srcover_bgra_8888_sse2_lowp+0x1264>
+ .byte 68,15,88,21,85,157,1,0 // addps 0x19d55(%rip),%xmm10 # 3c940 <_sk_srcover_bgra_8888_sse2_lowp+0x12a0>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,124,153,1,0 // addps 0x1997c(%rip),%xmm10 # 3b370 <_sk_srcover_bgra_8888_sse2_lowp+0x1274>
+ .byte 68,15,88,21,89,157,1,0 // addps 0x19d59(%rip),%xmm10 # 3c950 <_sk_srcover_bgra_8888_sse2_lowp+0x12b0>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 68,15,40,29,123,153,1,0 // movaps 0x1997b(%rip),%xmm11 # 3b380 <_sk_srcover_bgra_8888_sse2_lowp+0x1284>
+ .byte 68,15,40,29,88,157,1,0 // movaps 0x19d58(%rip),%xmm11 # 3c960 <_sk_srcover_bgra_8888_sse2_lowp+0x12c0>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9
- .byte 68,15,40,29,132,147,1,0 // movaps 0x19384(%rip),%xmm11 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,29,33,151,1,0 // movaps 0x19721(%rip),%xmm11 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,194,192,1 // cmpltps %xmm8,%xmm0
- .byte 68,15,40,13,118,147,1,0 // movaps 0x19376(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,13,19,151,1,0 // movaps 0x19713(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 102,69,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm10
.byte 69,15,194,194,7 // cmpordps %xmm10,%xmm8
@@ -32633,7 +33865,7 @@ HIDDEN _sk_negate_x_sse41
.globl _sk_negate_x_sse41
FUNCTION(_sk_negate_x_sse41)
_sk_negate_x_sse41:
- .byte 15,87,5,77,152,1,0 // xorps 0x1984d(%rip),%xmm0 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x11c4>
+ .byte 15,87,5,42,156,1,0 // xorps 0x19c2a(%rip),%xmm0 # 3c8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1200>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32710,7 +33942,7 @@ _sk_xy_to_2pt_conical_smaller_sse41:
.byte 69,15,89,201 // mulps %xmm9,%xmm9
.byte 65,15,92,193 // subps %xmm9,%xmm0
.byte 15,81,192 // sqrtps %xmm0,%xmm0
- .byte 15,87,5,143,151,1,0 // xorps 0x1978f(%rip),%xmm0 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x11c4>
+ .byte 15,87,5,108,155,1,0 // xorps 0x19b6c(%rip),%xmm0 # 3c8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1200>
.byte 65,15,92,192 // subps %xmm8,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32730,7 +33962,7 @@ HIDDEN _sk_alter_2pt_conical_unswap_sse41
.globl _sk_alter_2pt_conical_unswap_sse41
FUNCTION(_sk_alter_2pt_conical_unswap_sse41)
_sk_alter_2pt_conical_unswap_sse41:
- .byte 68,15,40,5,90,146,1,0 // movaps 0x1925a(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,247,149,1,0 // movaps 0x195f7(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,92,192 // subps %xmm0,%xmm8
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
@@ -32779,7 +34011,7 @@ HIDDEN _sk_save_xy_sse41
FUNCTION(_sk_save_xy_sse41)
_sk_save_xy_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,232,145,1,0 // movaps 0x191e8(%rip),%xmm8 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,5,133,149,1,0 // movaps 0x19585(%rip),%xmm8 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -32823,8 +34055,8 @@ _sk_bilinear_nx_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,65,151,1,0 // addps 0x19741(%rip),%xmm0 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1294>
- .byte 68,15,40,13,89,145,1,0 // movaps 0x19159(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,88,5,30,155,1,0 // addps 0x19b1e(%rip),%xmm0 # 3c970 <_sk_srcover_bgra_8888_sse2_lowp+0x12d0>
+ .byte 68,15,40,13,246,148,1,0 // movaps 0x194f6(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -32837,7 +34069,7 @@ _sk_bilinear_px_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,37,145,1,0 // addps 0x19125(%rip),%xmm0 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,88,5,194,148,1,0 // addps 0x194c2(%rip),%xmm0 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32849,8 +34081,8 @@ _sk_bilinear_ny_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,244,150,1,0 // addps 0x196f4(%rip),%xmm1 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1294>
- .byte 68,15,40,13,12,145,1,0 // movaps 0x1910c(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,88,13,209,154,1,0 // addps 0x19ad1(%rip),%xmm1 # 3c970 <_sk_srcover_bgra_8888_sse2_lowp+0x12d0>
+ .byte 68,15,40,13,169,148,1,0 // movaps 0x194a9(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -32863,7 +34095,7 @@ _sk_bilinear_py_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,215,144,1,0 // addps 0x190d7(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,88,13,116,148,1,0 // addps 0x19474(%rip),%xmm1 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32875,13 +34107,13 @@ _sk_bicubic_n3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,183,150,1,0 // addps 0x196b7(%rip),%xmm0 # 3b3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x12a4>
- .byte 68,15,40,13,191,144,1,0 // movaps 0x190bf(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,88,5,148,154,1,0 // addps 0x19a94(%rip),%xmm0 # 3c980 <_sk_srcover_bgra_8888_sse2_lowp+0x12e0>
+ .byte 68,15,40,13,92,148,1,0 // movaps 0x1945c(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,171,150,1,0 // mulps 0x196ab(%rip),%xmm9 # 3b3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
- .byte 68,15,88,13,163,146,1,0 // addps 0x192a3(%rip),%xmm9 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
+ .byte 68,15,89,13,136,154,1,0 // mulps 0x19a88(%rip),%xmm9 # 3c990 <_sk_srcover_bgra_8888_sse2_lowp+0x12f0>
+ .byte 68,15,88,13,64,150,1,0 // addps 0x19640(%rip),%xmm9 # 3c550 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -32894,16 +34126,16 @@ _sk_bicubic_n1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,95,150,1,0 // addps 0x1965f(%rip),%xmm0 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1294>
- .byte 68,15,40,13,119,144,1,0 // movaps 0x19077(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,88,5,60,154,1,0 // addps 0x19a3c(%rip),%xmm0 # 3c970 <_sk_srcover_bgra_8888_sse2_lowp+0x12d0>
+ .byte 68,15,40,13,20,148,1,0 // movaps 0x19414(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,123,150,1,0 // movaps 0x1967b(%rip),%xmm8 # 3b3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c4>
+ .byte 68,15,40,5,88,154,1,0 // movaps 0x19a58(%rip),%xmm8 # 3c9a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1300>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,127,150,1,0 // addps 0x1967f(%rip),%xmm8 # 3b3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 68,15,88,5,92,154,1,0 // addps 0x19a5c(%rip),%xmm8 # 3c9b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,67,144,1,0 // addps 0x19043(%rip),%xmm8 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,88,5,224,147,1,0 // addps 0x193e0(%rip),%xmm8 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,119,150,1,0 // addps 0x19677(%rip),%xmm8 # 3b3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
+ .byte 68,15,88,5,84,154,1,0 // addps 0x19a54(%rip),%xmm8 # 3c9c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32913,17 +34145,17 @@ HIDDEN _sk_bicubic_p1x_sse41
FUNCTION(_sk_bicubic_p1x_sse41)
_sk_bicubic_p1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,33,144,1,0 // movaps 0x19021(%rip),%xmm8 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,5,190,147,1,0 // movaps 0x193be(%rip),%xmm8 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,136,128,0,0,0 // movups 0x80(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,42,150,1,0 // movaps 0x1962a(%rip),%xmm10 # 3b3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c4>
+ .byte 68,15,40,21,7,154,1,0 // movaps 0x19a07(%rip),%xmm10 # 3c9a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1300>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,46,150,1,0 // addps 0x1962e(%rip),%xmm10 # 3b3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 68,15,88,21,11,154,1,0 // addps 0x19a0b(%rip),%xmm10 # 3c9b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,42,150,1,0 // addps 0x1962a(%rip),%xmm10 # 3b3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
+ .byte 68,15,88,21,7,154,1,0 // addps 0x19a07(%rip),%xmm10 # 3c9c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
.byte 68,15,17,144,0,1,0,0 // movups %xmm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32935,11 +34167,11 @@ _sk_bicubic_p3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,250,149,1,0 // addps 0x195fa(%rip),%xmm0 # 3b3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 15,88,5,215,153,1,0 // addps 0x199d7(%rip),%xmm0 # 3c9b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,202,149,1,0 // mulps 0x195ca(%rip),%xmm8 # 3b3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
- .byte 68,15,88,5,194,145,1,0 // addps 0x191c2(%rip),%xmm8 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
+ .byte 68,15,89,5,167,153,1,0 // mulps 0x199a7(%rip),%xmm8 # 3c990 <_sk_srcover_bgra_8888_sse2_lowp+0x12f0>
+ .byte 68,15,88,5,95,149,1,0 // addps 0x1955f(%rip),%xmm8 # 3c550 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -32952,13 +34184,13 @@ _sk_bicubic_n3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,141,149,1,0 // addps 0x1958d(%rip),%xmm1 # 3b3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x12a4>
- .byte 68,15,40,13,149,143,1,0 // movaps 0x18f95(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,88,13,106,153,1,0 // addps 0x1996a(%rip),%xmm1 # 3c980 <_sk_srcover_bgra_8888_sse2_lowp+0x12e0>
+ .byte 68,15,40,13,50,147,1,0 // movaps 0x19332(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,129,149,1,0 // mulps 0x19581(%rip),%xmm9 # 3b3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
- .byte 68,15,88,13,121,145,1,0 // addps 0x19179(%rip),%xmm9 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
+ .byte 68,15,89,13,94,153,1,0 // mulps 0x1995e(%rip),%xmm9 # 3c990 <_sk_srcover_bgra_8888_sse2_lowp+0x12f0>
+ .byte 68,15,88,13,22,149,1,0 // addps 0x19516(%rip),%xmm9 # 3c550 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -32971,16 +34203,16 @@ _sk_bicubic_n1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,52,149,1,0 // addps 0x19534(%rip),%xmm1 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1294>
- .byte 68,15,40,13,76,143,1,0 // movaps 0x18f4c(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,88,13,17,153,1,0 // addps 0x19911(%rip),%xmm1 # 3c970 <_sk_srcover_bgra_8888_sse2_lowp+0x12d0>
+ .byte 68,15,40,13,233,146,1,0 // movaps 0x192e9(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,80,149,1,0 // movaps 0x19550(%rip),%xmm8 # 3b3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c4>
+ .byte 68,15,40,5,45,153,1,0 // movaps 0x1992d(%rip),%xmm8 # 3c9a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1300>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,84,149,1,0 // addps 0x19554(%rip),%xmm8 # 3b3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 68,15,88,5,49,153,1,0 // addps 0x19931(%rip),%xmm8 # 3c9b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,24,143,1,0 // addps 0x18f18(%rip),%xmm8 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,88,5,181,146,1,0 // addps 0x192b5(%rip),%xmm8 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,76,149,1,0 // addps 0x1954c(%rip),%xmm8 # 3b3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
+ .byte 68,15,88,5,41,153,1,0 // addps 0x19929(%rip),%xmm8 # 3c9c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32990,17 +34222,17 @@ HIDDEN _sk_bicubic_p1y_sse41
FUNCTION(_sk_bicubic_p1y_sse41)
_sk_bicubic_p1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,246,142,1,0 // movaps 0x18ef6(%rip),%xmm8 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,5,147,146,1,0 // movaps 0x19293(%rip),%xmm8 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,136,192,0,0,0 // movups 0xc0(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,254,148,1,0 // movaps 0x194fe(%rip),%xmm10 # 3b3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c4>
+ .byte 68,15,40,21,219,152,1,0 // movaps 0x198db(%rip),%xmm10 # 3c9a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1300>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,2,149,1,0 // addps 0x19502(%rip),%xmm10 # 3b3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 68,15,88,21,223,152,1,0 // addps 0x198df(%rip),%xmm10 # 3c9b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,254,148,1,0 // addps 0x194fe(%rip),%xmm10 # 3b3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
+ .byte 68,15,88,21,219,152,1,0 // addps 0x198db(%rip),%xmm10 # 3c9c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
.byte 68,15,17,144,64,1,0,0 // movups %xmm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33012,11 +34244,11 @@ _sk_bicubic_p3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,205,148,1,0 // addps 0x194cd(%rip),%xmm1 # 3b3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 15,88,13,170,152,1,0 // addps 0x198aa(%rip),%xmm1 # 3c9b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,157,148,1,0 // mulps 0x1949d(%rip),%xmm8 # 3b3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
- .byte 68,15,88,5,149,144,1,0 // addps 0x19095(%rip),%xmm8 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
+ .byte 68,15,89,5,122,152,1,0 // mulps 0x1987a(%rip),%xmm8 # 3c990 <_sk_srcover_bgra_8888_sse2_lowp+0x12f0>
+ .byte 68,15,88,5,50,148,1,0 // addps 0x19432(%rip),%xmm8 # 3c550 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33127,7 +34359,7 @@ _sk_clut_3D_sse41:
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,68,36,208 // movaps %xmm0,-0x30(%rsp)
.byte 243,15,91,240 // cvttps2dq %xmm0,%xmm6
- .byte 15,40,37,136,147,1,0 // movaps 0x19388(%rip),%xmm4 # 3b3f0 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
+ .byte 15,40,37,101,151,1,0 // movaps 0x19765(%rip),%xmm4 # 3c9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1330>
.byte 15,88,196 // addps %xmm4,%xmm0
.byte 15,41,68,36,176 // movaps %xmm0,-0x50(%rsp)
.byte 102,65,15,110,208 // movd %r8d,%xmm2
@@ -33166,7 +34398,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,56,64,192 // pmulld %xmm0,%xmm8
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,68,15,111,37,223,146,1,0 // movdqa 0x192df(%rip),%xmm12 # 3b400 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
+ .byte 102,68,15,111,37,188,150,1,0 // movdqa 0x196bc(%rip),%xmm12 # 3c9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1340>
.byte 102,65,15,56,64,220 // pmulld %xmm12,%xmm3
.byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
@@ -33189,7 +34421,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,15,111,37,67,140,1,0 // movdqa 0x18c43(%rip),%xmm4 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,15,111,37,224,143,1,0 // movdqa 0x18fe0(%rip),%xmm4 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,15,254,220 // paddd %xmm4,%xmm3
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
@@ -33362,7 +34594,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,254,202 // paddd %xmm2,%xmm9
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,65,15,254,193 // paddd %xmm9,%xmm0
- .byte 102,15,111,45,238,142,1,0 // movdqa 0x18eee(%rip),%xmm5 # 3b400 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
+ .byte 102,15,111,45,203,146,1,0 // movdqa 0x192cb(%rip),%xmm5 # 3c9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1340>
.byte 102,15,56,64,197 // pmulld %xmm5,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -33383,7 +34615,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,61,95,136,1,0 // movdqa 0x1885f(%rip),%xmm7 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,15,111,61,252,139,1,0 // movdqa 0x18bfc(%rip),%xmm7 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,15,254,199 // paddd %xmm7,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -33449,7 +34681,7 @@ _sk_clut_3D_sse41:
.byte 15,88,248 // addps %xmm0,%xmm7
.byte 102,68,15,254,210 // paddd %xmm2,%xmm10
.byte 102,69,15,254,194 // paddd %xmm10,%xmm8
- .byte 102,15,111,13,42,141,1,0 // movdqa 0x18d2a(%rip),%xmm1 # 3b400 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
+ .byte 102,15,111,13,7,145,1,0 // movdqa 0x19107(%rip),%xmm1 # 3c9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1340>
.byte 102,68,15,56,64,193 // pmulld %xmm1,%xmm8
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
@@ -33470,7 +34702,7 @@ _sk_clut_3D_sse41:
.byte 102,69,15,58,22,193,1 // pextrd $0x1,%xmm8,%r9d
.byte 102,69,15,58,22,194,2 // pextrd $0x2,%xmm8,%r10d
.byte 102,69,15,58,22,195,3 // pextrd $0x3,%xmm8,%r11d
- .byte 102,15,111,21,149,134,1,0 // movdqa 0x18695(%rip),%xmm2 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,15,111,21,50,138,1,0 // movdqa 0x18a32(%rip),%xmm2 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,68,15,254,194 // paddd %xmm2,%xmm8
.byte 102,76,15,58,22,193,1 // pextrq $0x1,%xmm8,%rcx
.byte 102,76,15,126,195 // movq %xmm8,%rbx
@@ -33597,7 +34829,7 @@ _sk_clut_4D_sse41:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,41,76,36,48 // movaps %xmm1,0x30(%rsp)
.byte 243,15,91,249 // cvttps2dq %xmm1,%xmm7
- .byte 15,40,29,136,138,1,0 // movaps 0x18a88(%rip),%xmm3 # 3b3f0 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
+ .byte 15,40,29,101,142,1,0 // movaps 0x18e65(%rip),%xmm3 # 3c9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1330>
.byte 15,88,203 // addps %xmm3,%xmm1
.byte 15,41,76,36,160 // movaps %xmm1,-0x60(%rsp)
.byte 102,65,15,110,232 // movd %r8d,%xmm5
@@ -33654,7 +34886,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,56,64,253 // pmulld %xmm5,%xmm15
.byte 102,65,15,111,223 // movdqa %xmm15,%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,29,135,137,1,0 // movdqa 0x18987(%rip),%xmm11 # 3b400 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
+ .byte 102,68,15,111,29,100,141,1,0 // movdqa 0x18d64(%rip),%xmm11 # 3c9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1340>
.byte 102,65,15,56,64,219 // pmulld %xmm11,%xmm3
.byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
.byte 102,15,111,243 // movdqa %xmm3,%xmm6
@@ -33676,7 +34908,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,68,15,111,21,239,130,1,0 // movdqa 0x182ef(%rip),%xmm10 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,68,15,111,21,140,134,1,0 // movdqa 0x1868c(%rip),%xmm10 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,65,15,254,218 // paddd %xmm10,%xmm3
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
@@ -33694,7 +34926,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,201 // paddd %xmm9,%xmm1
.byte 102,65,15,56,64,203 // pmulld %xmm11,%xmm1
.byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,250,29,189,136,1,0 // psubd 0x188bd(%rip),%xmm3 # 3b410 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
+ .byte 102,15,250,29,154,140,1,0 // psubd 0x18c9a(%rip),%xmm3 # 3c9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1350>
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
.byte 65,137,223 // mov %ebx,%r15d
@@ -33749,7 +34981,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,199 // paddd %xmm15,%xmm0
.byte 102,65,15,56,64,195 // pmulld %xmm11,%xmm0
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,250,45,157,135,1,0 // psubd 0x1879d(%rip),%xmm5 # 3b410 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
+ .byte 102,15,250,45,122,139,1,0 // psubd 0x18b7a(%rip),%xmm5 # 3c9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1350>
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
.byte 102,72,15,58,22,233,1 // pextrq $0x1,%xmm5,%rcx
.byte 102,72,15,126,237 // movq %xmm5,%rbp
@@ -33874,7 +35106,7 @@ _sk_clut_4D_sse41:
.byte 72,193,233,32 // shr $0x20,%rcx
.byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4
.byte 102,68,15,58,33,220,48 // insertps $0x30,%xmm4,%xmm11
- .byte 102,15,111,61,225,126,1,0 // movdqa 0x17ee1(%rip),%xmm7 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,15,111,61,126,130,1,0 // movdqa 0x1827e(%rip),%xmm7 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,15,254,223 // paddd %xmm7,%xmm3
.byte 102,72,15,58,22,217,1 // pextrq $0x1,%xmm3,%rcx
.byte 102,72,15,126,221 // movq %xmm3,%rbp
@@ -33960,7 +35192,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,68,15,111,21,37,125,1,0 // movdqa 0x17d25(%rip),%xmm10 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,68,15,111,21,194,128,1,0 // movdqa 0x180c2(%rip),%xmm10 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -34056,7 +35288,7 @@ _sk_clut_4D_sse41:
.byte 102,15,111,124,36,192 // movdqa -0x40(%rsp),%xmm7
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,21,95,129,1,0 // movdqa 0x1815f(%rip),%xmm2 # 3b400 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
+ .byte 102,15,111,21,60,133,1,0 // movdqa 0x1853c(%rip),%xmm2 # 3c9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1340>
.byte 102,15,56,64,194 // pmulld %xmm2,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
@@ -34077,7 +35309,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,37,206,122,1,0 // movdqa 0x17ace(%rip),%xmm4 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,15,111,37,107,126,1,0 // movdqa 0x17e6b(%rip),%xmm4 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,15,254,196 // paddd %xmm4,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -34149,7 +35381,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,65,15,56,64,204 // pmulld %xmm12,%xmm1
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,250,21,138,127,1,0 // psubd 0x17f8a(%rip),%xmm2 # 3b410 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
+ .byte 102,15,250,21,103,131,1,0 // psubd 0x18367(%rip),%xmm2 # 3c9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1350>
.byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx
.byte 102,72,15,126,213 // movq %xmm2,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -34183,7 +35415,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,249 // movdqa %xmm9,%xmm7
.byte 102,69,15,56,64,236 // pmulld %xmm12,%xmm13
.byte 102,65,15,111,205 // movdqa %xmm13,%xmm1
- .byte 102,15,250,13,214,126,1,0 // psubd 0x17ed6(%rip),%xmm1 # 3b410 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
+ .byte 102,15,250,13,179,130,1,0 // psubd 0x182b3(%rip),%xmm1 # 3c9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1350>
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -34248,7 +35480,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
.byte 102,15,111,108,36,192 // movdqa -0x40(%rsp),%xmm5
.byte 102,15,254,205 // paddd %xmm5,%xmm1
- .byte 102,15,111,37,109,125,1,0 // movdqa 0x17d6d(%rip),%xmm4 # 3b400 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
+ .byte 102,15,111,37,74,129,1,0 // movdqa 0x1814a(%rip),%xmm4 # 3c9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1340>
.byte 102,15,56,64,204 // pmulld %xmm4,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -34269,7 +35501,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,15,111,29,222,118,1,0 // movdqa 0x176de(%rip),%xmm3 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,15,111,29,123,122,1,0 // movdqa 0x17a7b(%rip),%xmm3 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -34341,7 +35573,7 @@ _sk_clut_4D_sse41:
.byte 102,15,56,64,239 // pmulld %xmm7,%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,158,123,1,0 // psubd 0x17b9e(%rip),%xmm0 # 3b410 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
+ .byte 102,15,250,5,123,127,1,0 // psubd 0x17f7b(%rip),%xmm0 # 3c9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1350>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -34359,7 +35591,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,254,5,12,117,1,0 // paddd 0x1750c(%rip),%xmm0 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,15,254,5,169,120,1,0 // paddd 0x178a9(%rip),%xmm0 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -34375,7 +35607,7 @@ _sk_clut_4D_sse41:
.byte 102,15,254,84,36,176 // paddd -0x50(%rsp),%xmm2
.byte 102,15,56,64,215 // pmulld %xmm7,%xmm2
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,250,5,229,122,1,0 // psubd 0x17ae5(%rip),%xmm0 # 3b410 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
+ .byte 102,15,250,5,194,126,1,0 // psubd 0x17ec2(%rip),%xmm0 # 3c9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1350>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -34393,7 +35625,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,199,1 // pextrd $0x1,%xmm0,%r15d
.byte 102,65,15,58,22,196,2 // pextrd $0x2,%xmm0,%r12d
.byte 102,65,15,58,22,198,3 // pextrd $0x3,%xmm0,%r14d
- .byte 102,15,254,5,83,116,1,0 // paddd 0x17453(%rip),%xmm0 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,15,254,5,240,119,1,0 // paddd 0x177f0(%rip),%xmm0 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,72,15,58,22,195,1 // pextrq $0x1,%xmm0,%rbx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,233 // mov %ebp,%ecx
@@ -34456,7 +35688,7 @@ _sk_clut_4D_sse41:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,211 // addps %xmm11,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,16,115,1,0 // movaps 0x17310(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,29,173,118,1,0 // movaps 0x176ad(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 72,139,76,36,248 // mov -0x8(%rsp),%rcx
.byte 15,40,100,36,64 // movaps 0x40(%rsp),%xmm4
.byte 15,40,108,36,80 // movaps 0x50(%rsp),%xmm5
@@ -34475,15 +35707,15 @@ HIDDEN _sk_gauss_a_to_rgba_sse41
.globl _sk_gauss_a_to_rgba_sse41
FUNCTION(_sk_gauss_a_to_rgba_sse41)
_sk_gauss_a_to_rgba_sse41:
- .byte 15,40,5,77,121,1,0 // movaps 0x1794d(%rip),%xmm0 # 3b420 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
+ .byte 15,40,5,42,125,1,0 // movaps 0x17d2a(%rip),%xmm0 # 3ca00 <_sk_srcover_bgra_8888_sse2_lowp+0x1360>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,83,121,1,0 // addps 0x17953(%rip),%xmm0 # 3b430 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
+ .byte 15,88,5,48,125,1,0 // addps 0x17d30(%rip),%xmm0 # 3ca10 <_sk_srcover_bgra_8888_sse2_lowp+0x1370>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,89,121,1,0 // addps 0x17959(%rip),%xmm0 # 3b440 <_sk_srcover_bgra_8888_sse2_lowp+0x1344>
+ .byte 15,88,5,54,125,1,0 // addps 0x17d36(%rip),%xmm0 # 3ca20 <_sk_srcover_bgra_8888_sse2_lowp+0x1380>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,95,121,1,0 // addps 0x1795f(%rip),%xmm0 # 3b450 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
+ .byte 15,88,5,60,125,1,0 // addps 0x17d3c(%rip),%xmm0 # 3ca30 <_sk_srcover_bgra_8888_sse2_lowp+0x1390>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,101,121,1,0 // addps 0x17965(%rip),%xmm0 # 3b460 <_sk_srcover_bgra_8888_sse2_lowp+0x1364>
+ .byte 15,88,5,66,125,1,0 // addps 0x17d42(%rip),%xmm0 # 3ca40 <_sk_srcover_bgra_8888_sse2_lowp+0x13a0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
@@ -34500,7 +35732,7 @@ _sk_bilerp_clamp_8888_sse41:
.byte 15,41,108,36,144 // movaps %xmm5,-0x70(%rsp)
.byte 15,41,100,36,128 // movaps %xmm4,-0x80(%rsp)
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,119,114,1,0 // movaps 0x17277(%rip),%xmm3 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,40,29,20,118,1,0 // movaps 0x17614(%rip),%xmm3 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 68,15,88,211 // addps %xmm3,%xmm10
.byte 102,65,15,58,8,210,1 // roundps $0x1,%xmm10,%xmm2
@@ -34509,7 +35741,7 @@ _sk_bilerp_clamp_8888_sse41:
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 102,15,58,8,203,1 // roundps $0x1,%xmm3,%xmm1
.byte 15,92,217 // subps %xmm1,%xmm3
- .byte 15,40,13,93,114,1,0 // movaps 0x1725d(%rip),%xmm1 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,13,250,117,1,0 // movaps 0x175fa(%rip),%xmm1 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 65,15,92,210 // subps %xmm10,%xmm2
.byte 15,41,84,36,32 // movaps %xmm2,0x20(%rsp)
@@ -34528,9 +35760,9 @@ _sk_bilerp_clamp_8888_sse41:
.byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 102,15,127,76,36,208 // movdqa %xmm1,-0x30(%rsp)
- .byte 243,15,16,13,66,105,1,0 // movss 0x16942(%rip),%xmm1 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 243,15,16,13,243,108,1,0 // movss 0x16cf3(%rip),%xmm1 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,40,37,8,116,1,0 // movaps 0x17408(%rip),%xmm4 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 15,40,37,165,119,1,0 // movaps 0x177a5(%rip),%xmm4 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
@@ -34541,14 +35773,14 @@ _sk_bilerp_clamp_8888_sse41:
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,95,205 // maxps %xmm5,%xmm1
.byte 15,41,116,36,16 // movaps %xmm6,0x10(%rsp)
- .byte 15,46,53,72,105,1,0 // ucomiss 0x16948(%rip),%xmm6 # 3a52c <_sk_srcover_bgra_8888_sse2_lowp+0x430>
+ .byte 15,46,53,249,108,1,0 // ucomiss 0x16cf9(%rip),%xmm6 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 68,15,40,124,36,240 // movaps -0x10(%rsp),%xmm15
- .byte 119,6 // ja 23bf2 <_sk_bilerp_clamp_8888_sse41+0xea>
+ .byte 119,6 // ja 24df5 <_sk_bilerp_clamp_8888_sse41+0xea>
.byte 68,15,40,124,36,192 // movaps -0x40(%rsp),%xmm15
.byte 15,93,76,36,224 // minps -0x20(%rsp),%xmm1
.byte 243,68,15,91,233 // cvttps2dq %xmm1,%xmm13
.byte 102,68,15,56,64,108,36,208 // pmulld -0x30(%rsp),%xmm13
- .byte 243,15,16,45,228,104,1,0 // movss 0x168e4(%rip),%xmm5 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 243,15,16,45,149,108,1,0 // movss 0x16c95(%rip),%xmm5 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 15,40,205 // movaps %xmm5,%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
@@ -34568,23 +35800,23 @@ _sk_bilerp_clamp_8888_sse41:
.byte 102,67,15,58,34,12,136,2 // pinsrd $0x2,(%r8,%r9,4),%xmm1
.byte 102,65,15,58,34,12,128,3 // pinsrd $0x3,(%r8,%rax,4),%xmm1
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,219,53,243,113,1,0 // pand 0x171f3(%rip),%xmm6 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,219,53,144,117,1,0 // pand 0x17590(%rip),%xmm6 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,89,252 // mulps %xmm4,%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,56,0,53,240,113,1,0 // pshufb 0x171f0(%rip),%xmm6 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
+ .byte 102,15,56,0,53,141,117,1,0 // pshufb 0x1758d(%rip),%xmm6 # 3c410 <_sk_srcover_bgra_8888_sse2_lowp+0xd70>
.byte 68,15,91,230 // cvtdq2ps %xmm6,%xmm12
.byte 68,15,89,228 // mulps %xmm4,%xmm12
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,56,0,53,235,113,1,0 // pshufb 0x171eb(%rip),%xmm6 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
+ .byte 102,15,56,0,53,136,117,1,0 // pshufb 0x17588(%rip),%xmm6 # 3c420 <_sk_srcover_bgra_8888_sse2_lowp+0xd80>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,89,244 // mulps %xmm4,%xmm6
.byte 102,15,114,209,24 // psrld $0x18,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,46,45,127,104,1,0 // ucomiss 0x1687f(%rip),%xmm5 # 3a52c <_sk_srcover_bgra_8888_sse2_lowp+0x430>
+ .byte 15,46,45,48,108,1,0 // ucomiss 0x16c30(%rip),%xmm5 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
- .byte 119,6 // ja 23cb9 <_sk_bilerp_clamp_8888_sse41+0x1b1>
+ .byte 119,6 // ja 24ebc <_sk_bilerp_clamp_8888_sse41+0x1b1>
.byte 68,15,40,92,36,32 // movaps 0x20(%rsp),%xmm11
.byte 69,15,89,223 // mulps %xmm15,%xmm11
.byte 65,15,89,251 // mulps %xmm11,%xmm7
@@ -34595,15 +35827,15 @@ _sk_bilerp_clamp_8888_sse41:
.byte 15,88,214 // addps %xmm6,%xmm2
.byte 68,15,89,217 // mulps %xmm1,%xmm11
.byte 65,15,88,219 // addps %xmm11,%xmm3
- .byte 243,15,88,45,200,102,1,0 // addss 0x166c8(%rip),%xmm5 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 243,15,16,13,188,102,1,0 // movss 0x166bc(%rip),%xmm1 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,15,88,45,105,106,1,0 // addss 0x16a69(%rip),%xmm5 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 243,15,16,13,93,106,1,0 // movss 0x16a5d(%rip),%xmm1 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 15,46,205 // ucomiss %xmm5,%xmm1
- .byte 15,131,23,255,255,255 // jae 23c0c <_sk_bilerp_clamp_8888_sse41+0x104>
+ .byte 15,131,23,255,255,255 // jae 24e0f <_sk_bilerp_clamp_8888_sse41+0x104>
.byte 15,40,116,36,16 // movaps 0x10(%rsp),%xmm6
- .byte 243,15,88,53,170,102,1,0 // addss 0x166aa(%rip),%xmm6 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 243,15,16,13,158,102,1,0 // movss 0x1669e(%rip),%xmm1 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,15,88,53,75,106,1,0 // addss 0x16a4b(%rip),%xmm6 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 243,15,16,13,63,106,1,0 // movss 0x16a3f(%rip),%xmm1 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 15,46,206 // ucomiss %xmm6,%xmm1
- .byte 15,131,180,254,255,255 // jae 23bc7 <_sk_bilerp_clamp_8888_sse41+0xbf>
+ .byte 15,131,180,254,255,255 // jae 24dca <_sk_bilerp_clamp_8888_sse41+0xbf>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 65,15,40,200 // movaps %xmm8,%xmm1
@@ -34635,13 +35867,13 @@ _sk_start_pipeline_sse2:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 23ded <_sk_start_pipeline_sse2+0xb6>
+ .byte 15,131,131,0,0,0 // jae 24ff0 <_sk_start_pipeline_sse2+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,4 // lea 0x4(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 23dbb <_sk_start_pipeline_sse2+0x84>
+ .byte 119,59 // ja 24fbe <_sk_start_pipeline_sse2+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -34660,10 +35892,10 @@ _sk_start_pipeline_sse2:
.byte 73,131,196,8 // add $0x8,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 23d84 <_sk_start_pipeline_sse2+0x4d>
+ .byte 118,201 // jbe 24f87 <_sk_start_pipeline_sse2+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 23de4 <_sk_start_pipeline_sse2+0xad>
+ .byte 116,33 // je 24fe7 <_sk_start_pipeline_sse2+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -34677,7 +35909,7 @@ _sk_start_pipeline_sse2:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 23d76 <_sk_start_pipeline_sse2+0x3f>
+ .byte 117,137 // jne 24f79 <_sk_start_pipeline_sse2+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -34706,9 +35938,9 @@ _sk_seed_shader_sse2:
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,124,111,1,0 // addps 0x16f7c(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,88,13,25,115,1,0 // addps 0x17319(%rip),%xmm1 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,131,111,1,0 // movaps 0x16f83(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,21,32,115,1,0 // movaps 0x17320(%rip),%xmm2 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -34723,18 +35955,18 @@ _sk_dither_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,44,111,1,0 // paddd 0x16f2c(%rip),%xmm8 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xc84>
+ .byte 102,68,15,254,5,201,114,1,0 // paddd 0x172c9(%rip),%xmm8 # 3c320 <_sk_srcover_bgra_8888_sse2_lowp+0xc80>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,83,111,1,0 // movdqa 0x16f53(%rip),%xmm10 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
+ .byte 102,68,15,111,21,240,114,1,0 // movdqa 0x172f0(%rip),%xmm10 # 3c360 <_sk_srcover_bgra_8888_sse2_lowp+0xcc0>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,63,111,1,0 // movdqa 0x16f3f(%rip),%xmm12 # 3add0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd4>
- .byte 102,68,15,111,45,70,111,1,0 // movdqa 0x16f46(%rip),%xmm13 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,68,15,111,37,220,114,1,0 // movdqa 0x172dc(%rip),%xmm12 # 3c370 <_sk_srcover_bgra_8888_sse2_lowp+0xcd0>
+ .byte 102,68,15,111,45,227,114,1,0 // movdqa 0x172e3(%rip),%xmm13 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -34750,8 +35982,8 @@ _sk_dither_sse2:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,1,111,1,0 // mulps 0x16f01(%rip),%xmm8 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 68,15,88,5,9,111,1,0 // addps 0x16f09(%rip),%xmm8 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xd04>
+ .byte 68,15,89,5,158,114,1,0 // mulps 0x1729e(%rip),%xmm8 # 3c390 <_sk_srcover_bgra_8888_sse2_lowp+0xcf0>
+ .byte 68,15,88,5,166,114,1,0 // addps 0x172a6(%rip),%xmm8 # 3c3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xd00>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -34793,7 +36025,7 @@ HIDDEN _sk_black_color_sse2
FUNCTION(_sk_black_color_sse2)
_sk_black_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,63,110,1,0 // movaps 0x16e3f(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,29,220,113,1,0 // movaps 0x171dc(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -34804,7 +36036,7 @@ HIDDEN _sk_white_color_sse2
FUNCTION(_sk_white_color_sse2)
_sk_white_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,43,110,1,0 // movaps 0x16e2b(%rip),%xmm0 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,5,200,113,1,0 // movaps 0x171c8(%rip),%xmm0 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -34850,7 +36082,7 @@ HIDDEN _sk_srcatop_sse2
FUNCTION(_sk_srcatop_sse2)
_sk_srcatop_sse2:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,219,109,1,0 // movaps 0x16ddb(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,120,113,1,0 // movaps 0x17178(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -34875,7 +36107,7 @@ FUNCTION(_sk_dstatop_sse2)
_sk_dstatop_sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,142,109,1,0 // movaps 0x16d8e(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,13,43,113,1,0 // movaps 0x1712b(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -34922,7 +36154,7 @@ HIDDEN _sk_srcout_sse2
.globl _sk_srcout_sse2
FUNCTION(_sk_srcout_sse2)
_sk_srcout_sse2:
- .byte 68,15,40,5,34,109,1,0 // movaps 0x16d22(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,191,112,1,0 // movaps 0x170bf(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -34935,7 +36167,7 @@ HIDDEN _sk_dstout_sse2
.globl _sk_dstout_sse2
FUNCTION(_sk_dstout_sse2)
_sk_dstout_sse2:
- .byte 68,15,40,5,2,109,1,0 // movaps 0x16d02(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,159,112,1,0 // movaps 0x1709f(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -34952,7 +36184,7 @@ HIDDEN _sk_srcover_sse2
.globl _sk_srcover_sse2
FUNCTION(_sk_srcover_sse2)
_sk_srcover_sse2:
- .byte 68,15,40,5,213,108,1,0 // movaps 0x16cd5(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,114,112,1,0 // movaps 0x17072(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -34972,7 +36204,7 @@ HIDDEN _sk_dstover_sse2
.globl _sk_dstover_sse2
FUNCTION(_sk_dstover_sse2)
_sk_dstover_sse2:
- .byte 68,15,40,5,153,108,1,0 // movaps 0x16c99(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,54,112,1,0 // movaps 0x17036(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -35000,7 +36232,7 @@ HIDDEN _sk_multiply_sse2
.globl _sk_multiply_sse2
FUNCTION(_sk_multiply_sse2)
_sk_multiply_sse2:
- .byte 68,15,40,5,93,108,1,0 // movaps 0x16c5d(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,250,111,1,0 // movaps 0x16ffa(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -35038,7 +36270,7 @@ HIDDEN _sk_plus__sse2
FUNCTION(_sk_plus__sse2)
_sk_plus__sse2:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,222,107,1,0 // movaps 0x16bde(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,123,111,1,0 // movaps 0x16f7b(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -35080,7 +36312,7 @@ HIDDEN _sk_xor__sse2
FUNCTION(_sk_xor__sse2)
_sk_xor__sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,106,107,1,0 // movaps 0x16b6a(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,29,7,111,1,0 // movaps 0x16f07(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -35128,7 +36360,7 @@ _sk_darken_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,197,106,1,0 // movaps 0x16ac5(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,21,98,110,1,0 // movaps 0x16e62(%rip),%xmm2 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35162,7 +36394,7 @@ _sk_lighten_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,90,106,1,0 // movaps 0x16a5a(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,21,247,109,1,0 // movaps 0x16df7(%rip),%xmm2 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35199,7 +36431,7 @@ _sk_difference_sse2:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,228,105,1,0 // movaps 0x169e4(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,21,129,109,1,0 // movaps 0x16d81(%rip),%xmm2 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35227,7 +36459,7 @@ _sk_exclusion_sse2:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,148,105,1,0 // movaps 0x16994(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,21,49,109,1,0 // movaps 0x16d31(%rip),%xmm2 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35240,7 +36472,7 @@ HIDDEN _sk_colorburn_sse2
FUNCTION(_sk_colorburn_sse2)
_sk_colorburn_sse2:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,13,119,105,1,0 // movaps 0x16977(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,13,20,109,1,0 // movaps 0x16d14(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -35335,7 +36567,7 @@ HIDDEN _sk_colordodge_sse2
FUNCTION(_sk_colordodge_sse2)
_sk_colordodge_sse2:
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,31,104,1,0 // movaps 0x1681f(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,21,188,107,1,0 // movaps 0x16bbc(%rip),%xmm10 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -35427,7 +36659,7 @@ _sk_hardlight_sse2:
.byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp)
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 68,15,40,29,200,102,1,0 // movaps 0x166c8(%rip),%xmm11 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,29,101,106,1,0 // movaps 0x16a65(%rip),%xmm11 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,194 // movaps %xmm10,%xmm8
@@ -35515,7 +36747,7 @@ FUNCTION(_sk_overlay_sse2)
_sk_overlay_sse2:
.byte 68,15,40,193 // movaps %xmm1,%xmm8
.byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 68,15,40,13,134,101,1,0 // movaps 0x16586(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,13,35,105,1,0 // movaps 0x16923(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -35606,7 +36838,7 @@ _sk_softlight_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 68,15,94,215 // divps %xmm7,%xmm10
.byte 69,15,84,212 // andps %xmm12,%xmm10
- .byte 68,15,40,13,51,100,1,0 // movaps 0x16433(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,13,208,103,1,0 // movaps 0x167d0(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 69,15,92,250 // subps %xmm10,%xmm15
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -35619,10 +36851,10 @@ _sk_softlight_sse2:
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,53,93,100,1,0 // movaps 0x1645d(%rip),%xmm14 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xd14>
+ .byte 68,15,40,53,250,103,1,0 // movaps 0x167fa(%rip),%xmm14 # 3c3b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd10>
.byte 69,15,88,222 // addps %xmm14,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,40,21,93,100,1,0 // movaps 0x1645d(%rip),%xmm10 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xd24>
+ .byte 68,15,40,21,250,103,1,0 // movaps 0x167fa(%rip),%xmm10 # 3c3c0 <_sk_srcover_bgra_8888_sse2_lowp+0xd20>
.byte 69,15,89,234 // mulps %xmm10,%xmm13
.byte 69,15,88,235 // addps %xmm11,%xmm13
.byte 15,88,228 // addps %xmm4,%xmm4
@@ -35767,7 +36999,7 @@ _sk_hue_sse2:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 68,15,40,5,240,97,1,0 // movaps 0x161f0(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,141,101,1,0 // movaps 0x1658d(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 15,40,207 // movaps %xmm7,%xmm1
.byte 68,15,92,217 // subps %xmm1,%xmm11
@@ -35815,12 +37047,12 @@ _sk_hue_sse2:
.byte 69,15,84,206 // andps %xmm14,%xmm9
.byte 69,15,84,214 // andps %xmm14,%xmm10
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,61,173,97,1,0 // movaps 0x161ad(%rip),%xmm15 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,61,74,101,1,0 // movaps 0x1654a(%rip),%xmm15 # 3c3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
.byte 65,15,89,231 // mulps %xmm15,%xmm4
- .byte 15,40,5,178,97,1,0 // movaps 0x161b2(%rip),%xmm0 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
+ .byte 15,40,5,79,101,1,0 // movaps 0x1654f(%rip),%xmm0 # 3c3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd40>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
- .byte 68,15,40,53,180,97,1,0 // movaps 0x161b4(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,53,81,101,1,0 // movaps 0x16551(%rip),%xmm14 # 3c3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
.byte 68,15,40,239 // movaps %xmm7,%xmm13
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 68,15,88,238 // addps %xmm6,%xmm13
@@ -35998,14 +37230,14 @@ _sk_saturation_sse2:
.byte 68,15,84,211 // andps %xmm3,%xmm10
.byte 68,15,84,203 // andps %xmm3,%xmm9
.byte 15,84,195 // andps %xmm3,%xmm0
- .byte 68,15,40,5,6,95,1,0 // movaps 0x15f06(%rip),%xmm8 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,5,163,98,1,0 // movaps 0x162a3(%rip),%xmm8 # 3c3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
.byte 15,40,214 // movaps %xmm6,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,40,13,8,95,1,0 // movaps 0x15f08(%rip),%xmm1 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
+ .byte 15,40,13,165,98,1,0 // movaps 0x162a5(%rip),%xmm1 # 3c3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd40>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,217 // mulps %xmm1,%xmm3
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 68,15,40,37,7,95,1,0 // movaps 0x15f07(%rip),%xmm12 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,37,164,98,1,0 // movaps 0x162a4(%rip),%xmm12 # 3c3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
.byte 65,15,40,210 // movaps %xmm10,%xmm2
@@ -36050,7 +37282,7 @@ _sk_saturation_sse2:
.byte 15,40,223 // movaps %xmm7,%xmm3
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 68,15,40,5,188,93,1,0 // movaps 0x15dbc(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,89,97,1,0 // movaps 0x16159(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 15,88,253 // addps %xmm5,%xmm7
@@ -36151,14 +37383,14 @@ _sk_color_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 68,15,40,45,202,92,1,0 // movaps 0x15cca(%rip),%xmm13 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,45,103,96,1,0 // movaps 0x16067(%rip),%xmm13 # 3c3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
.byte 68,15,40,198 // movaps %xmm6,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,40,53,202,92,1,0 // movaps 0x15cca(%rip),%xmm14 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
+ .byte 68,15,40,53,103,96,1,0 // movaps 0x16067(%rip),%xmm14 # 3c3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd40>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,29,198,92,1,0 // movaps 0x15cc6(%rip),%xmm11 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,29,99,96,1,0 // movaps 0x16063(%rip),%xmm11 # 3c3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
.byte 69,15,89,227 // mulps %xmm11,%xmm12
.byte 68,15,88,224 // addps %xmm0,%xmm12
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -36166,7 +37398,7 @@ _sk_color_sse2:
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 68,15,40,5,2,92,1,0 // movaps 0x15c02(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,159,95,1,0 // movaps 0x15f9f(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
.byte 15,89,252 // mulps %xmm4,%xmm7
@@ -36302,15 +37534,15 @@ _sk_luminosity_sse2:
.byte 68,15,40,205 // movaps %xmm5,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
.byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 68,15,40,37,137,90,1,0 // movaps 0x15a89(%rip),%xmm12 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,37,38,94,1,0 // movaps 0x15e26(%rip),%xmm12 # 3c3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
.byte 68,15,40,199 // movaps %xmm7,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,137,90,1,0 // movaps 0x15a89(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
+ .byte 68,15,40,45,38,94,1,0 // movaps 0x15e26(%rip),%xmm13 # 3c3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd40>
.byte 68,15,40,241 // movaps %xmm1,%xmm14
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,88,240 // addps %xmm8,%xmm14
- .byte 68,15,40,29,133,90,1,0 // movaps 0x15a85(%rip),%xmm11 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
- .byte 68,15,40,5,221,89,1,0 // movaps 0x159dd(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,29,34,94,1,0 // movaps 0x15e22(%rip),%xmm11 # 3c3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd50>
+ .byte 68,15,40,5,122,93,1,0 // movaps 0x15d7a(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 68,15,92,248 // subps %xmm0,%xmm15
@@ -36450,10 +37682,10 @@ _sk_srcover_rgba_8888_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,4,1,0,0 // jne 256dd <_sk_srcover_rgba_8888_sse2+0x123>
+ .byte 15,133,4,1,0,0 // jne 268e0 <_sk_srcover_rgba_8888_sse2+0x123>
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,53,118,88,1,0 // movdqa 0x15876(%rip),%xmm6 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,111,53,19,92,1,0 // movdqa 0x15c13(%rip),%xmm6 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
@@ -36468,9 +37700,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
.byte 102,15,114,208,24 // psrld $0x18,%xmm0
.byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
- .byte 68,15,40,5,135,87,1,0 // movaps 0x15787(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,36,91,1,0 // movaps 0x15b24(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,91,88,1,0 // movaps 0x1585b(%rip),%xmm12 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,37,248,91,1,0 // movaps 0x15bf8(%rip),%xmm12 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 69,15,89,204 // mulps %xmm12,%xmm9
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -36507,7 +37739,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,114,241,24 // pslld $0x18,%xmm1
.byte 102,15,235,203 // por %xmm3,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 117,69 // jne 2570c <_sk_srcover_rgba_8888_sse2+0x152>
+ .byte 117,69 // jne 2690f <_sk_srcover_rgba_8888_sse2+0x152>
.byte 243,65,15,127,12,144 // movdqu %xmm1,(%r8,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,201 // movaps %xmm9,%xmm1
@@ -36517,32 +37749,32 @@ _sk_srcover_rgba_8888_sse2:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,75 // je 25730 <_sk_srcover_rgba_8888_sse2+0x176>
+ .byte 116,75 // je 26933 <_sk_srcover_rgba_8888_sse2+0x176>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 60,2 // cmp $0x2,%al
- .byte 116,20 // je 25701 <_sk_srcover_rgba_8888_sse2+0x147>
+ .byte 116,20 // je 26904 <_sk_srcover_rgba_8888_sse2+0x147>
.byte 60,3 // cmp $0x3,%al
- .byte 15,133,234,254,255,255 // jne 255df <_sk_srcover_rgba_8888_sse2+0x25>
+ .byte 15,133,234,254,255,255 // jne 267e2 <_sk_srcover_rgba_8888_sse2+0x25>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
.byte 102,65,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm0
- .byte 233,211,254,255,255 // jmpq 255df <_sk_srcover_rgba_8888_sse2+0x25>
+ .byte 233,211,254,255,255 // jmpq 267e2 <_sk_srcover_rgba_8888_sse2+0x25>
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,39 // je 2573b <_sk_srcover_rgba_8888_sse2+0x181>
+ .byte 116,39 // je 2693e <_sk_srcover_rgba_8888_sse2+0x181>
.byte 60,2 // cmp $0x2,%al
- .byte 116,16 // je 25728 <_sk_srcover_rgba_8888_sse2+0x16e>
+ .byte 116,16 // je 2692b <_sk_srcover_rgba_8888_sse2+0x16e>
.byte 60,3 // cmp $0x3,%al
- .byte 117,177 // jne 256cd <_sk_srcover_rgba_8888_sse2+0x113>
+ .byte 117,177 // jne 268d0 <_sk_srcover_rgba_8888_sse2+0x113>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,65,15,126,84,144,8 // movd %xmm2,0x8(%r8,%rdx,4)
.byte 102,65,15,214,12,144 // movq %xmm1,(%r8,%rdx,4)
- .byte 235,157 // jmp 256cd <_sk_srcover_rgba_8888_sse2+0x113>
+ .byte 235,157 // jmp 268d0 <_sk_srcover_rgba_8888_sse2+0x113>
.byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
- .byte 233,164,254,255,255 // jmpq 255df <_sk_srcover_rgba_8888_sse2+0x25>
+ .byte 233,164,254,255,255 // jmpq 267e2 <_sk_srcover_rgba_8888_sse2+0x25>
.byte 102,65,15,126,12,144 // movd %xmm1,(%r8,%rdx,4)
- .byte 235,138 // jmp 256cd <_sk_srcover_rgba_8888_sse2+0x113>
+ .byte 235,138 // jmp 268d0 <_sk_srcover_rgba_8888_sse2+0x113>
HIDDEN _sk_srcover_bgra_8888_sse2
.globl _sk_srcover_bgra_8888_sse2
@@ -36555,10 +37787,10 @@ _sk_srcover_bgra_8888_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,4,1,0,0 // jne 25866 <_sk_srcover_bgra_8888_sse2+0x123>
+ .byte 15,133,4,1,0,0 // jne 26a69 <_sk_srcover_bgra_8888_sse2+0x123>
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,237,86,1,0 // movdqa 0x156ed(%rip),%xmm4 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,111,37,138,90,1,0 // movdqa 0x15a8a(%rip),%xmm4 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
@@ -36573,9 +37805,9 @@ _sk_srcover_bgra_8888_sse2:
.byte 15,91,231 // cvtdq2ps %xmm7,%xmm4
.byte 102,15,114,208,24 // psrld $0x18,%xmm0
.byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
- .byte 68,15,40,5,254,85,1,0 // movaps 0x155fe(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,155,89,1,0 // movaps 0x1599b(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,210,86,1,0 // movaps 0x156d2(%rip),%xmm12 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,37,111,90,1,0 // movaps 0x15a6f(%rip),%xmm12 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 69,15,89,204 // mulps %xmm12,%xmm9
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -36612,7 +37844,7 @@ _sk_srcover_bgra_8888_sse2:
.byte 102,15,114,241,24 // pslld $0x18,%xmm1
.byte 102,15,235,203 // por %xmm3,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 117,69 // jne 25895 <_sk_srcover_bgra_8888_sse2+0x152>
+ .byte 117,69 // jne 26a98 <_sk_srcover_bgra_8888_sse2+0x152>
.byte 243,65,15,127,12,144 // movdqu %xmm1,(%r8,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,201 // movaps %xmm9,%xmm1
@@ -36622,32 +37854,32 @@ _sk_srcover_bgra_8888_sse2:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,75 // je 258b9 <_sk_srcover_bgra_8888_sse2+0x176>
+ .byte 116,75 // je 26abc <_sk_srcover_bgra_8888_sse2+0x176>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 60,2 // cmp $0x2,%al
- .byte 116,20 // je 2588a <_sk_srcover_bgra_8888_sse2+0x147>
+ .byte 116,20 // je 26a8d <_sk_srcover_bgra_8888_sse2+0x147>
.byte 60,3 // cmp $0x3,%al
- .byte 15,133,234,254,255,255 // jne 25768 <_sk_srcover_bgra_8888_sse2+0x25>
+ .byte 15,133,234,254,255,255 // jne 2696b <_sk_srcover_bgra_8888_sse2+0x25>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
.byte 102,65,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm0
- .byte 233,211,254,255,255 // jmpq 25768 <_sk_srcover_bgra_8888_sse2+0x25>
+ .byte 233,211,254,255,255 // jmpq 2696b <_sk_srcover_bgra_8888_sse2+0x25>
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,39 // je 258c4 <_sk_srcover_bgra_8888_sse2+0x181>
+ .byte 116,39 // je 26ac7 <_sk_srcover_bgra_8888_sse2+0x181>
.byte 60,2 // cmp $0x2,%al
- .byte 116,16 // je 258b1 <_sk_srcover_bgra_8888_sse2+0x16e>
+ .byte 116,16 // je 26ab4 <_sk_srcover_bgra_8888_sse2+0x16e>
.byte 60,3 // cmp $0x3,%al
- .byte 117,177 // jne 25856 <_sk_srcover_bgra_8888_sse2+0x113>
+ .byte 117,177 // jne 26a59 <_sk_srcover_bgra_8888_sse2+0x113>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,65,15,126,84,144,8 // movd %xmm2,0x8(%r8,%rdx,4)
.byte 102,65,15,214,12,144 // movq %xmm1,(%r8,%rdx,4)
- .byte 235,157 // jmp 25856 <_sk_srcover_bgra_8888_sse2+0x113>
+ .byte 235,157 // jmp 26a59 <_sk_srcover_bgra_8888_sse2+0x113>
.byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
- .byte 233,164,254,255,255 // jmpq 25768 <_sk_srcover_bgra_8888_sse2+0x25>
+ .byte 233,164,254,255,255 // jmpq 2696b <_sk_srcover_bgra_8888_sse2+0x25>
.byte 102,65,15,126,12,144 // movd %xmm1,(%r8,%rdx,4)
- .byte 235,138 // jmp 25856 <_sk_srcover_bgra_8888_sse2+0x113>
+ .byte 235,138 // jmp 26a59 <_sk_srcover_bgra_8888_sse2+0x113>
HIDDEN _sk_clamp_0_sse2
.globl _sk_clamp_0_sse2
@@ -36665,7 +37897,7 @@ HIDDEN _sk_clamp_1_sse2
.globl _sk_clamp_1_sse2
FUNCTION(_sk_clamp_1_sse2)
_sk_clamp_1_sse2:
- .byte 68,15,40,5,196,84,1,0 // movaps 0x154c4(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,97,88,1,0 // movaps 0x15861(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -36677,7 +37909,7 @@ HIDDEN _sk_clamp_a_sse2
.globl _sk_clamp_a_sse2
FUNCTION(_sk_clamp_a_sse2)
_sk_clamp_a_sse2:
- .byte 15,93,29,169,84,1,0 // minps 0x154a9(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,93,29,70,88,1,0 // minps 0x15846(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -36688,7 +37920,7 @@ HIDDEN _sk_clamp_a_dst_sse2
.globl _sk_clamp_a_dst_sse2
FUNCTION(_sk_clamp_a_dst_sse2)
_sk_clamp_a_dst_sse2:
- .byte 15,93,61,149,84,1,0 // minps 0x15495(%rip),%xmm7 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,93,61,50,88,1,0 // minps 0x15832(%rip),%xmm7 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -36723,7 +37955,7 @@ HIDDEN _sk_invert_sse2
.globl _sk_invert_sse2
FUNCTION(_sk_invert_sse2)
_sk_invert_sse2:
- .byte 68,15,40,5,81,84,1,0 // movaps 0x15451(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,238,87,1,0 // movaps 0x157ee(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -36784,10 +38016,10 @@ HIDDEN _sk_unpremul_sse2
.globl _sk_unpremul_sse2
FUNCTION(_sk_unpremul_sse2)
_sk_unpremul_sse2:
- .byte 68,15,40,5,223,83,1,0 // movaps 0x153df(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,124,87,1,0 // movaps 0x1577c(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,94,195 // divps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,194,13,190,84,1,0,1 // cmpltps 0x154be(%rip),%xmm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
+ .byte 68,15,194,13,91,88,1,0,1 // cmpltps 0x1585b(%rip),%xmm9 # 3c440 <_sk_srcover_bgra_8888_sse2_lowp+0xda0>
.byte 69,15,84,200 // andps %xmm8,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,201 // mulps %xmm9,%xmm1
@@ -36795,24 +38027,40 @@ _sk_unpremul_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
+HIDDEN _sk_force_opaque_sse2
+.globl _sk_force_opaque_sse2
+FUNCTION(_sk_force_opaque_sse2)
+_sk_force_opaque_sse2:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,29,78,87,1,0 // movaps 0x1574e(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_force_opaque_dst_sse2
+.globl _sk_force_opaque_dst_sse2
+FUNCTION(_sk_force_opaque_dst_sse2)
+_sk_force_opaque_dst_sse2:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,61,67,87,1,0 // movaps 0x15743(%rip),%xmm7 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
+ .byte 255,224 // jmpq *%rax
+
HIDDEN _sk_from_srgb_sse2
.globl _sk_from_srgb_sse2
FUNCTION(_sk_from_srgb_sse2)
_sk_from_srgb_sse2:
- .byte 68,15,40,5,178,84,1,0 // movaps 0x154b2(%rip),%xmm8 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0xdb4>
+ .byte 68,15,40,5,57,88,1,0 // movaps 0x15839(%rip),%xmm8 # 3c450 <_sk_srcover_bgra_8888_sse2_lowp+0xdb0>
.byte 68,15,40,232 // movaps %xmm0,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,26,84,1,0 // movaps 0x1541a(%rip),%xmm9 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,13,161,87,1,0 // movaps 0x157a1(%rip),%xmm9 # 3c3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,154,84,1,0 // movaps 0x1549a(%rip),%xmm10 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0xdc4>
+ .byte 68,15,40,21,33,88,1,0 // movaps 0x15821(%rip),%xmm10 # 3c460 <_sk_srcover_bgra_8888_sse2_lowp+0xdc0>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,154,84,1,0 // movaps 0x1549a(%rip),%xmm11 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0xdd4>
+ .byte 68,15,40,29,33,88,1,0 // movaps 0x15821(%rip),%xmm11 # 3c470 <_sk_srcover_bgra_8888_sse2_lowp+0xdd0>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,158,84,1,0 // movaps 0x1549e(%rip),%xmm12 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0xde4>
+ .byte 68,15,40,37,37,88,1,0 // movaps 0x15825(%rip),%xmm12 # 3c480 <_sk_srcover_bgra_8888_sse2_lowp+0xde0>
.byte 65,15,194,196,1 // cmpltps %xmm12,%xmm0
.byte 68,15,84,232 // andps %xmm0,%xmm13
.byte 65,15,85,198 // andnps %xmm14,%xmm0
@@ -36848,20 +38096,20 @@ HIDDEN _sk_from_srgb_dst_sse2
.globl _sk_from_srgb_dst_sse2
FUNCTION(_sk_from_srgb_dst_sse2)
_sk_from_srgb_dst_sse2:
- .byte 68,15,40,5,239,83,1,0 // movaps 0x153ef(%rip),%xmm8 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0xdb4>
+ .byte 68,15,40,5,118,87,1,0 // movaps 0x15776(%rip),%xmm8 # 3c450 <_sk_srcover_bgra_8888_sse2_lowp+0xdb0>
.byte 68,15,40,236 // movaps %xmm4,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,220 // movaps %xmm4,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,87,83,1,0 // movaps 0x15357(%rip),%xmm9 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,13,222,86,1,0 // movaps 0x156de(%rip),%xmm9 # 3c3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd30>
.byte 68,15,40,244 // movaps %xmm4,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,215,83,1,0 // movaps 0x153d7(%rip),%xmm10 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0xdc4>
+ .byte 68,15,40,21,94,87,1,0 // movaps 0x1575e(%rip),%xmm10 # 3c460 <_sk_srcover_bgra_8888_sse2_lowp+0xdc0>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,215,83,1,0 // movaps 0x153d7(%rip),%xmm11 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0xdd4>
+ .byte 68,15,40,29,94,87,1,0 // movaps 0x1575e(%rip),%xmm11 # 3c470 <_sk_srcover_bgra_8888_sse2_lowp+0xdd0>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,219,83,1,0 // movaps 0x153db(%rip),%xmm12 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0xde4>
+ .byte 68,15,40,37,98,87,1,0 // movaps 0x15762(%rip),%xmm12 # 3c480 <_sk_srcover_bgra_8888_sse2_lowp+0xde0>
.byte 65,15,194,228,1 // cmpltps %xmm12,%xmm4
.byte 68,15,84,236 // andps %xmm4,%xmm13
.byte 65,15,85,230 // andnps %xmm14,%xmm4
@@ -36898,22 +38146,22 @@ HIDDEN _sk_to_srgb_sse2
FUNCTION(_sk_to_srgb_sse2)
_sk_to_srgb_sse2:
.byte 68,15,82,232 // rsqrtps %xmm0,%xmm13
- .byte 68,15,40,5,104,83,1,0 // movaps 0x15368(%rip),%xmm8 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0xdf4>
+ .byte 68,15,40,5,239,86,1,0 // movaps 0x156ef(%rip),%xmm8 # 3c490 <_sk_srcover_bgra_8888_sse2_lowp+0xdf0>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,240 // mulps %xmm8,%xmm14
- .byte 68,15,40,13,104,83,1,0 // movaps 0x15368(%rip),%xmm9 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0xe04>
+ .byte 68,15,40,13,239,86,1,0 // movaps 0x156ef(%rip),%xmm9 # 3c4a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe00>
.byte 69,15,40,253 // movaps %xmm13,%xmm15
.byte 69,15,89,249 // mulps %xmm9,%xmm15
- .byte 68,15,40,21,104,83,1,0 // movaps 0x15368(%rip),%xmm10 # 3af10 <_sk_srcover_bgra_8888_sse2_lowp+0xe14>
+ .byte 68,15,40,21,239,86,1,0 // movaps 0x156ef(%rip),%xmm10 # 3c4b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe10>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,253 // mulps %xmm13,%xmm15
- .byte 68,15,40,29,104,83,1,0 // movaps 0x15368(%rip),%xmm11 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0xe24>
+ .byte 68,15,40,29,239,86,1,0 // movaps 0x156ef(%rip),%xmm11 # 3c4c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe20>
.byte 69,15,88,251 // addps %xmm11,%xmm15
- .byte 68,15,40,37,108,83,1,0 // movaps 0x1536c(%rip),%xmm12 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0xe34>
+ .byte 68,15,40,37,243,86,1,0 // movaps 0x156f3(%rip),%xmm12 # 3c4d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe30>
.byte 69,15,88,236 // addps %xmm12,%xmm13
.byte 69,15,83,237 // rcpps %xmm13,%xmm13
.byte 69,15,89,239 // mulps %xmm15,%xmm13
- .byte 68,15,40,61,104,83,1,0 // movaps 0x15368(%rip),%xmm15 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0xe44>
+ .byte 68,15,40,61,239,86,1,0 // movaps 0x156ef(%rip),%xmm15 # 3c4e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe40>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,197 // andnps %xmm13,%xmm0
@@ -36965,7 +38213,7 @@ _sk_rgb_to_hsl_sse2:
.byte 68,15,93,216 // minps %xmm0,%xmm11
.byte 65,15,40,202 // movaps %xmm10,%xmm1
.byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 68,15,40,45,27,81,1,0 // movaps 0x1511b(%rip),%xmm13 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,45,162,84,1,0 // movaps 0x154a2(%rip),%xmm13 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,94,233 // divps %xmm1,%xmm13
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,194,192,0 // cmpeqps %xmm8,%xmm0
@@ -36974,30 +38222,30 @@ _sk_rgb_to_hsl_sse2:
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,40,241 // movaps %xmm9,%xmm14
.byte 68,15,194,242,1 // cmpltps %xmm2,%xmm14
- .byte 68,15,84,53,145,82,1,0 // andps 0x15291(%rip),%xmm14 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0xe54>
+ .byte 68,15,84,53,24,86,1,0 // andps 0x15618(%rip),%xmm14 # 3c4f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe50>
.byte 69,15,88,244 // addps %xmm12,%xmm14
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,194,249,0 // cmpeqps %xmm9,%xmm15
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 68,15,40,37,132,82,1,0 // movaps 0x15284(%rip),%xmm12 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0xe64>
+ .byte 68,15,40,37,11,86,1,0 // movaps 0x1560b(%rip),%xmm12 # 3c500 <_sk_srcover_bgra_8888_sse2_lowp+0xe60>
.byte 65,15,88,212 // addps %xmm12,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,88,5,128,82,1,0 // addps 0x15280(%rip),%xmm8 # 3af70 <_sk_srcover_bgra_8888_sse2_lowp+0xe74>
+ .byte 68,15,88,5,7,86,1,0 // addps 0x15607(%rip),%xmm8 # 3c510 <_sk_srcover_bgra_8888_sse2_lowp+0xe70>
.byte 65,15,84,215 // andps %xmm15,%xmm2
.byte 69,15,85,248 // andnps %xmm8,%xmm15
.byte 68,15,86,250 // orps %xmm2,%xmm15
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,199 // andnps %xmm15,%xmm0
.byte 65,15,86,198 // orps %xmm14,%xmm0
- .byte 15,89,5,113,82,1,0 // mulps 0x15271(%rip),%xmm0 # 3af80 <_sk_srcover_bgra_8888_sse2_lowp+0xe84>
+ .byte 15,89,5,248,85,1,0 // mulps 0x155f8(%rip),%xmm0 # 3c520 <_sk_srcover_bgra_8888_sse2_lowp+0xe80>
.byte 69,15,40,194 // movaps %xmm10,%xmm8
.byte 69,15,194,195,4 // cmpneqps %xmm11,%xmm8
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 69,15,92,226 // subps %xmm10,%xmm12
.byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 68,15,40,13,116,80,1,0 // movaps 0x15074(%rip),%xmm9 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,13,251,83,1,0 // movaps 0x153fb(%rip),%xmm9 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 65,15,40,210 // movaps %xmm10,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 68,15,194,202,1 // cmpltps %xmm2,%xmm9
@@ -37021,7 +38269,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,218 // movaps %xmm2,%xmm11
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,13,35,80,1,0 // movaps 0x15023(%rip),%xmm9 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,13,170,83,1,0 // movaps 0x153aa(%rip),%xmm9 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,194,211,2 // cmpleps %xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
@@ -37038,28 +38286,28 @@ _sk_hsl_to_rgb_sse2:
.byte 69,15,88,211 // addps %xmm11,%xmm10
.byte 69,15,88,219 // addps %xmm11,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 15,40,5,204,81,1,0 // movaps 0x151cc(%rip),%xmm0 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0xe94>
+ .byte 15,40,5,83,85,1,0 // movaps 0x15553(%rip),%xmm0 # 3c530 <_sk_srcover_bgra_8888_sse2_lowp+0xe90>
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,194,217,1 // cmpltps %xmm1,%xmm3
- .byte 15,84,29,212,79,1,0 // andps 0x14fd4(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,84,29,91,83,1,0 // andps 0x1535b(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 68,15,40,45,182,81,1,0 // movaps 0x151b6(%rip),%xmm13 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0xea4>
+ .byte 68,15,40,45,61,85,1,0 // movaps 0x1553d(%rip),%xmm13 # 3c540 <_sk_srcover_bgra_8888_sse2_lowp+0xea0>
.byte 69,15,40,197 // movaps %xmm13,%xmm8
.byte 68,15,194,192,2 // cmpleps %xmm0,%xmm8
.byte 69,15,40,242 // movaps %xmm10,%xmm14
.byte 69,15,92,243 // subps %xmm11,%xmm14
.byte 65,15,40,217 // movaps %xmm9,%xmm3
.byte 15,194,216,2 // cmpleps %xmm0,%xmm3
- .byte 15,40,21,118,81,1,0 // movaps 0x15176(%rip),%xmm2 # 3af80 <_sk_srcover_bgra_8888_sse2_lowp+0xe84>
+ .byte 15,40,21,253,84,1,0 // movaps 0x154fd(%rip),%xmm2 # 3c520 <_sk_srcover_bgra_8888_sse2_lowp+0xe80>
.byte 68,15,40,250 // movaps %xmm2,%xmm15
.byte 68,15,194,248,2 // cmpleps %xmm0,%xmm15
- .byte 15,40,13,54,81,1,0 // movaps 0x15136(%rip),%xmm1 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0xe54>
+ .byte 15,40,13,189,84,1,0 // movaps 0x154bd(%rip),%xmm1 # 3c4f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe50>
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,45,76,81,1,0 // movaps 0x1514c(%rip),%xmm5 # 3af70 <_sk_srcover_bgra_8888_sse2_lowp+0xe74>
+ .byte 15,40,45,211,84,1,0 // movaps 0x154d3(%rip),%xmm5 # 3c510 <_sk_srcover_bgra_8888_sse2_lowp+0xe70>
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 65,15,89,230 // mulps %xmm14,%xmm4
@@ -37082,7 +38330,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,49,79,1,0 // andps 0x14f31(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,84,29,184,82,1,0 // andps 0x152b8(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 68,15,40,230 // movaps %xmm6,%xmm12
.byte 68,15,92,224 // subps %xmm0,%xmm12
@@ -37112,12 +38360,12 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,124,36,136 // movaps -0x78(%rsp),%xmm7
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 15,85,227 // andnps %xmm3,%xmm4
- .byte 15,88,53,185,80,1,0 // addps 0x150b9(%rip),%xmm6 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
+ .byte 15,88,53,64,84,1,0 // addps 0x15440(%rip),%xmm6 # 3c550 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
.byte 243,15,91,198 // cvttps2dq %xmm6,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,164,78,1,0 // andps 0x14ea4(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,84,29,43,82,1,0 // andps 0x1522b(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,89,206 // mulps %xmm6,%xmm1
@@ -37179,13 +38427,13 @@ _sk_scale_u8_sse2:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,61 // jne 26007 <_sk_scale_u8_sse2+0x4f>
+ .byte 117,61 // jne 27220 <_sk_scale_u8_sse2+0x4f>
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,125,78,1,0 // pand 0x14e7d(%rip),%xmm8 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,68,15,219,5,4,82,1,0 // pand 0x15204(%rip),%xmm8 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,209,79,1,0 // mulps 0x14fd1(%rip),%xmm8 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,89,5,88,83,1,0 // mulps 0x15358(%rip),%xmm8 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -37196,12 +38444,12 @@ _sk_scale_u8_sse2:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,57 // je 26048 <_sk_scale_u8_sse2+0x90>
+ .byte 116,57 // je 27261 <_sk_scale_u8_sse2+0x90>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 60,2 // cmp $0x2,%al
- .byte 116,21 // je 2602d <_sk_scale_u8_sse2+0x75>
+ .byte 116,21 // je 27246 <_sk_scale_u8_sse2+0x75>
.byte 60,3 // cmp $0x3,%al
- .byte 117,190 // jne 25fda <_sk_scale_u8_sse2+0x22>
+ .byte 117,190 // jne 271f3 <_sk_scale_u8_sse2+0x22>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -37210,10 +38458,10 @@ _sk_scale_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 235,146 // jmp 25fda <_sk_scale_u8_sse2+0x22>
+ .byte 235,146 // jmp 271f3 <_sk_scale_u8_sse2+0x22>
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,134 // jmp 25fda <_sk_scale_u8_sse2+0x22>
+ .byte 235,134 // jmp 271f3 <_sk_scale_u8_sse2+0x22>
HIDDEN _sk_scale_565_sse2
.globl _sk_scale_565_sse2
@@ -37225,20 +38473,20 @@ _sk_scale_565_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 2611a <_sk_scale_565_sse2+0xc6>
+ .byte 15,133,173,0,0,0 // jne 27333 <_sk_scale_565_sse2+0xc6>
.byte 243,69,15,126,20,80 // movq (%r8,%rdx,2),%xmm10
.byte 102,68,15,97,208 // punpcklwd %xmm0,%xmm10
- .byte 102,68,15,111,5,79,79,1,0 // movdqa 0x14f4f(%rip),%xmm8 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
+ .byte 102,68,15,111,5,214,82,1,0 // movdqa 0x152d6(%rip),%xmm8 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
.byte 102,69,15,219,194 // pand %xmm10,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,78,79,1,0 // mulps 0x14f4e(%rip),%xmm8 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,68,15,111,13,85,79,1,0 // movdqa 0x14f55(%rip),%xmm9 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
+ .byte 68,15,89,5,213,82,1,0 // mulps 0x152d5(%rip),%xmm8 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 102,68,15,111,13,220,82,1,0 // movdqa 0x152dc(%rip),%xmm9 # 3c590 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
.byte 102,69,15,219,202 // pand %xmm10,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,84,79,1,0 // mulps 0x14f54(%rip),%xmm9 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,68,15,219,21,91,79,1,0 // pand 0x14f5b(%rip),%xmm10 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
+ .byte 68,15,89,13,219,82,1,0 // mulps 0x152db(%rip),%xmm9 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 102,68,15,219,21,226,82,1,0 // pand 0x152e2(%rip),%xmm10 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,95,79,1,0 // mulps 0x14f5f(%rip),%xmm10 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
+ .byte 68,15,89,21,230,82,1,0 // mulps 0x152e6(%rip),%xmm10 # 3c5c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf20>
.byte 68,15,40,219 // movaps %xmm3,%xmm11
.byte 68,15,194,223,1 // cmpltps %xmm7,%xmm11
.byte 69,15,40,225 // movaps %xmm9,%xmm12
@@ -37265,22 +38513,22 @@ _sk_scale_565_sse2:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,56 // je 2615a <_sk_scale_565_sse2+0x106>
+ .byte 116,56 // je 27373 <_sk_scale_565_sse2+0x106>
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 60,2 // cmp $0x2,%al
- .byte 116,25 // je 26144 <_sk_scale_565_sse2+0xf0>
+ .byte 116,25 // je 2735d <_sk_scale_565_sse2+0xf0>
.byte 60,3 // cmp $0x3,%al
- .byte 15,133,69,255,255,255 // jne 26078 <_sk_scale_565_sse2+0x24>
+ .byte 15,133,69,255,255,255 // jne 27291 <_sk_scale_565_sse2+0x24>
.byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,208,69 // pshufd $0x45,%xmm8,%xmm10
.byte 102,69,15,110,4,80 // movd (%r8,%rdx,2),%xmm8
.byte 242,69,15,112,192,212 // pshuflw $0xd4,%xmm8,%xmm8
.byte 242,69,15,16,208 // movsd %xmm8,%xmm10
- .byte 233,30,255,255,255 // jmpq 26078 <_sk_scale_565_sse2+0x24>
+ .byte 233,30,255,255,255 // jmpq 27291 <_sk_scale_565_sse2+0x24>
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,15,255,255,255 // jmpq 26078 <_sk_scale_565_sse2+0x24>
+ .byte 233,15,255,255,255 // jmpq 27291 <_sk_scale_565_sse2+0x24>
HIDDEN _sk_lerp_1_float_sse2
.globl _sk_lerp_1_float_sse2
@@ -37313,13 +38561,13 @@ _sk_lerp_u8_sse2:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,81 // jne 26204 <_sk_lerp_u8_sse2+0x63>
+ .byte 117,81 // jne 2741d <_sk_lerp_u8_sse2+0x63>
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,148,76,1,0 // pand 0x14c94(%rip),%xmm8 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,68,15,219,5,27,80,1,0 // pand 0x1501b(%rip),%xmm8 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,232,77,1,0 // mulps 0x14de8(%rip),%xmm8 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,89,5,111,81,1,0 // mulps 0x1516f(%rip),%xmm8 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -37337,12 +38585,12 @@ _sk_lerp_u8_sse2:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,60 // je 26248 <_sk_lerp_u8_sse2+0xa7>
+ .byte 116,60 // je 27461 <_sk_lerp_u8_sse2+0xa7>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 60,2 // cmp $0x2,%al
- .byte 116,21 // je 2622a <_sk_lerp_u8_sse2+0x89>
+ .byte 116,21 // je 27443 <_sk_lerp_u8_sse2+0x89>
.byte 60,3 // cmp $0x3,%al
- .byte 117,170 // jne 261c3 <_sk_lerp_u8_sse2+0x22>
+ .byte 117,170 // jne 273dc <_sk_lerp_u8_sse2+0x22>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -37351,10 +38599,10 @@ _sk_lerp_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,123,255,255,255 // jmpq 261c3 <_sk_lerp_u8_sse2+0x22>
+ .byte 233,123,255,255,255 // jmpq 273dc <_sk_lerp_u8_sse2+0x22>
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,108,255,255,255 // jmpq 261c3 <_sk_lerp_u8_sse2+0x22>
+ .byte 233,108,255,255,255 // jmpq 273dc <_sk_lerp_u8_sse2+0x22>
HIDDEN _sk_lerp_565_sse2
.globl _sk_lerp_565_sse2
@@ -37366,20 +38614,20 @@ _sk_lerp_565_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 2631d <_sk_lerp_565_sse2+0xc6>
+ .byte 15,133,173,0,0,0 // jne 27536 <_sk_lerp_565_sse2+0xc6>
.byte 243,69,15,126,4,80 // movq (%r8,%rdx,2),%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,111,13,76,77,1,0 // movdqa 0x14d4c(%rip),%xmm9 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
+ .byte 102,68,15,111,13,211,80,1,0 // movdqa 0x150d3(%rip),%xmm9 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
.byte 102,69,15,219,200 // pand %xmm8,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,75,77,1,0 // mulps 0x14d4b(%rip),%xmm9 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,68,15,111,21,82,77,1,0 // movdqa 0x14d52(%rip),%xmm10 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
+ .byte 68,15,89,13,210,80,1,0 // mulps 0x150d2(%rip),%xmm9 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 102,68,15,111,21,217,80,1,0 // movdqa 0x150d9(%rip),%xmm10 # 3c590 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
- .byte 68,15,89,29,81,77,1,0 // mulps 0x14d51(%rip),%xmm11 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,68,15,219,5,88,77,1,0 // pand 0x14d58(%rip),%xmm8 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
+ .byte 68,15,89,29,216,80,1,0 // mulps 0x150d8(%rip),%xmm11 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 102,68,15,219,5,223,80,1,0 // pand 0x150df(%rip),%xmm8 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,92,77,1,0 // mulps 0x14d5c(%rip),%xmm8 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
+ .byte 68,15,89,5,227,80,1,0 // mulps 0x150e3(%rip),%xmm8 # 3c5c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf20>
.byte 68,15,40,211 // movaps %xmm3,%xmm10
.byte 68,15,194,215,1 // cmpltps %xmm7,%xmm10
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -37408,22 +38656,22 @@ _sk_lerp_565_sse2:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,56 // je 2635d <_sk_lerp_565_sse2+0x106>
+ .byte 116,56 // je 27576 <_sk_lerp_565_sse2+0x106>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 60,2 // cmp $0x2,%al
- .byte 116,25 // je 26347 <_sk_lerp_565_sse2+0xf0>
+ .byte 116,25 // je 27560 <_sk_lerp_565_sse2+0xf0>
.byte 60,3 // cmp $0x3,%al
- .byte 15,133,69,255,255,255 // jne 2627b <_sk_lerp_565_sse2+0x24>
+ .byte 15,133,69,255,255,255 // jne 27494 <_sk_lerp_565_sse2+0x24>
.byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
.byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
.byte 242,69,15,112,201,212 // pshuflw $0xd4,%xmm9,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,30,255,255,255 // jmpq 2627b <_sk_lerp_565_sse2+0x24>
+ .byte 233,30,255,255,255 // jmpq 27494 <_sk_lerp_565_sse2+0x24>
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,15,255,255,255 // jmpq 2627b <_sk_lerp_565_sse2+0x24>
+ .byte 233,15,255,255,255 // jmpq 27494 <_sk_lerp_565_sse2+0x24>
HIDDEN _sk_load_tables_sse2
.globl _sk_load_tables_sse2
@@ -37432,11 +38680,11 @@ _sk_load_tables_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,34,1,0,0 // jne 2649c <_sk_load_tables_sse2+0x130>
+ .byte 15,133,34,1,0,0 // jne 276b5 <_sk_load_tables_sse2+0x130>
.byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,68,15,111,5,212,74,1,0 // movdqa 0x14ad4(%rip),%xmm8 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,68,15,111,5,91,78,1,0 // movdqa 0x14e5b(%rip),%xmm8 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -37492,7 +38740,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
.byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 15,89,29,43,75,1,0 // mulps 0x14b2b(%rip),%xmm3 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 15,89,29,178,78,1,0 // mulps 0x14eb2(%rip),%xmm3 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -37500,18 +38748,18 @@ _sk_load_tables_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 264d6 <_sk_load_tables_sse2+0x16a>
+ .byte 116,45 // je 276ef <_sk_load_tables_sse2+0x16a>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 264cb <_sk_load_tables_sse2+0x15f>
+ .byte 116,23 // je 276e4 <_sk_load_tables_sse2+0x15f>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,194,254,255,255 // jne 26380 <_sk_load_tables_sse2+0x14>
+ .byte 15,133,194,254,255,255 // jne 27599 <_sk_load_tables_sse2+0x14>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,170,254,255,255 // jmpq 26380 <_sk_load_tables_sse2+0x14>
+ .byte 233,170,254,255,255 // jmpq 27599 <_sk_load_tables_sse2+0x14>
.byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,159,254,255,255 // jmpq 26380 <_sk_load_tables_sse2+0x14>
+ .byte 233,159,254,255,255 // jmpq 27599 <_sk_load_tables_sse2+0x14>
HIDDEN _sk_load_tables_u16_be_sse2
.globl _sk_load_tables_u16_be_sse2
@@ -37521,7 +38769,7 @@ _sk_load_tables_u16_be_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,93,1,0,0 // jne 26654 <_sk_load_tables_u16_be_sse2+0x173>
+ .byte 15,133,93,1,0,0 // jne 2786d <_sk_load_tables_u16_be_sse2+0x173>
.byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
.byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
.byte 65,86 // push %r14
@@ -37532,7 +38780,7 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,15,111,21,5,75,1,0 // movdqa 0x14b05(%rip),%xmm2 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0xf34>
+ .byte 102,15,111,21,140,78,1,0 // movdqa 0x14e8c(%rip),%xmm2 # 3c5d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf30>
.byte 102,15,112,217,238 // pshufd $0xee,%xmm1,%xmm3
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
@@ -37593,23 +38841,23 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,235,217 // por %xmm9,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,3,74,1,0 // mulps 0x14a03(%rip),%xmm3 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0xf54>
+ .byte 15,89,29,138,77,1,0 // mulps 0x14d8a(%rip),%xmm3 # 3c5f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 2666d <_sk_load_tables_u16_be_sse2+0x18c>
+ .byte 117,13 // jne 27886 <_sk_load_tables_u16_be_sse2+0x18c>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,151,254,255,255 // jmpq 26504 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,151,254,255,255 // jmpq 2771d <_sk_load_tables_u16_be_sse2+0x23>
.byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,130,254,255,255 // jb 26504 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 15,130,130,254,255,255 // jb 2771d <_sk_load_tables_u16_be_sse2+0x23>
.byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,118,254,255,255 // jmpq 26504 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,118,254,255,255 // jmpq 2771d <_sk_load_tables_u16_be_sse2+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse2
.globl _sk_load_tables_rgb_u16_be_sse2
@@ -37619,7 +38867,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,81,1,0,0 // jne 267f1 <_sk_load_tables_rgb_u16_be_sse2+0x163>
+ .byte 15,133,81,1,0,0 // jne 27a0a <_sk_load_tables_rgb_u16_be_sse2+0x163>
.byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
.byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -37634,7 +38882,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,65,15,97,194 // punpcklwd %xmm10,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,68,15,111,5,71,73,1,0 // movdqa 0x14947(%rip),%xmm8 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0xf34>
+ .byte 102,68,15,111,5,206,76,1,0 // movdqa 0x14cce(%rip),%xmm8 # 3c5d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf30>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
@@ -37689,7 +38937,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 65,15,20,216 // unpcklps %xmm8,%xmm3
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,196,69,1,0 // movaps 0x145c4(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,29,75,73,1,0 // movaps 0x1494b(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -37697,21 +38945,21 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 26817 <_sk_load_tables_rgb_u16_be_sse2+0x189>
+ .byte 117,14 // jne 27a30 <_sk_load_tables_rgb_u16_be_sse2+0x189>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
- .byte 233,175,254,255,255 // jmpq 266c6 <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,175,254,255,255 // jmpq 278df <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,71,15,110,84,72,6 // movd 0x6(%r8,%r9,2),%xmm10
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,71,15,196,84,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm10
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 26848 <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
+ .byte 114,24 // jb 27a61 <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
.byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,126,254,255,255 // jmpq 266c6 <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,126,254,255,255 // jmpq 278df <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,117,254,255,255 // jmpq 266c6 <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,117,254,255,255 // jmpq 278df <_sk_load_tables_rgb_u16_be_sse2+0x38>
HIDDEN _sk_byte_tables_sse2
.globl _sk_byte_tables_sse2
@@ -37724,9 +38972,9 @@ _sk_byte_tables_sse2:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 68,15,95,216 // maxps %xmm0,%xmm11
- .byte 68,15,40,13,68,69,1,0 // movaps 0x14544(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,13,203,72,1,0 // movaps 0x148cb(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,93,217 // minps %xmm9,%xmm11
- .byte 68,15,40,21,24,70,1,0 // movaps 0x14618(%rip),%xmm10 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,21,159,73,1,0 // movaps 0x1499f(%rip),%xmm10 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 69,15,89,218 // mulps %xmm10,%xmm11
.byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
@@ -37753,7 +39001,7 @@ _sk_byte_tables_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,29,215,70,1,0 // movaps 0x146d7(%rip),%xmm11 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,40,29,94,74,1,0 // movaps 0x14a5e(%rip),%xmm11 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 65,15,89,195 // mulps %xmm11,%xmm0
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 68,15,95,225 // maxps %xmm1,%xmm12
@@ -37857,7 +39105,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 68,15,95,216 // maxps %xmm0,%xmm11
- .byte 68,15,40,21,64,67,1,0 // movaps 0x14340(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,21,199,70,1,0 // movaps 0x146c7(%rip),%xmm10 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,93,218 // minps %xmm10,%xmm11
.byte 69,15,89,217 // mulps %xmm9,%xmm11
.byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
@@ -37885,7 +39133,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,29,219,68,1,0 // movaps 0x144db(%rip),%xmm11 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,40,29,98,72,1,0 // movaps 0x14862(%rip),%xmm11 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 65,15,89,195 // mulps %xmm11,%xmm0
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 68,15,95,225 // maxps %xmm1,%xmm12
@@ -37959,7 +39207,7 @@ _sk_table_r_sse2:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,93,13,188,65,1,0 // minps 0x141bc(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,93,13,67,69,1,0 // minps 0x14543(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
.byte 102,65,15,112,192,78 // pshufd $0x4e,%xmm8,%xmm0
@@ -37992,7 +39240,7 @@ _sk_table_g_sse2:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,201 // maxps %xmm1,%xmm9
- .byte 68,15,93,13,67,65,1,0 // minps 0x14143(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,93,13,202,68,1,0 // minps 0x144ca(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
.byte 102,65,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm1
@@ -38025,7 +39273,7 @@ _sk_table_b_sse2:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 68,15,93,13,202,64,1,0 // minps 0x140ca(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,93,13,81,68,1,0 // minps 0x14451(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
.byte 102,65,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm2
@@ -38058,7 +39306,7 @@ _sk_table_a_sse2:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,203 // maxps %xmm3,%xmm9
- .byte 68,15,93,13,81,64,1,0 // minps 0x14051(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,93,13,216,67,1,0 // minps 0x143d8(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
.byte 102,65,15,112,216,78 // pshufd $0x4e,%xmm8,%xmm3
@@ -38102,16 +39350,16 @@ _sk_parametric_r_sse2:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,73,66,1,0 // mulps 0x14249(%rip),%xmm11 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
- .byte 68,15,40,45,81,66,1,0 // movaps 0x14251(%rip),%xmm13 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
+ .byte 68,15,89,29,208,69,1,0 // mulps 0x145d0(%rip),%xmm11 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,40,45,216,69,1,0 // movaps 0x145d8(%rip),%xmm13 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
.byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,117,63,1,0 // orps 0x13f75(%rip),%xmm13 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
- .byte 68,15,88,29,77,66,1,0 // addps 0x1424d(%rip),%xmm11 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 68,15,40,53,85,66,1,0 // movaps 0x14255(%rip),%xmm14 # 3b090 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
+ .byte 68,15,86,45,252,66,1,0 // orps 0x142fc(%rip),%xmm13 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,88,29,212,69,1,0 // addps 0x145d4(%rip),%xmm11 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 68,15,40,53,220,69,1,0 // movaps 0x145dc(%rip),%xmm14 # 3c630 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,85,66,1,0 // addps 0x14255(%rip),%xmm13 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 68,15,40,53,93,66,1,0 // movaps 0x1425d(%rip),%xmm14 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
+ .byte 68,15,88,45,220,69,1,0 // addps 0x145dc(%rip),%xmm13 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 68,15,40,53,228,69,1,0 // movaps 0x145e4(%rip),%xmm14 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
.byte 69,15,89,220 // mulps %xmm12,%xmm11
@@ -38119,21 +39367,21 @@ _sk_parametric_r_sse2:
.byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,55,63,1,0 // movaps 0x13f37(%rip),%xmm12 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,37,190,66,1,0 // movaps 0x142be(%rip),%xmm12 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,84,244 // andps %xmm12,%xmm14
.byte 69,15,92,238 // subps %xmm14,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,47,66,1,0 // addps 0x1422f(%rip),%xmm11 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 68,15,40,45,55,66,1,0 // movaps 0x14237(%rip),%xmm13 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
+ .byte 68,15,88,29,182,69,1,0 // addps 0x145b6(%rip),%xmm11 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 68,15,40,45,190,69,1,0 // movaps 0x145be(%rip),%xmm13 # 3c670 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,55,66,1,0 // movaps 0x14237(%rip),%xmm13 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
+ .byte 68,15,40,45,190,69,1,0 // movaps 0x145be(%rip),%xmm13 # 3c680 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
.byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,59,66,1,0 // movaps 0x1423b(%rip),%xmm14 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
+ .byte 68,15,40,53,194,69,1,0 // movaps 0x145c2(%rip),%xmm14 # 3c690 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,59,66,1,0 // mulps 0x1423b(%rip),%xmm14 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
+ .byte 68,15,89,53,194,69,1,0 // mulps 0x145c2(%rip),%xmm14 # 3c6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1000>
.byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
.byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -38172,16 +39420,16 @@ _sk_parametric_g_sse2:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,254,64,1,0 // mulps 0x140fe(%rip),%xmm11 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
- .byte 68,15,40,45,6,65,1,0 // movaps 0x14106(%rip),%xmm13 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
+ .byte 68,15,89,29,133,68,1,0 // mulps 0x14485(%rip),%xmm11 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,40,45,141,68,1,0 // movaps 0x1448d(%rip),%xmm13 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
.byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,42,62,1,0 // orps 0x13e2a(%rip),%xmm13 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
- .byte 68,15,88,29,2,65,1,0 // addps 0x14102(%rip),%xmm11 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 68,15,40,53,10,65,1,0 // movaps 0x1410a(%rip),%xmm14 # 3b090 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
+ .byte 68,15,86,45,177,65,1,0 // orps 0x141b1(%rip),%xmm13 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,88,29,137,68,1,0 // addps 0x14489(%rip),%xmm11 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 68,15,40,53,145,68,1,0 // movaps 0x14491(%rip),%xmm14 # 3c630 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,10,65,1,0 // addps 0x1410a(%rip),%xmm13 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 68,15,40,53,18,65,1,0 // movaps 0x14112(%rip),%xmm14 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
+ .byte 68,15,88,45,145,68,1,0 // addps 0x14491(%rip),%xmm13 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 68,15,40,53,153,68,1,0 // movaps 0x14499(%rip),%xmm14 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
.byte 69,15,89,220 // mulps %xmm12,%xmm11
@@ -38189,21 +39437,21 @@ _sk_parametric_g_sse2:
.byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,236,61,1,0 // movaps 0x13dec(%rip),%xmm12 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,37,115,65,1,0 // movaps 0x14173(%rip),%xmm12 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,84,244 // andps %xmm12,%xmm14
.byte 69,15,92,238 // subps %xmm14,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,228,64,1,0 // addps 0x140e4(%rip),%xmm11 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 68,15,40,45,236,64,1,0 // movaps 0x140ec(%rip),%xmm13 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
+ .byte 68,15,88,29,107,68,1,0 // addps 0x1446b(%rip),%xmm11 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 68,15,40,45,115,68,1,0 // movaps 0x14473(%rip),%xmm13 # 3c670 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,236,64,1,0 // movaps 0x140ec(%rip),%xmm13 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
+ .byte 68,15,40,45,115,68,1,0 // movaps 0x14473(%rip),%xmm13 # 3c680 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
.byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,240,64,1,0 // movaps 0x140f0(%rip),%xmm14 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
+ .byte 68,15,40,53,119,68,1,0 // movaps 0x14477(%rip),%xmm14 # 3c690 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,240,64,1,0 // mulps 0x140f0(%rip),%xmm14 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
+ .byte 68,15,89,53,119,68,1,0 // mulps 0x14477(%rip),%xmm14 # 3c6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1000>
.byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
.byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -38242,16 +39490,16 @@ _sk_parametric_b_sse2:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,179,63,1,0 // mulps 0x13fb3(%rip),%xmm11 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
- .byte 68,15,40,45,187,63,1,0 // movaps 0x13fbb(%rip),%xmm13 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
+ .byte 68,15,89,29,58,67,1,0 // mulps 0x1433a(%rip),%xmm11 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,40,45,66,67,1,0 // movaps 0x14342(%rip),%xmm13 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
.byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,223,60,1,0 // orps 0x13cdf(%rip),%xmm13 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
- .byte 68,15,88,29,183,63,1,0 // addps 0x13fb7(%rip),%xmm11 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 68,15,40,53,191,63,1,0 // movaps 0x13fbf(%rip),%xmm14 # 3b090 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
+ .byte 68,15,86,45,102,64,1,0 // orps 0x14066(%rip),%xmm13 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,88,29,62,67,1,0 // addps 0x1433e(%rip),%xmm11 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 68,15,40,53,70,67,1,0 // movaps 0x14346(%rip),%xmm14 # 3c630 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,191,63,1,0 // addps 0x13fbf(%rip),%xmm13 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 68,15,40,53,199,63,1,0 // movaps 0x13fc7(%rip),%xmm14 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
+ .byte 68,15,88,45,70,67,1,0 // addps 0x14346(%rip),%xmm13 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 68,15,40,53,78,67,1,0 // movaps 0x1434e(%rip),%xmm14 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
.byte 69,15,89,220 // mulps %xmm12,%xmm11
@@ -38259,21 +39507,21 @@ _sk_parametric_b_sse2:
.byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,161,60,1,0 // movaps 0x13ca1(%rip),%xmm12 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,37,40,64,1,0 // movaps 0x14028(%rip),%xmm12 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,84,244 // andps %xmm12,%xmm14
.byte 69,15,92,238 // subps %xmm14,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,153,63,1,0 // addps 0x13f99(%rip),%xmm11 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 68,15,40,45,161,63,1,0 // movaps 0x13fa1(%rip),%xmm13 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
+ .byte 68,15,88,29,32,67,1,0 // addps 0x14320(%rip),%xmm11 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 68,15,40,45,40,67,1,0 // movaps 0x14328(%rip),%xmm13 # 3c670 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,161,63,1,0 // movaps 0x13fa1(%rip),%xmm13 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
+ .byte 68,15,40,45,40,67,1,0 // movaps 0x14328(%rip),%xmm13 # 3c680 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
.byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,165,63,1,0 // movaps 0x13fa5(%rip),%xmm14 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
+ .byte 68,15,40,53,44,67,1,0 // movaps 0x1432c(%rip),%xmm14 # 3c690 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,165,63,1,0 // mulps 0x13fa5(%rip),%xmm14 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
+ .byte 68,15,89,53,44,67,1,0 // mulps 0x1432c(%rip),%xmm14 # 3c6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1000>
.byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
.byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -38312,16 +39560,16 @@ _sk_parametric_a_sse2:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,104,62,1,0 // mulps 0x13e68(%rip),%xmm11 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
- .byte 68,15,40,45,112,62,1,0 // movaps 0x13e70(%rip),%xmm13 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
+ .byte 68,15,89,29,239,65,1,0 // mulps 0x141ef(%rip),%xmm11 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
+ .byte 68,15,40,45,247,65,1,0 // movaps 0x141f7(%rip),%xmm13 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
.byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,148,59,1,0 // orps 0x13b94(%rip),%xmm13 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
- .byte 68,15,88,29,108,62,1,0 // addps 0x13e6c(%rip),%xmm11 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 68,15,40,53,116,62,1,0 // movaps 0x13e74(%rip),%xmm14 # 3b090 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
+ .byte 68,15,86,45,27,63,1,0 // orps 0x13f1b(%rip),%xmm13 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 68,15,88,29,243,65,1,0 // addps 0x141f3(%rip),%xmm11 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 68,15,40,53,251,65,1,0 // movaps 0x141fb(%rip),%xmm14 # 3c630 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,116,62,1,0 // addps 0x13e74(%rip),%xmm13 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 68,15,40,53,124,62,1,0 // movaps 0x13e7c(%rip),%xmm14 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
+ .byte 68,15,88,45,251,65,1,0 // addps 0x141fb(%rip),%xmm13 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
+ .byte 68,15,40,53,3,66,1,0 // movaps 0x14203(%rip),%xmm14 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
.byte 69,15,89,220 // mulps %xmm12,%xmm11
@@ -38329,21 +39577,21 @@ _sk_parametric_a_sse2:
.byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,86,59,1,0 // movaps 0x13b56(%rip),%xmm12 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,37,221,62,1,0 // movaps 0x13edd(%rip),%xmm12 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,84,244 // andps %xmm12,%xmm14
.byte 69,15,92,238 // subps %xmm14,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,78,62,1,0 // addps 0x13e4e(%rip),%xmm11 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 68,15,40,45,86,62,1,0 // movaps 0x13e56(%rip),%xmm13 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
+ .byte 68,15,88,29,213,65,1,0 // addps 0x141d5(%rip),%xmm11 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 68,15,40,45,221,65,1,0 // movaps 0x141dd(%rip),%xmm13 # 3c670 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,86,62,1,0 // movaps 0x13e56(%rip),%xmm13 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
+ .byte 68,15,40,45,221,65,1,0 // movaps 0x141dd(%rip),%xmm13 # 3c680 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
.byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,90,62,1,0 // movaps 0x13e5a(%rip),%xmm14 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
+ .byte 68,15,40,53,225,65,1,0 // movaps 0x141e1(%rip),%xmm14 # 3c690 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,90,62,1,0 // mulps 0x13e5a(%rip),%xmm14 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
+ .byte 68,15,89,53,225,65,1,0 // mulps 0x141e1(%rip),%xmm14 # 3c6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1000>
.byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
.byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -38371,21 +39619,21 @@ _sk_gamma_sse2:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 15,40,5,87,61,1,0 // movaps 0x13d57(%rip),%xmm0 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
+ .byte 15,40,5,222,64,1,0 // movaps 0x140de(%rip),%xmm0 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 68,15,40,5,89,61,1,0 // movaps 0x13d59(%rip),%xmm8 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
+ .byte 68,15,40,5,224,64,1,0 // movaps 0x140e0(%rip),%xmm8 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,123,58,1,0 // orps 0x13a7b(%rip),%xmm0 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
- .byte 15,88,53,84,61,1,0 // addps 0x13d54(%rip),%xmm6 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 68,15,40,29,92,61,1,0 // movaps 0x13d5c(%rip),%xmm11 # 3b090 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
+ .byte 15,86,5,2,62,1,0 // orps 0x13e02(%rip),%xmm0 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,88,53,219,64,1,0 // addps 0x140db(%rip),%xmm6 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 68,15,40,29,227,64,1,0 // movaps 0x140e3(%rip),%xmm11 # 3c630 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 15,92,241 // subps %xmm1,%xmm6
- .byte 68,15,40,61,90,61,1,0 // movaps 0x13d5a(%rip),%xmm15 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
+ .byte 68,15,40,61,225,64,1,0 // movaps 0x140e1(%rip),%xmm15 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
.byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,45,94,61,1,0 // movaps 0x13d5e(%rip),%xmm13 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
+ .byte 68,15,40,45,229,64,1,0 // movaps 0x140e5(%rip),%xmm13 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
.byte 65,15,40,205 // movaps %xmm13,%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,92,241 // subps %xmm1,%xmm6
@@ -38397,23 +39645,23 @@ _sk_gamma_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,13,50,58,1,0 // andps 0x13a32(%rip),%xmm1 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,84,13,185,61,1,0 // andps 0x13db9(%rip),%xmm1 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,53,50,61,1,0 // addps 0x13d32(%rip),%xmm6 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 15,40,21,75,61,1,0 // movaps 0x13d4b(%rip),%xmm2 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
+ .byte 15,88,53,185,64,1,0 // addps 0x140b9(%rip),%xmm6 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 15,40,21,210,64,1,0 // movaps 0x140d2(%rip),%xmm2 # 3c680 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,41,61,1,0 // movaps 0x13d29(%rip),%xmm1 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
+ .byte 15,40,13,176,64,1,0 // movaps 0x140b0(%rip),%xmm1 # 3c670 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
- .byte 68,15,40,53,59,61,1,0 // movaps 0x13d3b(%rip),%xmm14 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
+ .byte 68,15,40,53,194,64,1,0 // movaps 0x140c2(%rip),%xmm14 # 3c690 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 68,15,40,13,56,61,1,0 // movaps 0x13d38(%rip),%xmm9 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
+ .byte 68,15,40,13,191,64,1,0 // movaps 0x140bf(%rip),%xmm9 # 3c6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1000>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,246 // xorps %xmm6,%xmm6
@@ -38423,9 +39671,9 @@ _sk_gamma_sse2:
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,53,176,57,1,0 // movaps 0x139b0(%rip),%xmm6 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,40,53,55,61,1,0 // movaps 0x13d37(%rip),%xmm6 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 15,86,254 // orps %xmm6,%xmm7
- .byte 15,88,5,134,60,1,0 // addps 0x13c86(%rip),%xmm0 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 15,88,5,13,64,1,0 // addps 0x1400d(%rip),%xmm0 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 65,15,89,235 // mulps %xmm11,%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
@@ -38438,12 +39686,12 @@ _sk_gamma_sse2:
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,194,253,1 // cmpltps %xmm5,%xmm7
- .byte 68,15,40,61,133,57,1,0 // movaps 0x13985(%rip),%xmm15 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,61,12,61,1,0 // movaps 0x13d0c(%rip),%xmm15 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 65,15,84,255 // andps %xmm15,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,92,253 // subps %xmm5,%xmm7
- .byte 15,88,5,129,60,1,0 // addps 0x13c81(%rip),%xmm0 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
+ .byte 15,88,5,8,64,1,0 // addps 0x14008(%rip),%xmm0 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,89,249 // mulps %xmm1,%xmm7
@@ -38457,13 +39705,13 @@ _sk_gamma_sse2:
.byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,236,59,1,0 // mulps 0x13bec(%rip),%xmm0 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
+ .byte 15,89,5,115,63,1,0 // mulps 0x13f73(%rip),%xmm0 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,86,198 // orps %xmm6,%xmm8
- .byte 15,88,5,253,59,1,0 // addps 0x13bfd(%rip),%xmm0 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 15,88,5,132,63,1,0 // addps 0x13f84(%rip),%xmm0 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,13,60,1,0 // addps 0x13c0d(%rip),%xmm8 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
+ .byte 68,15,88,5,148,63,1,0 // addps 0x13f94(%rip),%xmm8 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
.byte 69,15,94,232 // divps %xmm8,%xmm13
.byte 65,15,92,197 // subps %xmm13,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
@@ -38475,7 +39723,7 @@ _sk_gamma_sse2:
.byte 15,92,221 // subps %xmm5,%xmm3
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,88,5,0,60,1,0 // addps 0x13c00(%rip),%xmm0 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
+ .byte 15,88,5,135,63,1,0 // addps 0x13f87(%rip),%xmm0 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
.byte 15,89,205 // mulps %xmm5,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,92,213 // subps %xmm5,%xmm2
@@ -38509,21 +39757,21 @@ _sk_gamma_dst_sse2:
.byte 15,41,76,36,184 // movaps %xmm1,-0x48(%rsp)
.byte 15,41,68,36,168 // movaps %xmm0,-0x58(%rsp)
.byte 15,91,221 // cvtdq2ps %xmm5,%xmm3
- .byte 15,40,5,39,59,1,0 // movaps 0x13b27(%rip),%xmm0 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
+ .byte 15,40,5,174,62,1,0 // movaps 0x13eae(%rip),%xmm0 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,5,41,59,1,0 // movaps 0x13b29(%rip),%xmm8 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
+ .byte 68,15,40,5,176,62,1,0 // movaps 0x13eb0(%rip),%xmm8 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0xf70>
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,75,56,1,0 // orps 0x1384b(%rip),%xmm0 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
- .byte 15,88,29,36,59,1,0 // addps 0x13b24(%rip),%xmm3 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 68,15,40,29,44,59,1,0 // movaps 0x13b2c(%rip),%xmm11 # 3b090 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
+ .byte 15,86,5,210,59,1,0 // orps 0x13bd2(%rip),%xmm0 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
+ .byte 15,88,29,171,62,1,0 // addps 0x13eab(%rip),%xmm3 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
+ .byte 68,15,40,29,179,62,1,0 // movaps 0x13eb3(%rip),%xmm11 # 3c630 <_sk_srcover_bgra_8888_sse2_lowp+0xf90>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 15,92,217 // subps %xmm1,%xmm3
- .byte 68,15,40,61,42,59,1,0 // movaps 0x13b2a(%rip),%xmm15 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
+ .byte 68,15,40,61,177,62,1,0 // movaps 0x13eb1(%rip),%xmm15 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
.byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,45,46,59,1,0 // movaps 0x13b2e(%rip),%xmm13 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
+ .byte 68,15,40,45,181,62,1,0 // movaps 0x13eb5(%rip),%xmm13 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0xfb0>
.byte 65,15,40,205 // movaps %xmm13,%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,92,217 // subps %xmm1,%xmm3
@@ -38535,23 +39783,23 @@ _sk_gamma_dst_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,13,2,56,1,0 // andps 0x13802(%rip),%xmm1 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,84,13,137,59,1,0 // andps 0x13b89(%rip),%xmm1 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,29,2,59,1,0 // addps 0x13b02(%rip),%xmm3 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 15,40,21,27,59,1,0 // movaps 0x13b1b(%rip),%xmm2 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
+ .byte 15,88,29,137,62,1,0 // addps 0x13e89(%rip),%xmm3 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
+ .byte 15,40,21,162,62,1,0 // movaps 0x13ea2(%rip),%xmm2 # 3c680 <_sk_srcover_bgra_8888_sse2_lowp+0xfe0>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,249,58,1,0 // movaps 0x13af9(%rip),%xmm1 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
+ .byte 15,40,13,128,62,1,0 // movaps 0x13e80(%rip),%xmm1 # 3c670 <_sk_srcover_bgra_8888_sse2_lowp+0xfd0>
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,92,216 // subps %xmm0,%xmm3
- .byte 68,15,40,53,11,59,1,0 // movaps 0x13b0b(%rip),%xmm14 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
+ .byte 68,15,40,53,146,62,1,0 // movaps 0x13e92(%rip),%xmm14 # 3c690 <_sk_srcover_bgra_8888_sse2_lowp+0xff0>
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 15,88,195 // addps %xmm3,%xmm0
- .byte 68,15,40,13,8,59,1,0 // movaps 0x13b08(%rip),%xmm9 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
+ .byte 68,15,40,13,143,62,1,0 // movaps 0x13e8f(%rip),%xmm9 # 3c6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1000>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,219 // xorps %xmm3,%xmm3
@@ -38561,9 +39809,9 @@ _sk_gamma_dst_sse2:
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,29,128,55,1,0 // movaps 0x13780(%rip),%xmm3 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,40,29,7,59,1,0 // movaps 0x13b07(%rip),%xmm3 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 15,86,251 // orps %xmm3,%xmm7
- .byte 15,88,5,86,58,1,0 // addps 0x13a56(%rip),%xmm0 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 15,88,5,221,61,1,0 // addps 0x13ddd(%rip),%xmm0 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
.byte 15,40,247 // movaps %xmm7,%xmm6
.byte 65,15,89,243 // mulps %xmm11,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
@@ -38576,12 +39824,12 @@ _sk_gamma_dst_sse2:
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 68,15,40,61,85,55,1,0 // movaps 0x13755(%rip),%xmm15 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,61,220,58,1,0 // movaps 0x13adc(%rip),%xmm15 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 65,15,84,255 // andps %xmm15,%xmm7
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,92,254 // subps %xmm6,%xmm7
- .byte 15,88,5,81,58,1,0 // addps 0x13a51(%rip),%xmm0 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
+ .byte 15,88,5,216,61,1,0 // addps 0x13dd8(%rip),%xmm0 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
.byte 15,40,242 // movaps %xmm2,%xmm6
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,89,249 // mulps %xmm1,%xmm7
@@ -38595,13 +39843,13 @@ _sk_gamma_dst_sse2:
.byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,188,57,1,0 // mulps 0x139bc(%rip),%xmm0 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
+ .byte 15,89,5,67,61,1,0 // mulps 0x13d43(%rip),%xmm0 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0xf60>
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,86,195 // orps %xmm3,%xmm8
- .byte 15,88,5,205,57,1,0 // addps 0x139cd(%rip),%xmm0 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
+ .byte 15,88,5,84,61,1,0 // addps 0x13d54(%rip),%xmm0 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0xf80>
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,221,57,1,0 // addps 0x139dd(%rip),%xmm8 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
+ .byte 68,15,88,5,100,61,1,0 // addps 0x13d64(%rip),%xmm8 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0xfa0>
.byte 69,15,94,232 // divps %xmm8,%xmm13
.byte 65,15,92,197 // subps %xmm13,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -38613,7 +39861,7 @@ _sk_gamma_dst_sse2:
.byte 15,92,230 // subps %xmm6,%xmm4
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,5,208,57,1,0 // addps 0x139d0(%rip),%xmm0 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
+ .byte 15,88,5,87,61,1,0 // addps 0x13d57(%rip),%xmm0 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0xfc0>
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,92,214 // subps %xmm6,%xmm2
@@ -38638,29 +39886,29 @@ HIDDEN _sk_lab_to_xyz_sse2
.globl _sk_lab_to_xyz_sse2
FUNCTION(_sk_lab_to_xyz_sse2)
_sk_lab_to_xyz_sse2:
- .byte 15,89,5,206,57,1,0 // mulps 0x139ce(%rip),%xmm0 # 3b110 <_sk_srcover_bgra_8888_sse2_lowp+0x1014>
- .byte 68,15,40,5,70,55,1,0 // movaps 0x13746(%rip),%xmm8 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 15,89,5,85,61,1,0 // mulps 0x13d55(%rip),%xmm0 # 3c6b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1010>
+ .byte 68,15,40,5,205,58,1,0 // movaps 0x13acd(%rip),%xmm8 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 68,15,40,13,202,57,1,0 // movaps 0x139ca(%rip),%xmm9 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x1024>
+ .byte 68,15,40,13,81,61,1,0 // movaps 0x13d51(%rip),%xmm9 # 3c6c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1020>
.byte 65,15,88,201 // addps %xmm9,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 15,88,5,199,57,1,0 // addps 0x139c7(%rip),%xmm0 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x1034>
- .byte 15,89,5,208,57,1,0 // mulps 0x139d0(%rip),%xmm0 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x1044>
- .byte 15,89,13,217,57,1,0 // mulps 0x139d9(%rip),%xmm1 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x1054>
+ .byte 15,88,5,78,61,1,0 // addps 0x13d4e(%rip),%xmm0 # 3c6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1030>
+ .byte 15,89,5,87,61,1,0 // mulps 0x13d57(%rip),%xmm0 # 3c6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1040>
+ .byte 15,89,13,96,61,1,0 // mulps 0x13d60(%rip),%xmm1 # 3c6f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1050>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,21,223,57,1,0 // mulps 0x139df(%rip),%xmm2 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x1064>
+ .byte 15,89,21,102,61,1,0 // mulps 0x13d66(%rip),%xmm2 # 3c700 <_sk_srcover_bgra_8888_sse2_lowp+0x1060>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 68,15,92,202 // subps %xmm2,%xmm9
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
.byte 68,15,89,225 // mulps %xmm1,%xmm12
- .byte 15,40,21,212,57,1,0 // movaps 0x139d4(%rip),%xmm2 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1074>
+ .byte 15,40,21,91,61,1,0 // movaps 0x13d5b(%rip),%xmm2 # 3c710 <_sk_srcover_bgra_8888_sse2_lowp+0x1070>
.byte 68,15,40,194 // movaps %xmm2,%xmm8
.byte 69,15,194,196,1 // cmpltps %xmm12,%xmm8
- .byte 68,15,40,21,211,57,1,0 // movaps 0x139d3(%rip),%xmm10 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1084>
+ .byte 68,15,40,21,90,61,1,0 // movaps 0x13d5a(%rip),%xmm10 # 3c720 <_sk_srcover_bgra_8888_sse2_lowp+0x1080>
.byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 68,15,40,29,215,57,1,0 // movaps 0x139d7(%rip),%xmm11 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1094>
+ .byte 68,15,40,29,94,61,1,0 // movaps 0x13d5e(%rip),%xmm11 # 3c730 <_sk_srcover_bgra_8888_sse2_lowp+0x1090>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 69,15,84,224 // andps %xmm8,%xmm12
.byte 68,15,85,193 // andnps %xmm1,%xmm8
@@ -38684,8 +39932,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,84,194 // andps %xmm2,%xmm0
.byte 65,15,85,209 // andnps %xmm9,%xmm2
.byte 15,86,208 // orps %xmm0,%xmm2
- .byte 68,15,89,5,135,57,1,0 // mulps 0x13987(%rip),%xmm8 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x10a4>
- .byte 15,89,21,144,57,1,0 // mulps 0x13990(%rip),%xmm2 # 3b1b0 <_sk_srcover_bgra_8888_sse2_lowp+0x10b4>
+ .byte 68,15,89,5,14,61,1,0 // mulps 0x13d0e(%rip),%xmm8 # 3c740 <_sk_srcover_bgra_8888_sse2_lowp+0x10a0>
+ .byte 15,89,21,23,61,1,0 // mulps 0x13d17(%rip),%xmm2 # 3c750 <_sk_srcover_bgra_8888_sse2_lowp+0x10b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -38699,13 +39947,13 @@ _sk_load_a8_sse2:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 27868 <_sk_load_a8_sse2+0x40>
+ .byte 117,46 // jne 28a81 <_sk_load_a8_sse2+0x40>
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,16,54,1,0 // pand 0x13610(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,219,5,151,57,1,0 // pand 0x13997(%rip),%xmm0 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,102,55,1,0 // mulps 0x13766(%rip),%xmm3 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 15,89,29,237,58,1,0 // mulps 0x13aed(%rip),%xmm3 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
@@ -38714,12 +39962,12 @@ _sk_load_a8_sse2:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,50 // je 278a2 <_sk_load_a8_sse2+0x7a>
+ .byte 116,50 // je 28abb <_sk_load_a8_sse2+0x7a>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 2788b <_sk_load_a8_sse2+0x63>
+ .byte 116,19 // je 28aa4 <_sk_load_a8_sse2+0x63>
.byte 60,3 // cmp $0x3,%al
- .byte 117,204 // jne 27848 <_sk_load_a8_sse2+0x20>
+ .byte 117,204 // jne 28a61 <_sk_load_a8_sse2+0x20>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -38728,10 +39976,10 @@ _sk_load_a8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,166 // jmp 27848 <_sk_load_a8_sse2+0x20>
+ .byte 235,166 // jmp 28a61 <_sk_load_a8_sse2+0x20>
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,155 // jmp 27848 <_sk_load_a8_sse2+0x20>
+ .byte 235,155 // jmp 28a61 <_sk_load_a8_sse2+0x20>
HIDDEN _sk_load_a8_dst_sse2
.globl _sk_load_a8_dst_sse2
@@ -38742,13 +39990,13 @@ _sk_load_a8_dst_sse2:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 278ed <_sk_load_a8_dst_sse2+0x40>
+ .byte 117,46 // jne 28b06 <_sk_load_a8_dst_sse2+0x40>
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,139,53,1,0 // pand 0x1358b(%rip),%xmm4 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,219,37,18,57,1,0 // pand 0x13912(%rip),%xmm4 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,225,54,1,0 // mulps 0x136e1(%rip),%xmm7 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 15,89,61,104,58,1,0 // mulps 0x13a68(%rip),%xmm7 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,87,237 // xorpd %xmm5,%xmm5
@@ -38757,12 +40005,12 @@ _sk_load_a8_dst_sse2:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,50 // je 27927 <_sk_load_a8_dst_sse2+0x7a>
+ .byte 116,50 // je 28b40 <_sk_load_a8_dst_sse2+0x7a>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 27910 <_sk_load_a8_dst_sse2+0x63>
+ .byte 116,19 // je 28b29 <_sk_load_a8_dst_sse2+0x63>
.byte 60,3 // cmp $0x3,%al
- .byte 117,204 // jne 278cd <_sk_load_a8_dst_sse2+0x20>
+ .byte 117,204 // jne 28ae6 <_sk_load_a8_dst_sse2+0x20>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -38771,10 +40019,10 @@ _sk_load_a8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,166 // jmp 278cd <_sk_load_a8_dst_sse2+0x20>
+ .byte 235,166 // jmp 28ae6 <_sk_load_a8_dst_sse2+0x20>
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,155 // jmp 278cd <_sk_load_a8_dst_sse2+0x20>
+ .byte 235,155 // jmp 28ae6 <_sk_load_a8_dst_sse2+0x20>
HIDDEN _sk_gather_a8_sse2
.globl _sk_gather_a8_sse2
@@ -38827,7 +40075,7 @@ _sk_gather_a8_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,196,53,1,0 // mulps 0x135c4(%rip),%xmm3 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 15,89,29,75,57,1,0 // mulps 0x1394b(%rip),%xmm3 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -38844,15 +40092,15 @@ _sk_store_a8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,195 // maxps %xmm3,%xmm8
- .byte 68,15,93,5,137,51,1,0 // minps 0x13389(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,89,5,97,52,1,0 // mulps 0x13461(%rip),%xmm8 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 68,15,93,5,16,55,1,0 // minps 0x13710(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
+ .byte 68,15,89,5,232,55,1,0 // mulps 0x137e8(%rip),%xmm8 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 27a5c <_sk_store_a8_sse2+0x52>
+ .byte 117,13 // jne 28c75 <_sk_store_a8_sse2+0x52>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 65,137,4,16 // mov %eax,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -38862,22 +40110,22 @@ _sk_store_a8_sse2:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,50 // je 27aa0 <_sk_store_a8_sse2+0x96>
+ .byte 116,50 // je 28cb9 <_sk_store_a8_sse2+0x96>
.byte 60,2 // cmp $0x2,%al
- .byte 116,15 // je 27a81 <_sk_store_a8_sse2+0x77>
+ .byte 116,15 // je 28c9a <_sk_store_a8_sse2+0x77>
.byte 60,3 // cmp $0x3,%al
- .byte 117,226 // jne 27a58 <_sk_store_a8_sse2+0x4e>
+ .byte 117,226 // jne 28c71 <_sk_store_a8_sse2+0x4e>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 65,136,68,16,2 // mov %al,0x2(%r8,%rdx,1)
- .byte 102,68,15,219,5,214,51,1,0 // pand 0x133d6(%rip),%xmm8 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,68,15,219,5,93,55,1,0 // pand 0x1375d(%rip),%xmm8 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,16 // mov %ax,(%r8,%rdx,1)
- .byte 235,184 // jmp 27a58 <_sk_store_a8_sse2+0x4e>
+ .byte 235,184 // jmp 28c71 <_sk_store_a8_sse2+0x4e>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 65,136,4,16 // mov %al,(%r8,%rdx,1)
- .byte 235,173 // jmp 27a58 <_sk_store_a8_sse2+0x4e>
+ .byte 235,173 // jmp 28c71 <_sk_store_a8_sse2+0x4e>
HIDDEN _sk_load_g8_sse2
.globl _sk_load_g8_sse2
@@ -38888,27 +40136,27 @@ _sk_load_g8_sse2:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 27aee <_sk_load_g8_sse2+0x43>
+ .byte 117,49 // jne 28d07 <_sk_load_g8_sse2+0x43>
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,141,51,1,0 // pand 0x1338d(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,219,5,20,55,1,0 // pand 0x13714(%rip),%xmm0 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,227,52,1,0 // mulps 0x134e3(%rip),%xmm0 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 15,89,5,106,56,1,0 // mulps 0x1386a(%rip),%xmm0 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,202,50,1,0 // movaps 0x132ca(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,29,81,54,1,0 // movaps 0x13651(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,50 // je 27b28 <_sk_load_g8_sse2+0x7d>
+ .byte 116,50 // je 28d41 <_sk_load_g8_sse2+0x7d>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 27b11 <_sk_load_g8_sse2+0x66>
+ .byte 116,19 // je 28d2a <_sk_load_g8_sse2+0x66>
.byte 60,3 // cmp $0x3,%al
- .byte 117,201 // jne 27acb <_sk_load_g8_sse2+0x20>
+ .byte 117,201 // jne 28ce4 <_sk_load_g8_sse2+0x20>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -38917,10 +40165,10 @@ _sk_load_g8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,163 // jmp 27acb <_sk_load_g8_sse2+0x20>
+ .byte 235,163 // jmp 28ce4 <_sk_load_g8_sse2+0x20>
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,152 // jmp 27acb <_sk_load_g8_sse2+0x20>
+ .byte 235,152 // jmp 28ce4 <_sk_load_g8_sse2+0x20>
HIDDEN _sk_load_g8_dst_sse2
.globl _sk_load_g8_dst_sse2
@@ -38931,27 +40179,27 @@ _sk_load_g8_dst_sse2:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 27b76 <_sk_load_g8_dst_sse2+0x43>
+ .byte 117,49 // jne 28d8f <_sk_load_g8_dst_sse2+0x43>
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,5,51,1,0 // pand 0x13305(%rip),%xmm4 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,219,37,140,54,1,0 // pand 0x1368c(%rip),%xmm4 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,91,52,1,0 // mulps 0x1345b(%rip),%xmm4 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 15,89,37,226,55,1,0 // mulps 0x137e2(%rip),%xmm4 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,66,50,1,0 // movaps 0x13242(%rip),%xmm7 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,61,201,53,1,0 // movaps 0x135c9(%rip),%xmm7 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,50 // je 27bb0 <_sk_load_g8_dst_sse2+0x7d>
+ .byte 116,50 // je 28dc9 <_sk_load_g8_dst_sse2+0x7d>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 27b99 <_sk_load_g8_dst_sse2+0x66>
+ .byte 116,19 // je 28db2 <_sk_load_g8_dst_sse2+0x66>
.byte 60,3 // cmp $0x3,%al
- .byte 117,201 // jne 27b53 <_sk_load_g8_dst_sse2+0x20>
+ .byte 117,201 // jne 28d6c <_sk_load_g8_dst_sse2+0x20>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -38960,10 +40208,10 @@ _sk_load_g8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,163 // jmp 27b53 <_sk_load_g8_dst_sse2+0x20>
+ .byte 235,163 // jmp 28d6c <_sk_load_g8_dst_sse2+0x20>
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,152 // jmp 27b53 <_sk_load_g8_dst_sse2+0x20>
+ .byte 235,152 // jmp 28d6c <_sk_load_g8_dst_sse2+0x20>
HIDDEN _sk_gather_g8_sse2
.globl _sk_gather_g8_sse2
@@ -39016,9 +40264,9 @@ _sk_gather_g8_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,59,51,1,0 // mulps 0x1333b(%rip),%xmm0 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 15,89,5,194,54,1,0 // mulps 0x136c2(%rip),%xmm0 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,34,49,1,0 // movaps 0x13122(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,29,169,52,1,0 // movaps 0x134a9(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -39033,42 +40281,42 @@ _sk_load_565_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 27cfe <_sk_load_565_sse2+0x68>
+ .byte 117,83 // jne 28f17 <_sk_load_565_sse2+0x68>
.byte 243,65,15,126,20,80 // movq (%r8,%rdx,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,5,19,51,1,0 // movdqa 0x13313(%rip),%xmm0 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,5,154,54,1,0 // movdqa 0x1369a(%rip),%xmm0 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,21,51,1,0 // mulps 0x13315(%rip),%xmm0 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,15,111,13,29,51,1,0 // movdqa 0x1331d(%rip),%xmm1 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
+ .byte 15,89,5,156,54,1,0 // mulps 0x1369c(%rip),%xmm0 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 102,15,111,13,164,54,1,0 // movdqa 0x136a4(%rip),%xmm1 # 3c590 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,31,51,1,0 // mulps 0x1331f(%rip),%xmm1 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,15,219,21,39,51,1,0 // pand 0x13327(%rip),%xmm2 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
+ .byte 15,89,13,166,54,1,0 // mulps 0x136a6(%rip),%xmm1 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 102,15,219,21,174,54,1,0 // pand 0x136ae(%rip),%xmm2 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,45,51,1,0 // mulps 0x1332d(%rip),%xmm2 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
+ .byte 15,89,21,180,54,1,0 // mulps 0x136b4(%rip),%xmm2 # 3c5c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf20>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,180,48,1,0 // movaps 0x130b4(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,29,59,52,1,0 // movaps 0x1343b(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,44 // je 27d32 <_sk_load_565_sse2+0x9c>
+ .byte 116,44 // je 28f4b <_sk_load_565_sse2+0x9c>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 27d21 <_sk_load_565_sse2+0x8b>
+ .byte 116,19 // je 28f3a <_sk_load_565_sse2+0x8b>
.byte 60,3 // cmp $0x3,%al
- .byte 117,163 // jne 27cb5 <_sk_load_565_sse2+0x1f>
+ .byte 117,163 // jne 28ece <_sk_load_565_sse2+0x1f>
.byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,208 // movsd %xmm0,%xmm2
- .byte 235,131 // jmp 27cb5 <_sk_load_565_sse2+0x1f>
+ .byte 235,131 // jmp 28ece <_sk_load_565_sse2+0x1f>
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,117,255,255,255 // jmpq 27cb5 <_sk_load_565_sse2+0x1f>
+ .byte 233,117,255,255,255 // jmpq 28ece <_sk_load_565_sse2+0x1f>
HIDDEN _sk_load_565_dst_sse2
.globl _sk_load_565_dst_sse2
@@ -39080,42 +40328,42 @@ _sk_load_565_dst_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 27da8 <_sk_load_565_dst_sse2+0x68>
+ .byte 117,83 // jne 28fc1 <_sk_load_565_dst_sse2+0x68>
.byte 243,65,15,126,52,80 // movq (%r8,%rdx,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,37,105,50,1,0 // movdqa 0x13269(%rip),%xmm4 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,37,240,53,1,0 // movdqa 0x135f0(%rip),%xmm4 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,107,50,1,0 // mulps 0x1326b(%rip),%xmm4 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,15,111,45,115,50,1,0 // movdqa 0x13273(%rip),%xmm5 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
+ .byte 15,89,37,242,53,1,0 // mulps 0x135f2(%rip),%xmm4 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 102,15,111,45,250,53,1,0 // movdqa 0x135fa(%rip),%xmm5 # 3c590 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,117,50,1,0 // mulps 0x13275(%rip),%xmm5 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,15,219,53,125,50,1,0 // pand 0x1327d(%rip),%xmm6 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
+ .byte 15,89,45,252,53,1,0 // mulps 0x135fc(%rip),%xmm5 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 102,15,219,53,4,54,1,0 // pand 0x13604(%rip),%xmm6 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,131,50,1,0 // mulps 0x13283(%rip),%xmm6 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
+ .byte 15,89,53,10,54,1,0 // mulps 0x1360a(%rip),%xmm6 # 3c5c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf20>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,10,48,1,0 // movaps 0x1300a(%rip),%xmm7 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,61,145,51,1,0 // movaps 0x13391(%rip),%xmm7 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,44 // je 27ddc <_sk_load_565_dst_sse2+0x9c>
+ .byte 116,44 // je 28ff5 <_sk_load_565_dst_sse2+0x9c>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 27dcb <_sk_load_565_dst_sse2+0x8b>
+ .byte 116,19 // je 28fe4 <_sk_load_565_dst_sse2+0x8b>
.byte 60,3 // cmp $0x3,%al
- .byte 117,163 // jne 27d5f <_sk_load_565_dst_sse2+0x1f>
+ .byte 117,163 // jne 28f78 <_sk_load_565_dst_sse2+0x1f>
.byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,244 // movsd %xmm4,%xmm6
- .byte 235,131 // jmp 27d5f <_sk_load_565_dst_sse2+0x1f>
+ .byte 235,131 // jmp 28f78 <_sk_load_565_dst_sse2+0x1f>
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,117,255,255,255 // jmpq 27d5f <_sk_load_565_dst_sse2+0x1f>
+ .byte 233,117,255,255,255 // jmpq 28f78 <_sk_load_565_dst_sse2+0x1f>
HIDDEN _sk_gather_565_sse2
.globl _sk_gather_565_sse2
@@ -39164,19 +40412,19 @@ _sk_gather_565_sse2:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,208,3 // pinsrw $0x3,%eax,%xmm2
.byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2
- .byte 102,15,111,5,36,49,1,0 // movdqa 0x13124(%rip),%xmm0 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,5,171,52,1,0 // movdqa 0x134ab(%rip),%xmm0 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0xed0>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,38,49,1,0 // mulps 0x13126(%rip),%xmm0 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,15,111,13,46,49,1,0 // movdqa 0x1312e(%rip),%xmm1 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
+ .byte 15,89,5,173,52,1,0 // mulps 0x134ad(%rip),%xmm0 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0xee0>
+ .byte 102,15,111,13,181,52,1,0 // movdqa 0x134b5(%rip),%xmm1 # 3c590 <_sk_srcover_bgra_8888_sse2_lowp+0xef0>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,48,49,1,0 // mulps 0x13130(%rip),%xmm1 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,15,219,21,56,49,1,0 // pand 0x13138(%rip),%xmm2 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
+ .byte 15,89,13,183,52,1,0 // mulps 0x134b7(%rip),%xmm1 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf00>
+ .byte 102,15,219,21,191,52,1,0 // pand 0x134bf(%rip),%xmm2 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf10>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,62,49,1,0 // mulps 0x1313e(%rip),%xmm2 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
+ .byte 15,89,21,197,52,1,0 // mulps 0x134c5(%rip),%xmm2 # 3c5c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf20>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,197,46,1,0 // movaps 0x12ec5(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,29,76,50,1,0 // movaps 0x1324c(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse2
@@ -39191,16 +40439,16 @@ _sk_store_565_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,159,46,1,0 // movaps 0x12e9f(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,21,38,50,1,0 // movaps 0x13226(%rip),%xmm10 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,179,50,1,0 // movaps 0x132b3(%rip),%xmm11 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x10d4>
+ .byte 68,15,40,29,58,54,1,0 // movaps 0x1363a(%rip),%xmm11 # 3c770 <_sk_srcover_bgra_8888_sse2_lowp+0x10d0>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 68,15,95,225 // maxps %xmm1,%xmm12
.byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 68,15,89,37,160,50,1,0 // mulps 0x132a0(%rip),%xmm12 # 3b1e0 <_sk_srcover_bgra_8888_sse2_lowp+0x10e4>
+ .byte 68,15,89,37,39,54,1,0 // mulps 0x13627(%rip),%xmm12 # 3c780 <_sk_srcover_bgra_8888_sse2_lowp+0x10e0>
.byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
.byte 102,65,15,114,244,5 // pslld $0x5,%xmm12
.byte 68,15,95,194 // maxps %xmm2,%xmm8
@@ -39213,7 +40461,7 @@ _sk_store_565_sse2:
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 27f86 <_sk_store_565_sse2+0x99>
+ .byte 117,10 // jne 2919f <_sk_store_565_sse2+0x99>
.byte 102,69,15,214,4,80 // movq %xmm8,(%r8,%rdx,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -39221,19 +40469,19 @@ _sk_store_565_sse2:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,34 // je 27fb5 <_sk_store_565_sse2+0xc8>
+ .byte 116,34 // je 291ce <_sk_store_565_sse2+0xc8>
.byte 60,2 // cmp $0x2,%al
- .byte 116,16 // je 27fa7 <_sk_store_565_sse2+0xba>
+ .byte 116,16 // je 291c0 <_sk_store_565_sse2+0xba>
.byte 60,3 // cmp $0x3,%al
- .byte 117,231 // jne 27f82 <_sk_store_565_sse2+0x95>
+ .byte 117,231 // jne 2919b <_sk_store_565_sse2+0x95>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,205 // jmp 27f82 <_sk_store_565_sse2+0x95>
+ .byte 235,205 // jmp 2919b <_sk_store_565_sse2+0x95>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,193 // jmp 27f82 <_sk_store_565_sse2+0x95>
+ .byte 235,193 // jmp 2919b <_sk_store_565_sse2+0x95>
HIDDEN _sk_load_4444_sse2
.globl _sk_load_4444_sse2
@@ -39245,45 +40493,45 @@ _sk_load_4444_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 28038 <_sk_load_4444_sse2+0x77>
+ .byte 117,98 // jne 29251 <_sk_load_4444_sse2+0x77>
.byte 243,65,15,126,28,80 // movq (%r8,%rdx,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,5,8,50,1,0 // movdqa 0x13208(%rip),%xmm0 # 3b1f0 <_sk_srcover_bgra_8888_sse2_lowp+0x10f4>
+ .byte 102,15,111,5,143,53,1,0 // movdqa 0x1358f(%rip),%xmm0 # 3c790 <_sk_srcover_bgra_8888_sse2_lowp+0x10f0>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,10,50,1,0 // mulps 0x1320a(%rip),%xmm0 # 3b200 <_sk_srcover_bgra_8888_sse2_lowp+0x1104>
- .byte 102,15,111,13,18,50,1,0 // movdqa 0x13212(%rip),%xmm1 # 3b210 <_sk_srcover_bgra_8888_sse2_lowp+0x1114>
+ .byte 15,89,5,145,53,1,0 // mulps 0x13591(%rip),%xmm0 # 3c7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1100>
+ .byte 102,15,111,13,153,53,1,0 // movdqa 0x13599(%rip),%xmm1 # 3c7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1110>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,20,50,1,0 // mulps 0x13214(%rip),%xmm1 # 3b220 <_sk_srcover_bgra_8888_sse2_lowp+0x1124>
- .byte 102,15,111,21,28,50,1,0 // movdqa 0x1321c(%rip),%xmm2 # 3b230 <_sk_srcover_bgra_8888_sse2_lowp+0x1134>
+ .byte 15,89,13,155,53,1,0 // mulps 0x1359b(%rip),%xmm1 # 3c7c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1120>
+ .byte 102,15,111,21,163,53,1,0 // movdqa 0x135a3(%rip),%xmm2 # 3c7d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1130>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,30,50,1,0 // mulps 0x1321e(%rip),%xmm2 # 3b240 <_sk_srcover_bgra_8888_sse2_lowp+0x1144>
- .byte 102,15,219,29,38,50,1,0 // pand 0x13226(%rip),%xmm3 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x1154>
+ .byte 15,89,21,165,53,1,0 // mulps 0x135a5(%rip),%xmm2 # 3c7e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1140>
+ .byte 102,15,219,29,173,53,1,0 // pand 0x135ad(%rip),%xmm3 # 3c7f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1150>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,44,50,1,0 // mulps 0x1322c(%rip),%xmm3 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x1164>
+ .byte 15,89,29,179,53,1,0 // mulps 0x135b3(%rip),%xmm3 # 3c800 <_sk_srcover_bgra_8888_sse2_lowp+0x1160>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,47 // je 2806f <_sk_load_4444_sse2+0xae>
+ .byte 116,47 // je 29288 <_sk_load_4444_sse2+0xae>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 2805b <_sk_load_4444_sse2+0x9a>
+ .byte 116,19 // je 29274 <_sk_load_4444_sse2+0x9a>
.byte 60,3 // cmp $0x3,%al
- .byte 117,148 // jne 27fe0 <_sk_load_4444_sse2+0x1f>
+ .byte 117,148 // jne 291f9 <_sk_load_4444_sse2+0x1f>
.byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,113,255,255,255 // jmpq 27fe0 <_sk_load_4444_sse2+0x1f>
+ .byte 233,113,255,255,255 // jmpq 291f9 <_sk_load_4444_sse2+0x1f>
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,99,255,255,255 // jmpq 27fe0 <_sk_load_4444_sse2+0x1f>
+ .byte 233,99,255,255,255 // jmpq 291f9 <_sk_load_4444_sse2+0x1f>
HIDDEN _sk_load_4444_dst_sse2
.globl _sk_load_4444_dst_sse2
@@ -39295,45 +40543,45 @@ _sk_load_4444_dst_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 280f4 <_sk_load_4444_dst_sse2+0x77>
+ .byte 117,98 // jne 2930d <_sk_load_4444_dst_sse2+0x77>
.byte 243,65,15,126,60,80 // movq (%r8,%rdx,2),%xmm7
.byte 102,15,97,248 // punpcklwd %xmm0,%xmm7
- .byte 102,15,111,37,76,49,1,0 // movdqa 0x1314c(%rip),%xmm4 # 3b1f0 <_sk_srcover_bgra_8888_sse2_lowp+0x10f4>
+ .byte 102,15,111,37,211,52,1,0 // movdqa 0x134d3(%rip),%xmm4 # 3c790 <_sk_srcover_bgra_8888_sse2_lowp+0x10f0>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,78,49,1,0 // mulps 0x1314e(%rip),%xmm4 # 3b200 <_sk_srcover_bgra_8888_sse2_lowp+0x1104>
- .byte 102,15,111,45,86,49,1,0 // movdqa 0x13156(%rip),%xmm5 # 3b210 <_sk_srcover_bgra_8888_sse2_lowp+0x1114>
+ .byte 15,89,37,213,52,1,0 // mulps 0x134d5(%rip),%xmm4 # 3c7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1100>
+ .byte 102,15,111,45,221,52,1,0 // movdqa 0x134dd(%rip),%xmm5 # 3c7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1110>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,88,49,1,0 // mulps 0x13158(%rip),%xmm5 # 3b220 <_sk_srcover_bgra_8888_sse2_lowp+0x1124>
- .byte 102,15,111,53,96,49,1,0 // movdqa 0x13160(%rip),%xmm6 # 3b230 <_sk_srcover_bgra_8888_sse2_lowp+0x1134>
+ .byte 15,89,45,223,52,1,0 // mulps 0x134df(%rip),%xmm5 # 3c7c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1120>
+ .byte 102,15,111,53,231,52,1,0 // movdqa 0x134e7(%rip),%xmm6 # 3c7d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1130>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,98,49,1,0 // mulps 0x13162(%rip),%xmm6 # 3b240 <_sk_srcover_bgra_8888_sse2_lowp+0x1144>
- .byte 102,15,219,61,106,49,1,0 // pand 0x1316a(%rip),%xmm7 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x1154>
+ .byte 15,89,53,233,52,1,0 // mulps 0x134e9(%rip),%xmm6 # 3c7e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1140>
+ .byte 102,15,219,61,241,52,1,0 // pand 0x134f1(%rip),%xmm7 # 3c7f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1150>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,112,49,1,0 // mulps 0x13170(%rip),%xmm7 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x1164>
+ .byte 15,89,61,247,52,1,0 // mulps 0x134f7(%rip),%xmm7 # 3c800 <_sk_srcover_bgra_8888_sse2_lowp+0x1160>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,47 // je 2812b <_sk_load_4444_dst_sse2+0xae>
+ .byte 116,47 // je 29344 <_sk_load_4444_dst_sse2+0xae>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 28117 <_sk_load_4444_dst_sse2+0x9a>
+ .byte 116,19 // je 29330 <_sk_load_4444_dst_sse2+0x9a>
.byte 60,3 // cmp $0x3,%al
- .byte 117,148 // jne 2809c <_sk_load_4444_dst_sse2+0x1f>
+ .byte 117,148 // jne 292b5 <_sk_load_4444_dst_sse2+0x1f>
.byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 233,113,255,255,255 // jmpq 2809c <_sk_load_4444_dst_sse2+0x1f>
+ .byte 233,113,255,255,255 // jmpq 292b5 <_sk_load_4444_dst_sse2+0x1f>
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,99,255,255,255 // jmpq 2809c <_sk_load_4444_dst_sse2+0x1f>
+ .byte 233,99,255,255,255 // jmpq 292b5 <_sk_load_4444_dst_sse2+0x1f>
HIDDEN _sk_gather_4444_sse2
.globl _sk_gather_4444_sse2
@@ -39382,21 +40630,21 @@ _sk_gather_4444_sse2:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,216,3 // pinsrw $0x3,%eax,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
- .byte 102,15,111,5,245,47,1,0 // movdqa 0x12ff5(%rip),%xmm0 # 3b1f0 <_sk_srcover_bgra_8888_sse2_lowp+0x10f4>
+ .byte 102,15,111,5,124,51,1,0 // movdqa 0x1337c(%rip),%xmm0 # 3c790 <_sk_srcover_bgra_8888_sse2_lowp+0x10f0>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,247,47,1,0 // mulps 0x12ff7(%rip),%xmm0 # 3b200 <_sk_srcover_bgra_8888_sse2_lowp+0x1104>
- .byte 102,15,111,13,255,47,1,0 // movdqa 0x12fff(%rip),%xmm1 # 3b210 <_sk_srcover_bgra_8888_sse2_lowp+0x1114>
+ .byte 15,89,5,126,51,1,0 // mulps 0x1337e(%rip),%xmm0 # 3c7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1100>
+ .byte 102,15,111,13,134,51,1,0 // movdqa 0x13386(%rip),%xmm1 # 3c7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1110>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,1,48,1,0 // mulps 0x13001(%rip),%xmm1 # 3b220 <_sk_srcover_bgra_8888_sse2_lowp+0x1124>
- .byte 102,15,111,21,9,48,1,0 // movdqa 0x13009(%rip),%xmm2 # 3b230 <_sk_srcover_bgra_8888_sse2_lowp+0x1134>
+ .byte 15,89,13,136,51,1,0 // mulps 0x13388(%rip),%xmm1 # 3c7c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1120>
+ .byte 102,15,111,21,144,51,1,0 // movdqa 0x13390(%rip),%xmm2 # 3c7d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1130>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,11,48,1,0 // mulps 0x1300b(%rip),%xmm2 # 3b240 <_sk_srcover_bgra_8888_sse2_lowp+0x1144>
- .byte 102,15,219,29,19,48,1,0 // pand 0x13013(%rip),%xmm3 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x1154>
+ .byte 15,89,21,146,51,1,0 // mulps 0x13392(%rip),%xmm2 # 3c7e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1140>
+ .byte 102,15,219,29,154,51,1,0 // pand 0x1339a(%rip),%xmm3 # 3c7f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1150>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,25,48,1,0 // mulps 0x13019(%rip),%xmm3 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x1164>
+ .byte 15,89,29,160,51,1,0 // mulps 0x133a0(%rip),%xmm3 # 3c800 <_sk_srcover_bgra_8888_sse2_lowp+0x1160>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -39412,9 +40660,9 @@ _sk_store_4444_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,65,43,1,0 // movaps 0x12b41(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,21,200,46,1,0 // movaps 0x12ec8(%rip),%xmm10 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,245,47,1,0 // movaps 0x12ff5(%rip),%xmm11 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1174>
+ .byte 68,15,40,29,124,51,1,0 // movaps 0x1337c(%rip),%xmm11 # 3c810 <_sk_srcover_bgra_8888_sse2_lowp+0x1170>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,12 // pslld $0xc,%xmm9
@@ -39441,7 +40689,7 @@ _sk_store_4444_sse2:
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 28301 <_sk_store_4444_sse2+0xb6>
+ .byte 117,10 // jne 2951a <_sk_store_4444_sse2+0xb6>
.byte 102,69,15,214,4,80 // movq %xmm8,(%r8,%rdx,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -39449,19 +40697,19 @@ _sk_store_4444_sse2:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,34 // je 28330 <_sk_store_4444_sse2+0xe5>
+ .byte 116,34 // je 29549 <_sk_store_4444_sse2+0xe5>
.byte 60,2 // cmp $0x2,%al
- .byte 116,16 // je 28322 <_sk_store_4444_sse2+0xd7>
+ .byte 116,16 // je 2953b <_sk_store_4444_sse2+0xd7>
.byte 60,3 // cmp $0x3,%al
- .byte 117,231 // jne 282fd <_sk_store_4444_sse2+0xb2>
+ .byte 117,231 // jne 29516 <_sk_store_4444_sse2+0xb2>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,205 // jmp 282fd <_sk_store_4444_sse2+0xb2>
+ .byte 235,205 // jmp 29516 <_sk_store_4444_sse2+0xb2>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,193 // jmp 282fd <_sk_store_4444_sse2+0xb2>
+ .byte 235,193 // jmp 29516 <_sk_store_4444_sse2+0xb2>
HIDDEN _sk_load_8888_sse2
.globl _sk_load_8888_sse2
@@ -39473,13 +40721,13 @@ _sk_load_8888_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 283b4 <_sk_load_8888_sse2+0x78>
+ .byte 117,98 // jne 295cd <_sk_load_8888_sse2+0x78>
.byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
- .byte 102,15,111,21,0,43,1,0 // movdqa 0x12b00(%rip),%xmm2 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,111,21,135,46,1,0 // movdqa 0x12e87(%rip),%xmm2 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,76,44,1,0 // movaps 0x12c4c(%rip),%xmm8 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,40,5,211,47,1,0 // movaps 0x12fd3(%rip),%xmm8 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39499,18 +40747,18 @@ _sk_load_8888_sse2:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,37 // je 283e1 <_sk_load_8888_sse2+0xa5>
+ .byte 116,37 // je 295fa <_sk_load_8888_sse2+0xa5>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 60,2 // cmp $0x2,%al
- .byte 116,17 // je 283d6 <_sk_load_8888_sse2+0x9a>
+ .byte 116,17 // je 295ef <_sk_load_8888_sse2+0x9a>
.byte 60,3 // cmp $0x3,%al
- .byte 117,143 // jne 28358 <_sk_load_8888_sse2+0x1c>
+ .byte 117,143 // jne 29571 <_sk_load_8888_sse2+0x1c>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,119,255,255,255 // jmpq 28358 <_sk_load_8888_sse2+0x1c>
+ .byte 233,119,255,255,255 // jmpq 29571 <_sk_load_8888_sse2+0x1c>
.byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,108,255,255,255 // jmpq 28358 <_sk_load_8888_sse2+0x1c>
+ .byte 233,108,255,255,255 // jmpq 29571 <_sk_load_8888_sse2+0x1c>
HIDDEN _sk_load_8888_dst_sse2
.globl _sk_load_8888_dst_sse2
@@ -39522,13 +40770,13 @@ _sk_load_8888_dst_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 28464 <_sk_load_8888_dst_sse2+0x78>
+ .byte 117,98 // jne 2967d <_sk_load_8888_dst_sse2+0x78>
.byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
- .byte 102,15,111,53,80,42,1,0 // movdqa 0x12a50(%rip),%xmm6 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,111,53,215,45,1,0 // movdqa 0x12dd7(%rip),%xmm6 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 102,65,15,111,225 // movdqa %xmm9,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,156,43,1,0 // movaps 0x12b9c(%rip),%xmm8 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,40,5,35,47,1,0 // movaps 0x12f23(%rip),%xmm8 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -39548,18 +40796,18 @@ _sk_load_8888_dst_sse2:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,37 // je 28491 <_sk_load_8888_dst_sse2+0xa5>
+ .byte 116,37 // je 296aa <_sk_load_8888_dst_sse2+0xa5>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 60,2 // cmp $0x2,%al
- .byte 116,17 // je 28486 <_sk_load_8888_dst_sse2+0x9a>
+ .byte 116,17 // je 2969f <_sk_load_8888_dst_sse2+0x9a>
.byte 60,3 // cmp $0x3,%al
- .byte 117,143 // jne 28408 <_sk_load_8888_dst_sse2+0x1c>
+ .byte 117,143 // jne 29621 <_sk_load_8888_dst_sse2+0x1c>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,119,255,255,255 // jmpq 28408 <_sk_load_8888_dst_sse2+0x1c>
+ .byte 233,119,255,255,255 // jmpq 29621 <_sk_load_8888_dst_sse2+0x1c>
.byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,108,255,255,255 // jmpq 28408 <_sk_load_8888_dst_sse2+0x1c>
+ .byte 233,108,255,255,255 // jmpq 29621 <_sk_load_8888_dst_sse2+0x1c>
HIDDEN _sk_gather_8888_sse2
.globl _sk_gather_8888_sse2
@@ -39605,11 +40853,11 @@ _sk_gather_8888_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,21,12,41,1,0 // movdqa 0x1290c(%rip),%xmm2 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,111,21,147,44,1,0 // movdqa 0x12c93(%rip),%xmm2 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,88,42,1,0 // movaps 0x12a58(%rip),%xmm8 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,40,5,223,45,1,0 // movaps 0x12ddf(%rip),%xmm8 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39639,9 +40887,9 @@ _sk_store_8888_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,227,39,1,0 // movaps 0x127e3(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,21,106,43,1,0 // movaps 0x12b6a(%rip),%xmm10 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,183,40,1,0 // movaps 0x128b7(%rip),%xmm11 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,29,62,44,1,0 // movaps 0x12c3e(%rip),%xmm11 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 69,15,87,228 // xorps %xmm12,%xmm12
@@ -39665,24 +40913,24 @@ _sk_store_8888_sse2:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,196 // por %xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 2864e <_sk_store_8888_sse2+0xa6>
+ .byte 117,10 // jne 29867 <_sk_store_8888_sse2+0xa6>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,29 // je 28673 <_sk_store_8888_sse2+0xcb>
+ .byte 116,29 // je 2988c <_sk_store_8888_sse2+0xcb>
.byte 60,2 // cmp $0x2,%al
- .byte 116,17 // je 2866b <_sk_store_8888_sse2+0xc3>
+ .byte 116,17 // je 29884 <_sk_store_8888_sse2+0xc3>
.byte 60,3 // cmp $0x3,%al
- .byte 117,236 // jne 2864a <_sk_store_8888_sse2+0xa2>
+ .byte 117,236 // jne 29863 <_sk_store_8888_sse2+0xa2>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,144,8 // movd %xmm9,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp 2864a <_sk_store_8888_sse2+0xa2>
+ .byte 235,215 // jmp 29863 <_sk_store_8888_sse2+0xa2>
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,207 // jmp 2864a <_sk_store_8888_sse2+0xa2>
+ .byte 235,207 // jmp 29863 <_sk_store_8888_sse2+0xa2>
HIDDEN _sk_load_bgra_sse2
.globl _sk_load_bgra_sse2
@@ -39694,13 +40942,13 @@ _sk_load_bgra_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 286f3 <_sk_load_bgra_sse2+0x78>
+ .byte 117,98 // jne 2990c <_sk_load_bgra_sse2+0x78>
.byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
- .byte 102,15,111,5,193,39,1,0 // movdqa 0x127c1(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,111,5,72,43,1,0 // movdqa 0x12b48(%rip),%xmm0 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,13,41,1,0 // movaps 0x1290d(%rip),%xmm8 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,40,5,148,44,1,0 // movaps 0x12c94(%rip),%xmm8 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39720,18 +40968,18 @@ _sk_load_bgra_sse2:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,37 // je 28720 <_sk_load_bgra_sse2+0xa5>
+ .byte 116,37 // je 29939 <_sk_load_bgra_sse2+0xa5>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 60,2 // cmp $0x2,%al
- .byte 116,17 // je 28715 <_sk_load_bgra_sse2+0x9a>
+ .byte 116,17 // je 2992e <_sk_load_bgra_sse2+0x9a>
.byte 60,3 // cmp $0x3,%al
- .byte 117,143 // jne 28697 <_sk_load_bgra_sse2+0x1c>
+ .byte 117,143 // jne 298b0 <_sk_load_bgra_sse2+0x1c>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,119,255,255,255 // jmpq 28697 <_sk_load_bgra_sse2+0x1c>
+ .byte 233,119,255,255,255 // jmpq 298b0 <_sk_load_bgra_sse2+0x1c>
.byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,108,255,255,255 // jmpq 28697 <_sk_load_bgra_sse2+0x1c>
+ .byte 233,108,255,255,255 // jmpq 298b0 <_sk_load_bgra_sse2+0x1c>
HIDDEN _sk_load_bgra_dst_sse2
.globl _sk_load_bgra_dst_sse2
@@ -39743,13 +40991,13 @@ _sk_load_bgra_dst_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 287a3 <_sk_load_bgra_dst_sse2+0x78>
+ .byte 117,98 // jne 299bc <_sk_load_bgra_dst_sse2+0x78>
.byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
- .byte 102,15,111,37,17,39,1,0 // movdqa 0x12711(%rip),%xmm4 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,111,37,152,42,1,0 // movdqa 0x12a98(%rip),%xmm4 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 68,15,40,5,93,40,1,0 // movaps 0x1285d(%rip),%xmm8 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,40,5,228,43,1,0 // movaps 0x12be4(%rip),%xmm8 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -39769,18 +41017,18 @@ _sk_load_bgra_dst_sse2:
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,37 // je 287d0 <_sk_load_bgra_dst_sse2+0xa5>
+ .byte 116,37 // je 299e9 <_sk_load_bgra_dst_sse2+0xa5>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 60,2 // cmp $0x2,%al
- .byte 116,17 // je 287c5 <_sk_load_bgra_dst_sse2+0x9a>
+ .byte 116,17 // je 299de <_sk_load_bgra_dst_sse2+0x9a>
.byte 60,3 // cmp $0x3,%al
- .byte 117,143 // jne 28747 <_sk_load_bgra_dst_sse2+0x1c>
+ .byte 117,143 // jne 29960 <_sk_load_bgra_dst_sse2+0x1c>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,119,255,255,255 // jmpq 28747 <_sk_load_bgra_dst_sse2+0x1c>
+ .byte 233,119,255,255,255 // jmpq 29960 <_sk_load_bgra_dst_sse2+0x1c>
.byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,108,255,255,255 // jmpq 28747 <_sk_load_bgra_dst_sse2+0x1c>
+ .byte 233,108,255,255,255 // jmpq 29960 <_sk_load_bgra_dst_sse2+0x1c>
HIDDEN _sk_gather_bgra_sse2
.globl _sk_gather_bgra_sse2
@@ -39826,11 +41074,11 @@ _sk_gather_bgra_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,5,205,37,1,0 // movdqa 0x125cd(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
+ .byte 102,15,111,5,84,41,1,0 // movdqa 0x12954(%rip),%xmm0 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,25,39,1,0 // movaps 0x12719(%rip),%xmm8 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 68,15,40,5,160,42,1,0 // movaps 0x12aa0(%rip),%xmm8 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39860,9 +41108,9 @@ _sk_store_bgra_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 68,15,40,21,164,36,1,0 // movaps 0x124a4(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,21,43,40,1,0 // movaps 0x1282b(%rip),%xmm10 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,120,37,1,0 // movaps 0x12578(%rip),%xmm11 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,29,255,40,1,0 // movaps 0x128ff(%rip),%xmm11 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 69,15,87,228 // xorps %xmm12,%xmm12
@@ -39886,24 +41134,245 @@ _sk_store_bgra_sse2:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,196 // por %xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 2898d <_sk_store_bgra_sse2+0xa6>
+ .byte 117,10 // jne 29ba6 <_sk_store_bgra_sse2+0xa6>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 137,248 // mov %edi,%eax
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,29 // je 289b2 <_sk_store_bgra_sse2+0xcb>
+ .byte 116,29 // je 29bcb <_sk_store_bgra_sse2+0xcb>
.byte 60,2 // cmp $0x2,%al
- .byte 116,17 // je 289aa <_sk_store_bgra_sse2+0xc3>
+ .byte 116,17 // je 29bc3 <_sk_store_bgra_sse2+0xc3>
.byte 60,3 // cmp $0x3,%al
- .byte 117,236 // jne 28989 <_sk_store_bgra_sse2+0xa2>
+ .byte 117,236 // jne 29ba2 <_sk_store_bgra_sse2+0xa2>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,144,8 // movd %xmm9,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp 28989 <_sk_store_bgra_sse2+0xa2>
+ .byte 235,215 // jmp 29ba2 <_sk_store_bgra_sse2+0xa2>
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,207 // jmp 28989 <_sk_store_bgra_sse2+0xa2>
+ .byte 235,207 // jmp 29ba2 <_sk_store_bgra_sse2+0xa2>
+
+HIDDEN _sk_load_1010102_sse2
+.globl _sk_load_1010102_sse2
+FUNCTION(_sk_load_1010102_sse2)
+_sk_load_1010102_sse2:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,64,8 // movslq 0x8(%rax),%r8
+ .byte 76,15,175,193 // imul %rcx,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,101 // jne 29c4e <_sk_load_1010102_sse2+0x7b>
+ .byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
+ .byte 102,15,111,21,41,44,1,0 // movdqa 0x12c29(%rip),%xmm2 # 3c820 <_sk_srcover_bgra_8888_sse2_lowp+0x1180>
+ .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
+ .byte 102,15,219,194 // pand %xmm2,%xmm0
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 68,15,40,5,37,44,1,0 // movaps 0x12c25(%rip),%xmm8 # 3c830 <_sk_srcover_bgra_8888_sse2_lowp+0x1190>
+ .byte 65,15,89,192 // mulps %xmm8,%xmm0
+ .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
+ .byte 102,15,114,209,10 // psrld $0xa,%xmm1
+ .byte 102,15,219,202 // pand %xmm2,%xmm1
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 65,15,89,200 // mulps %xmm8,%xmm1
+ .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
+ .byte 102,15,114,211,20 // psrld $0x14,%xmm3
+ .byte 102,15,219,218 // pand %xmm2,%xmm3
+ .byte 15,91,211 // cvtdq2ps %xmm3,%xmm2
+ .byte 65,15,89,208 // mulps %xmm8,%xmm2
+ .byte 102,65,15,114,209,30 // psrld $0x1e,%xmm9
+ .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
+ .byte 15,89,29,230,40,1,0 // mulps 0x128e6(%rip),%xmm3 # 3c530 <_sk_srcover_bgra_8888_sse2_lowp+0xe90>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 137,248 // mov %edi,%eax
+ .byte 36,3 // and $0x3,%al
+ .byte 60,1 // cmp $0x1,%al
+ .byte 116,37 // je 29c7b <_sk_load_1010102_sse2+0xa8>
+ .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
+ .byte 60,2 // cmp $0x2,%al
+ .byte 116,17 // je 29c70 <_sk_load_1010102_sse2+0x9d>
+ .byte 60,3 // cmp $0x3,%al
+ .byte 117,140 // jne 29bef <_sk_load_1010102_sse2+0x1c>
+ .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
+ .byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
+ .byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
+ .byte 233,116,255,255,255 // jmpq 29bef <_sk_load_1010102_sse2+0x1c>
+ .byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
+ .byte 233,105,255,255,255 // jmpq 29bef <_sk_load_1010102_sse2+0x1c>
+
+HIDDEN _sk_load_1010102_dst_sse2
+.globl _sk_load_1010102_dst_sse2
+FUNCTION(_sk_load_1010102_dst_sse2)
+_sk_load_1010102_dst_sse2:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,64,8 // movslq 0x8(%rax),%r8
+ .byte 76,15,175,193 // imul %rcx,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,101 // jne 29d01 <_sk_load_1010102_dst_sse2+0x7b>
+ .byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
+ .byte 102,15,111,53,118,43,1,0 // movdqa 0x12b76(%rip),%xmm6 # 3c820 <_sk_srcover_bgra_8888_sse2_lowp+0x1180>
+ .byte 102,65,15,111,225 // movdqa %xmm9,%xmm4
+ .byte 102,15,219,230 // pand %xmm6,%xmm4
+ .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
+ .byte 68,15,40,5,114,43,1,0 // movaps 0x12b72(%rip),%xmm8 # 3c830 <_sk_srcover_bgra_8888_sse2_lowp+0x1190>
+ .byte 65,15,89,224 // mulps %xmm8,%xmm4
+ .byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
+ .byte 102,15,114,213,10 // psrld $0xa,%xmm5
+ .byte 102,15,219,238 // pand %xmm6,%xmm5
+ .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
+ .byte 65,15,89,232 // mulps %xmm8,%xmm5
+ .byte 102,65,15,111,249 // movdqa %xmm9,%xmm7
+ .byte 102,15,114,215,20 // psrld $0x14,%xmm7
+ .byte 102,15,219,254 // pand %xmm6,%xmm7
+ .byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
+ .byte 65,15,89,240 // mulps %xmm8,%xmm6
+ .byte 102,65,15,114,209,30 // psrld $0x1e,%xmm9
+ .byte 65,15,91,249 // cvtdq2ps %xmm9,%xmm7
+ .byte 15,89,61,51,40,1,0 // mulps 0x12833(%rip),%xmm7 # 3c530 <_sk_srcover_bgra_8888_sse2_lowp+0xe90>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 137,248 // mov %edi,%eax
+ .byte 36,3 // and $0x3,%al
+ .byte 60,1 // cmp $0x1,%al
+ .byte 116,37 // je 29d2e <_sk_load_1010102_dst_sse2+0xa8>
+ .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
+ .byte 60,2 // cmp $0x2,%al
+ .byte 116,17 // je 29d23 <_sk_load_1010102_dst_sse2+0x9d>
+ .byte 60,3 // cmp $0x3,%al
+ .byte 117,140 // jne 29ca2 <_sk_load_1010102_dst_sse2+0x1c>
+ .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
+ .byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
+ .byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
+ .byte 233,116,255,255,255 // jmpq 29ca2 <_sk_load_1010102_dst_sse2+0x1c>
+ .byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
+ .byte 233,105,255,255,255 // jmpq 29ca2 <_sk_load_1010102_dst_sse2+0x1c>
+
+HIDDEN _sk_gather_1010102_sse2
+.globl _sk_gather_1010102_sse2
+FUNCTION(_sk_gather_1010102_sse2)
+_sk_gather_1010102_sse2:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 243,15,16,80,12 // movss 0xc(%rax),%xmm2
+ .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
+ .byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
+ .byte 102,65,15,254,208 // paddd %xmm8,%xmm2
+ .byte 15,87,219 // xorps %xmm3,%xmm3
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,200 // maxps %xmm0,%xmm9
+ .byte 68,15,93,202 // minps %xmm2,%xmm9
+ .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
+ .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
+ .byte 102,65,15,254,192 // paddd %xmm8,%xmm0
+ .byte 15,95,217 // maxps %xmm1,%xmm3
+ .byte 15,93,216 // minps %xmm0,%xmm3
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
+ .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
+ .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
+ .byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
+ .byte 102,15,244,209 // pmuludq %xmm1,%xmm2
+ .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
+ .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
+ .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1
+ .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
+ .byte 243,65,15,91,201 // cvttps2dq %xmm9,%xmm1
+ .byte 102,15,254,200 // paddd %xmm0,%xmm1
+ .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
+ .byte 102,72,15,126,192 // movq %xmm0,%rax
+ .byte 65,137,193 // mov %eax,%r9d
+ .byte 72,193,232,32 // shr $0x20,%rax
+ .byte 102,73,15,126,202 // movq %xmm1,%r10
+ .byte 69,137,211 // mov %r10d,%r11d
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 102,67,15,110,4,144 // movd (%r8,%r10,4),%xmm0
+ .byte 102,71,15,110,12,152 // movd (%r8,%r11,4),%xmm9
+ .byte 102,68,15,98,200 // punpckldq %xmm0,%xmm9
+ .byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0
+ .byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
+ .byte 102,15,98,200 // punpckldq %xmm0,%xmm1
+ .byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
+ .byte 102,15,111,21,47,42,1,0 // movdqa 0x12a2f(%rip),%xmm2 # 3c820 <_sk_srcover_bgra_8888_sse2_lowp+0x1180>
+ .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
+ .byte 102,15,219,194 // pand %xmm2,%xmm0
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 68,15,40,5,43,42,1,0 // movaps 0x12a2b(%rip),%xmm8 # 3c830 <_sk_srcover_bgra_8888_sse2_lowp+0x1190>
+ .byte 65,15,89,192 // mulps %xmm8,%xmm0
+ .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
+ .byte 102,15,114,209,10 // psrld $0xa,%xmm1
+ .byte 102,15,219,202 // pand %xmm2,%xmm1
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 65,15,89,200 // mulps %xmm8,%xmm1
+ .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
+ .byte 102,15,114,211,20 // psrld $0x14,%xmm3
+ .byte 102,15,219,218 // pand %xmm2,%xmm3
+ .byte 15,91,211 // cvtdq2ps %xmm3,%xmm2
+ .byte 65,15,89,208 // mulps %xmm8,%xmm2
+ .byte 102,65,15,114,209,30 // psrld $0x1e,%xmm9
+ .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
+ .byte 15,89,29,236,38,1,0 // mulps 0x126ec(%rip),%xmm3 # 3c530 <_sk_srcover_bgra_8888_sse2_lowp+0xe90>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_store_1010102_sse2
+.globl _sk_store_1010102_sse2
+FUNCTION(_sk_store_1010102_sse2)
+_sk_store_1010102_sse2:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,64,8 // movslq 0x8(%rax),%r8
+ .byte 76,15,175,193 // imul %rcx,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,200 // maxps %xmm0,%xmm9
+ .byte 68,15,40,21,227,36,1,0 // movaps 0x124e3(%rip),%xmm10 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 68,15,40,29,199,41,1,0 // movaps 0x129c7(%rip),%xmm11 # 3c840 <_sk_srcover_bgra_8888_sse2_lowp+0x11a0>
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
+ .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
+ .byte 69,15,87,228 // xorps %xmm12,%xmm12
+ .byte 68,15,95,225 // maxps %xmm1,%xmm12
+ .byte 69,15,93,226 // minps %xmm10,%xmm12
+ .byte 69,15,89,227 // mulps %xmm11,%xmm12
+ .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
+ .byte 102,65,15,114,244,10 // pslld $0xa,%xmm12
+ .byte 102,69,15,235,225 // por %xmm9,%xmm12
+ .byte 102,69,15,87,201 // xorpd %xmm9,%xmm9
+ .byte 68,15,95,202 // maxps %xmm2,%xmm9
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
+ .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
+ .byte 102,65,15,114,241,20 // pslld $0x14,%xmm9
+ .byte 102,69,15,235,204 // por %xmm12,%xmm9
+ .byte 68,15,95,195 // maxps %xmm3,%xmm8
+ .byte 69,15,93,194 // minps %xmm10,%xmm8
+ .byte 68,15,89,5,125,41,1,0 // mulps 0x1297d(%rip),%xmm8 # 3c850 <_sk_srcover_bgra_8888_sse2_lowp+0x11b0>
+ .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
+ .byte 102,65,15,114,240,30 // pslld $0x1e,%xmm8
+ .byte 102,69,15,235,193 // por %xmm9,%xmm8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,10 // jne 29ef2 <_sk_store_1010102_sse2+0xaa>
+ .byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 137,248 // mov %edi,%eax
+ .byte 36,3 // and $0x3,%al
+ .byte 60,1 // cmp $0x1,%al
+ .byte 116,29 // je 29f17 <_sk_store_1010102_sse2+0xcf>
+ .byte 60,2 // cmp $0x2,%al
+ .byte 116,17 // je 29f0f <_sk_store_1010102_sse2+0xc7>
+ .byte 60,3 // cmp $0x3,%al
+ .byte 117,236 // jne 29eee <_sk_store_1010102_sse2+0xa6>
+ .byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
+ .byte 102,69,15,126,76,144,8 // movd %xmm9,0x8(%r8,%rdx,4)
+ .byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
+ .byte 235,215 // jmp 29eee <_sk_store_1010102_sse2+0xa6>
+ .byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
+ .byte 235,207 // jmp 29eee <_sk_store_1010102_sse2+0xa6>
HIDDEN _sk_load_f16_sse2
.globl _sk_load_f16_sse2
@@ -39915,7 +41384,7 @@ _sk_load_f16_sse2:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 28b03 <_sk_load_f16_sse2+0x149>
+ .byte 15,133,47,1,0,0 // jne 2a068 <_sk_load_f16_sse2+0x149>
.byte 102,65,15,16,4,208 // movupd (%r8,%rdx,8),%xmm0
.byte 243,65,15,111,76,208,16 // movdqu 0x10(%r8,%rdx,8),%xmm1
.byte 102,68,15,40,192 // movapd %xmm0,%xmm8
@@ -39927,18 +41396,18 @@ _sk_load_f16_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,108,40,1,0 // movdqa 0x1286c(%rip),%xmm9 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1184>
+ .byte 102,68,15,111,13,231,40,1,0 // movdqa 0x128e7(%rip),%xmm9 # 3c860 <_sk_srcover_bgra_8888_sse2_lowp+0x11c0>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,105,40,1,0 // movdqa 0x12869(%rip),%xmm11 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1194>
+ .byte 102,68,15,111,29,228,40,1,0 // movdqa 0x128e4(%rip),%xmm11 # 3c870 <_sk_srcover_bgra_8888_sse2_lowp+0x11d0>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,108,40,1,0 // movdqa 0x1286c(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x11a4>
+ .byte 102,15,111,29,231,40,1,0 // movdqa 0x128e7(%rip),%xmm3 # 3c880 <_sk_srcover_bgra_8888_sse2_lowp+0x11e0>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,91,40,1,0 // movdqa 0x1285b(%rip),%xmm12 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x11b4>
+ .byte 102,68,15,111,37,214,40,1,0 // movdqa 0x128d6(%rip),%xmm12 # 3c890 <_sk_srcover_bgra_8888_sse2_lowp+0x11f0>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,210 // punpckhwd %xmm10,%xmm2
@@ -39977,16 +41446,16 @@ _sk_load_f16_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,208 // movsd (%r8,%rdx,8),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 28b1c <_sk_load_f16_sse2+0x162>
+ .byte 117,13 // jne 2a081 <_sk_load_f16_sse2+0x162>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,197,254,255,255 // jmpq 289e1 <_sk_load_f16_sse2+0x27>
+ .byte 233,197,254,255,255 // jmpq 29f46 <_sk_load_f16_sse2+0x27>
.byte 102,65,15,22,68,208,8 // movhpd 0x8(%r8,%rdx,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 289e1 <_sk_load_f16_sse2+0x27>
+ .byte 15,130,176,254,255,255 // jb 29f46 <_sk_load_f16_sse2+0x27>
.byte 243,65,15,126,76,208,16 // movq 0x10(%r8,%rdx,8),%xmm1
- .byte 233,164,254,255,255 // jmpq 289e1 <_sk_load_f16_sse2+0x27>
+ .byte 233,164,254,255,255 // jmpq 29f46 <_sk_load_f16_sse2+0x27>
HIDDEN _sk_load_f16_dst_sse2
.globl _sk_load_f16_dst_sse2
@@ -39998,7 +41467,7 @@ _sk_load_f16_dst_sse2:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 28c86 <_sk_load_f16_dst_sse2+0x149>
+ .byte 15,133,47,1,0,0 // jne 2a1eb <_sk_load_f16_dst_sse2+0x149>
.byte 102,65,15,16,36,208 // movupd (%r8,%rdx,8),%xmm4
.byte 243,65,15,111,108,208,16 // movdqu 0x10(%r8,%rdx,8),%xmm5
.byte 102,68,15,40,196 // movapd %xmm4,%xmm8
@@ -40010,18 +41479,18 @@ _sk_load_f16_dst_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,97,234 // punpcklwd %xmm10,%xmm5
- .byte 102,68,15,111,13,233,38,1,0 // movdqa 0x126e9(%rip),%xmm9 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1184>
+ .byte 102,68,15,111,13,100,39,1,0 // movdqa 0x12764(%rip),%xmm9 # 3c860 <_sk_srcover_bgra_8888_sse2_lowp+0x11c0>
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,230,38,1,0 // movdqa 0x126e6(%rip),%xmm11 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1194>
+ .byte 102,68,15,111,29,97,39,1,0 // movdqa 0x12761(%rip),%xmm11 # 3c870 <_sk_srcover_bgra_8888_sse2_lowp+0x11d0>
.byte 102,65,15,219,235 // pand %xmm11,%xmm5
- .byte 102,15,111,61,233,38,1,0 // movdqa 0x126e9(%rip),%xmm7 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x11a4>
+ .byte 102,15,111,61,100,39,1,0 // movdqa 0x12764(%rip),%xmm7 # 3c880 <_sk_srcover_bgra_8888_sse2_lowp+0x11e0>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
.byte 102,15,102,229 // pcmpgtd %xmm5,%xmm4
.byte 102,15,114,245,13 // pslld $0xd,%xmm5
.byte 102,65,15,235,236 // por %xmm12,%xmm5
- .byte 102,68,15,111,37,216,38,1,0 // movdqa 0x126d8(%rip),%xmm12 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x11b4>
+ .byte 102,68,15,111,37,83,39,1,0 // movdqa 0x12753(%rip),%xmm12 # 3c890 <_sk_srcover_bgra_8888_sse2_lowp+0x11f0>
.byte 102,65,15,254,236 // paddd %xmm12,%xmm5
.byte 102,15,223,229 // pandn %xmm5,%xmm4
.byte 102,65,15,105,242 // punpckhwd %xmm10,%xmm6
@@ -40060,16 +41529,16 @@ _sk_load_f16_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,208 // movsd (%r8,%rdx,8),%xmm4
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 28c9f <_sk_load_f16_dst_sse2+0x162>
+ .byte 117,13 // jne 2a204 <_sk_load_f16_dst_sse2+0x162>
.byte 243,15,126,228 // movq %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,197,254,255,255 // jmpq 28b64 <_sk_load_f16_dst_sse2+0x27>
+ .byte 233,197,254,255,255 // jmpq 2a0c9 <_sk_load_f16_dst_sse2+0x27>
.byte 102,65,15,22,100,208,8 // movhpd 0x8(%r8,%rdx,8),%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 28b64 <_sk_load_f16_dst_sse2+0x27>
+ .byte 15,130,176,254,255,255 // jb 2a0c9 <_sk_load_f16_dst_sse2+0x27>
.byte 243,65,15,126,108,208,16 // movq 0x10(%r8,%rdx,8),%xmm5
- .byte 233,164,254,255,255 // jmpq 28b64 <_sk_load_f16_dst_sse2+0x27>
+ .byte 233,164,254,255,255 // jmpq 2a0c9 <_sk_load_f16_dst_sse2+0x27>
HIDDEN _sk_gather_f16_sse2
.globl _sk_gather_f16_sse2
@@ -40123,18 +41592,18 @@ _sk_gather_f16_sse2:
.byte 102,68,15,105,201 // punpckhwd %xmm1,%xmm9
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
- .byte 102,68,15,111,21,231,36,1,0 // movdqa 0x124e7(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1184>
+ .byte 102,68,15,111,21,98,37,1,0 // movdqa 0x12562(%rip),%xmm10 # 3c860 <_sk_srcover_bgra_8888_sse2_lowp+0x11c0>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,226 // pand %xmm10,%xmm12
- .byte 102,68,15,111,29,228,36,1,0 // movdqa 0x124e4(%rip),%xmm11 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1194>
+ .byte 102,68,15,111,29,95,37,1,0 // movdqa 0x1255f(%rip),%xmm11 # 3c870 <_sk_srcover_bgra_8888_sse2_lowp+0x11d0>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,231,36,1,0 // movdqa 0x124e7(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x11a4>
+ .byte 102,15,111,29,98,37,1,0 // movdqa 0x12562(%rip),%xmm3 # 3c880 <_sk_srcover_bgra_8888_sse2_lowp+0x11e0>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,214,36,1,0 // movdqa 0x124d6(%rip),%xmm12 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x11b4>
+ .byte 102,68,15,111,37,81,37,1,0 // movdqa 0x12551(%rip),%xmm12 # 3c890 <_sk_srcover_bgra_8888_sse2_lowp+0x11f0>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,208 // punpckhwd %xmm8,%xmm2
@@ -40177,19 +41646,19 @@ HIDDEN _sk_store_f16_sse2
FUNCTION(_sk_store_f16_sse2)
_sk_store_f16_sse2:
.byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 102,68,15,111,29,42,36,1,0 // movdqa 0x1242a(%rip),%xmm11 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x11c4>
+ .byte 102,68,15,111,29,165,36,1,0 // movdqa 0x124a5(%rip),%xmm11 # 3c8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1200>
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,69,15,219,195 // pand %xmm11,%xmm8
- .byte 102,68,15,111,21,39,36,1,0 // movdqa 0x12427(%rip),%xmm10 # 3b2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x11d4>
+ .byte 102,68,15,111,21,162,36,1,0 // movdqa 0x124a2(%rip),%xmm10 # 3c8b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1210>
.byte 102,68,15,111,240 // movdqa %xmm0,%xmm14
.byte 102,69,15,219,242 // pand %xmm10,%xmm14
- .byte 102,15,111,61,37,36,1,0 // movdqa 0x12425(%rip),%xmm7 # 3b2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x11e4>
- .byte 102,68,15,111,37,172,37,1,0 // movdqa 0x125ac(%rip),%xmm12 # 3b470 <_sk_srcover_bgra_8888_sse2_lowp+0x1374>
+ .byte 102,15,111,61,160,36,1,0 // movdqa 0x124a0(%rip),%xmm7 # 3c8c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1220>
+ .byte 102,68,15,111,37,39,38,1,0 // movdqa 0x12627(%rip),%xmm12 # 3ca50 <_sk_srcover_bgra_8888_sse2_lowp+0x13b0>
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
.byte 102,65,15,114,247,3 // pslld $0x3,%xmm15
.byte 102,69,15,219,252 // pand %xmm12,%xmm15
.byte 102,69,15,254,248 // paddd %xmm8,%xmm15
- .byte 102,68,15,111,45,126,32,1,0 // movdqa 0x1207e(%rip),%xmm13 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0xe64>
+ .byte 102,68,15,111,45,185,32,1,0 // movdqa 0x120b9(%rip),%xmm13 # 3c500 <_sk_srcover_bgra_8888_sse2_lowp+0xe60>
.byte 102,69,15,254,253 // paddd %xmm13,%xmm15
.byte 102,65,15,114,231,16 // psrad $0x10,%xmm15
.byte 102,68,15,111,199 // movdqa %xmm7,%xmm8
@@ -40243,7 +41712,7 @@ _sk_store_f16_sse2:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,37 // jne 2900e <_sk_store_f16_sse2+0x186>
+ .byte 117,37 // jne 2a573 <_sk_store_f16_sse2+0x186>
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,65,15,98,254 // punpckldq %xmm14,%xmm7
.byte 243,65,15,127,60,208 // movdqu %xmm7,(%r8,%rdx,8)
@@ -40256,13 +41725,13 @@ _sk_store_f16_sse2:
.byte 102,69,15,98,206 // punpckldq %xmm14,%xmm9
.byte 102,69,15,214,12,208 // movq %xmm9,(%r8,%rdx,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,225 // je 29005 <_sk_store_f16_sse2+0x17d>
+ .byte 116,225 // je 2a56a <_sk_store_f16_sse2+0x17d>
.byte 102,69,15,23,76,208,8 // movhpd %xmm9,0x8(%r8,%rdx,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,212 // jb 29005 <_sk_store_f16_sse2+0x17d>
+ .byte 114,212 // jb 2a56a <_sk_store_f16_sse2+0x17d>
.byte 102,69,15,106,198 // punpckhdq %xmm14,%xmm8
.byte 102,69,15,214,68,208,16 // movq %xmm8,0x10(%r8,%rdx,8)
- .byte 235,198 // jmp 29005 <_sk_store_f16_sse2+0x17d>
+ .byte 235,198 // jmp 2a56a <_sk_store_f16_sse2+0x17d>
HIDDEN _sk_load_u16_be_sse2
.globl _sk_load_u16_be_sse2
@@ -40275,7 +41744,7 @@ _sk_load_u16_be_sse2:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,190,0,0,0 // jne 2911e <_sk_load_u16_be_sse2+0xdf>
+ .byte 15,133,190,0,0,0 // jne 2a683 <_sk_load_u16_be_sse2+0xdf>
.byte 102,67,15,16,4,65 // movupd (%r9,%r8,2),%xmm0
.byte 243,67,15,111,76,65,16 // movdqu 0x10(%r9,%r8,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -40292,7 +41761,7 @@ _sk_load_u16_be_sse2:
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,5,159,31,1,0 // movaps 0x11f9f(%rip),%xmm8 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0xf54>
+ .byte 68,15,40,5,218,31,1,0 // movaps 0x11fda(%rip),%xmm8 # 3c5f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -40320,16 +41789,16 @@ _sk_load_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,65 // movsd (%r9,%r8,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 29137 <_sk_load_u16_be_sse2+0xf8>
+ .byte 117,13 // jne 2a69c <_sk_load_u16_be_sse2+0xf8>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,54,255,255,255 // jmpq 2906d <_sk_load_u16_be_sse2+0x2e>
+ .byte 233,54,255,255,255 // jmpq 2a5d2 <_sk_load_u16_be_sse2+0x2e>
.byte 102,67,15,22,68,65,8 // movhpd 0x8(%r9,%r8,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,33,255,255,255 // jb 2906d <_sk_load_u16_be_sse2+0x2e>
+ .byte 15,130,33,255,255,255 // jb 2a5d2 <_sk_load_u16_be_sse2+0x2e>
.byte 243,67,15,126,76,65,16 // movq 0x10(%r9,%r8,2),%xmm1
- .byte 233,21,255,255,255 // jmpq 2906d <_sk_load_u16_be_sse2+0x2e>
+ .byte 233,21,255,255,255 // jmpq 2a5d2 <_sk_load_u16_be_sse2+0x2e>
HIDDEN _sk_load_rgb_u16_be_sse2
.globl _sk_load_rgb_u16_be_sse2
@@ -40342,7 +41811,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 77,1,201 // add %r9,%r9
.byte 76,3,8 // add (%rax),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,175,0,0,0 // jne 29224 <_sk_load_rgb_u16_be_sse2+0xcc>
+ .byte 15,133,175,0,0,0 // jne 2a789 <_sk_load_rgb_u16_be_sse2+0xcc>
.byte 243,67,15,111,20,65 // movdqu (%r9,%r8,2),%xmm2
.byte 243,67,15,111,92,65,8 // movdqu 0x8(%r9,%r8,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -40363,7 +41832,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,13,119,30,1,0 // movaps 0x11e77(%rip),%xmm9 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0xf54>
+ .byte 68,15,40,13,178,30,1,0 // movaps 0x11eb2(%rip),%xmm9 # 3c5f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf50>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -40380,27 +41849,27 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,142,27,1,0 // movaps 0x11b8e(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,29,201,27,1,0 // movaps 0x11bc9(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 255,224 // jmpq *%rax
.byte 102,67,15,110,20,65 // movd (%r9,%r8,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,67,15,196,84,65,4,2 // pinsrw $0x2,0x4(%r9,%r8,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 29249 <_sk_load_rgb_u16_be_sse2+0xf1>
+ .byte 117,13 // jne 2a7ae <_sk_load_rgb_u16_be_sse2+0xf1>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,80,255,255,255 // jmpq 29199 <_sk_load_rgb_u16_be_sse2+0x41>
+ .byte 233,80,255,255,255 // jmpq 2a6fe <_sk_load_rgb_u16_be_sse2+0x41>
.byte 102,67,15,110,68,65,6 // movd 0x6(%r9,%r8,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,67,15,196,68,65,10,2 // pinsrw $0x2,0xa(%r9,%r8,2),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 2927a <_sk_load_rgb_u16_be_sse2+0x122>
+ .byte 114,24 // jb 2a7df <_sk_load_rgb_u16_be_sse2+0x122>
.byte 102,67,15,110,92,65,12 // movd 0xc(%r9,%r8,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,67,15,196,92,65,16,2 // pinsrw $0x2,0x10(%r9,%r8,2),%xmm3
- .byte 233,31,255,255,255 // jmpq 29199 <_sk_load_rgb_u16_be_sse2+0x41>
+ .byte 233,31,255,255,255 // jmpq 2a6fe <_sk_load_rgb_u16_be_sse2+0x41>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,22,255,255,255 // jmpq 29199 <_sk_load_rgb_u16_be_sse2+0x41>
+ .byte 233,22,255,255,255 // jmpq 2a6fe <_sk_load_rgb_u16_be_sse2+0x41>
HIDDEN _sk_store_u16_be_sse2
.globl _sk_store_u16_be_sse2
@@ -40415,9 +41884,9 @@ _sk_store_u16_be_sse2:
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,40,21,1,27,1,0 // movaps 0x11b01(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,21,60,27,1,0 // movaps 0x11b3c(%rip),%xmm10 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,93,194 // minps %xmm10,%xmm8
- .byte 68,15,40,29,69,32,1,0 // movaps 0x12045(%rip),%xmm11 # 3b300 <_sk_srcover_bgra_8888_sse2_lowp+0x1204>
+ .byte 68,15,40,29,192,32,1,0 // movaps 0x120c0(%rip),%xmm11 # 3c8e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1240>
.byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
@@ -40467,7 +41936,7 @@ _sk_store_u16_be_sse2:
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,98,204 // punpckldq %xmm12,%xmm9
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 293cb <_sk_store_u16_be_sse2+0x148>
+ .byte 117,21 // jne 2a930 <_sk_store_u16_be_sse2+0x148>
.byte 71,15,17,12,65 // movups %xmm9,(%r9,%r8,2)
.byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
.byte 243,71,15,127,68,65,16 // movdqu %xmm8,0x10(%r9,%r8,2)
@@ -40475,13 +41944,13 @@ _sk_store_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 102,71,15,214,12,65 // movq %xmm9,(%r9,%r8,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 293c7 <_sk_store_u16_be_sse2+0x144>
+ .byte 116,240 // je 2a92c <_sk_store_u16_be_sse2+0x144>
.byte 102,71,15,23,76,65,8 // movhpd %xmm9,0x8(%r9,%r8,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 293c7 <_sk_store_u16_be_sse2+0x144>
+ .byte 114,227 // jb 2a92c <_sk_store_u16_be_sse2+0x144>
.byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
.byte 102,71,15,214,68,65,16 // movq %xmm8,0x10(%r9,%r8,2)
- .byte 235,213 // jmp 293c7 <_sk_store_u16_be_sse2+0x144>
+ .byte 235,213 // jmp 2a92c <_sk_store_u16_be_sse2+0x144>
HIDDEN _sk_load_f32_sse2
.globl _sk_load_f32_sse2
@@ -40497,7 +41966,7 @@ _sk_load_f32_sse2:
.byte 72,193,224,4 // shl $0x4,%rax
.byte 70,15,16,4,8 // movups (%rax,%r9,1),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 2945e <_sk_load_f32_sse2+0x6c>
+ .byte 117,66 // jne 2a9c3 <_sk_load_f32_sse2+0x6c>
.byte 67,15,16,68,129,16 // movups 0x10(%r9,%r8,4),%xmm0
.byte 67,15,16,92,129,32 // movups 0x20(%r9,%r8,4),%xmm3
.byte 71,15,16,76,129,48 // movups 0x30(%r9,%r8,4),%xmm9
@@ -40517,17 +41986,17 @@ _sk_load_f32_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 29470 <_sk_load_f32_sse2+0x7e>
+ .byte 117,8 // jne 2a9d5 <_sk_load_f32_sse2+0x7e>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 2942e <_sk_load_f32_sse2+0x3c>
+ .byte 235,190 // jmp 2a993 <_sk_load_f32_sse2+0x3c>
.byte 67,15,16,68,129,16 // movups 0x10(%r9,%r8,4),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 29484 <_sk_load_f32_sse2+0x92>
+ .byte 114,8 // jb 2a9e9 <_sk_load_f32_sse2+0x92>
.byte 67,15,16,92,129,32 // movups 0x20(%r9,%r8,4),%xmm3
- .byte 235,170 // jmp 2942e <_sk_load_f32_sse2+0x3c>
+ .byte 235,170 // jmp 2a993 <_sk_load_f32_sse2+0x3c>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 2942e <_sk_load_f32_sse2+0x3c>
+ .byte 235,165 // jmp 2a993 <_sk_load_f32_sse2+0x3c>
HIDDEN _sk_load_f32_dst_sse2
.globl _sk_load_f32_dst_sse2
@@ -40543,7 +42012,7 @@ _sk_load_f32_dst_sse2:
.byte 72,193,224,4 // shl $0x4,%rax
.byte 70,15,16,4,8 // movups (%rax,%r9,1),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 294f5 <_sk_load_f32_dst_sse2+0x6c>
+ .byte 117,66 // jne 2aa5a <_sk_load_f32_dst_sse2+0x6c>
.byte 67,15,16,100,129,16 // movups 0x10(%r9,%r8,4),%xmm4
.byte 67,15,16,124,129,32 // movups 0x20(%r9,%r8,4),%xmm7
.byte 71,15,16,76,129,48 // movups 0x30(%r9,%r8,4),%xmm9
@@ -40563,17 +42032,17 @@ _sk_load_f32_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 29507 <_sk_load_f32_dst_sse2+0x7e>
+ .byte 117,8 // jne 2aa6c <_sk_load_f32_dst_sse2+0x7e>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 294c5 <_sk_load_f32_dst_sse2+0x3c>
+ .byte 235,190 // jmp 2aa2a <_sk_load_f32_dst_sse2+0x3c>
.byte 67,15,16,100,129,16 // movups 0x10(%r9,%r8,4),%xmm4
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 2951b <_sk_load_f32_dst_sse2+0x92>
+ .byte 114,8 // jb 2aa80 <_sk_load_f32_dst_sse2+0x92>
.byte 67,15,16,124,129,32 // movups 0x20(%r9,%r8,4),%xmm7
- .byte 235,170 // jmp 294c5 <_sk_load_f32_dst_sse2+0x3c>
+ .byte 235,170 // jmp 2aa2a <_sk_load_f32_dst_sse2+0x3c>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 294c5 <_sk_load_f32_dst_sse2+0x3c>
+ .byte 235,165 // jmp 2aa2a <_sk_load_f32_dst_sse2+0x3c>
HIDDEN _sk_store_f32_sse2
.globl _sk_store_f32_sse2
@@ -40602,7 +42071,7 @@ _sk_store_f32_sse2:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,70,15,17,36,8 // movupd %xmm12,(%rax,%r9,1)
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 2959e <_sk_store_f32_sse2+0x7e>
+ .byte 117,29 // jne 2ab03 <_sk_store_f32_sse2+0x7e>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 71,15,17,68,129,16 // movups %xmm8,0x10(%r9,%r8,4)
.byte 102,71,15,17,76,129,32 // movupd %xmm9,0x20(%r9,%r8,4)
@@ -40610,12 +42079,12 @@ _sk_store_f32_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 2959a <_sk_store_f32_sse2+0x7a>
+ .byte 116,246 // je 2aaff <_sk_store_f32_sse2+0x7a>
.byte 71,15,17,68,129,16 // movups %xmm8,0x10(%r9,%r8,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 2959a <_sk_store_f32_sse2+0x7a>
+ .byte 114,234 // jb 2aaff <_sk_store_f32_sse2+0x7a>
.byte 102,71,15,17,76,129,32 // movupd %xmm9,0x20(%r9,%r8,4)
- .byte 235,225 // jmp 2959a <_sk_store_f32_sse2+0x7a>
+ .byte 235,225 // jmp 2aaff <_sk_store_f32_sse2+0x7a>
HIDDEN _sk_repeat_x_sse2
.globl _sk_repeat_x_sse2
@@ -40629,7 +42098,7 @@ _sk_repeat_x_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,203,23,1,0 // andps 0x117cb(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,84,13,6,24,1,0 // andps 0x11806(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
@@ -40649,7 +42118,7 @@ _sk_repeat_y_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,138,23,1,0 // andps 0x1178a(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,84,13,197,23,1,0 // andps 0x117c5(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
@@ -40669,13 +42138,13 @@ _sk_mirror_x_sse2:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,64,13,1,0 // mulss 0x10d40(%rip),%xmm9 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,127,13,1,0 // mulss 0x10d7f(%rip),%xmm9 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,41,23,1,0 // andps 0x11729(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,84,13,100,23,1,0 // andps 0x11764(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,217 // subps %xmm9,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -40698,13 +42167,13 @@ _sk_mirror_y_sse2:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,212,12,1,0 // mulss 0x10cd4(%rip),%xmm9 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,19,13,1,0 // mulss 0x10d13(%rip),%xmm9 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,189,22,1,0 // andps 0x116bd(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,84,13,248,22,1,0 // andps 0x116f8(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,217 // subps %xmm9,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -40721,7 +42190,7 @@ FUNCTION(_sk_clamp_x_1_sse2)
_sk_clamp_x_1_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,141,22,1,0 // minps 0x1168d(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,93,5,200,22,1,0 // minps 0x116c8(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -40734,7 +42203,7 @@ _sk_repeat_x_1_sse2:
.byte 69,15,91,200 // cvtdq2ps %xmm8,%xmm9
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 69,15,194,209,1 // cmpltps %xmm9,%xmm10
- .byte 68,15,40,29,107,22,1,0 // movaps 0x1166b(%rip),%xmm11 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,29,166,22,1,0 // movaps 0x116a6(%rip),%xmm11 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,84,211 // andps %xmm11,%xmm10
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -40749,14 +42218,14 @@ HIDDEN _sk_mirror_x_1_sse2
.globl _sk_mirror_x_1_sse2
FUNCTION(_sk_mirror_x_1_sse2)
_sk_mirror_x_1_sse2:
- .byte 68,15,40,13,163,22,1,0 // movaps 0x116a3(%rip),%xmm9 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xd14>
+ .byte 68,15,40,13,222,22,1,0 // movaps 0x116de(%rip),%xmm9 # 3c3b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd10>
.byte 65,15,88,193 // addps %xmm9,%xmm0
- .byte 68,15,40,21,39,22,1,0 // movaps 0x11627(%rip),%xmm10 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,21,98,22,1,0 // movaps 0x11662(%rip),%xmm10 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 68,15,89,208 // mulps %xmm0,%xmm10
.byte 243,69,15,91,194 // cvttps2dq %xmm10,%xmm8
.byte 69,15,91,216 // cvtdq2ps %xmm8,%xmm11
.byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
- .byte 68,15,40,37,29,22,1,0 // movaps 0x1161d(%rip),%xmm12 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,37,88,22,1,0 // movaps 0x11658(%rip),%xmm12 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,84,212 // andps %xmm12,%xmm10
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,218 // subps %xmm10,%xmm11
@@ -40777,10 +42246,10 @@ HIDDEN _sk_luminance_to_alpha_sse2
FUNCTION(_sk_luminance_to_alpha_sse2)
_sk_luminance_to_alpha_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,63,27,1,0 // mulps 0x11b3f(%rip),%xmm0 # 3b310 <_sk_srcover_bgra_8888_sse2_lowp+0x1214>
- .byte 15,89,13,72,27,1,0 // mulps 0x11b48(%rip),%xmm1 # 3b320 <_sk_srcover_bgra_8888_sse2_lowp+0x1224>
+ .byte 15,89,5,186,27,1,0 // mulps 0x11bba(%rip),%xmm0 # 3c8f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1250>
+ .byte 15,89,13,195,27,1,0 // mulps 0x11bc3(%rip),%xmm1 # 3c900 <_sk_srcover_bgra_8888_sse2_lowp+0x1260>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,78,27,1,0 // mulps 0x11b4e(%rip),%xmm3 # 3b330 <_sk_srcover_bgra_8888_sse2_lowp+0x1234>
+ .byte 15,89,29,201,27,1,0 // mulps 0x11bc9(%rip),%xmm3 # 3c910 <_sk_srcover_bgra_8888_sse2_lowp+0x1270>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -41092,9 +42561,9 @@ _sk_evenly_spaced_gradient_sse2:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 29c82 <_sk_evenly_spaced_gradient_sse2+0x18>
+ .byte 120,7 // js 2b1e7 <_sk_evenly_spaced_gradient_sse2+0x18>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 29c97 <_sk_evenly_spaced_gradient_sse2+0x2d>
+ .byte 235,21 // jmp 2b1fc <_sk_evenly_spaced_gradient_sse2+0x2d>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -41196,7 +42665,7 @@ _sk_gradient_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 29e5b <_sk_gradient_sse2+0x38>
+ .byte 114,41 // jb 2b3c0 <_sk_gradient_sse2+0x38>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 73,255,200 // dec %r8
.byte 73,131,193,4 // add $0x4,%r9
@@ -41207,7 +42676,7 @@ _sk_gradient_sse2:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 73,131,193,4 // add $0x4,%r9
.byte 73,255,200 // dec %r8
- .byte 117,230 // jne 29e41 <_sk_gradient_sse2+0x1e>
+ .byte 117,230 // jne 2b3a6 <_sk_gradient_sse2+0x1e>
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
@@ -41347,29 +42816,29 @@ _sk_xy_to_unit_angle_sse2:
.byte 69,15,94,220 // divps %xmm12,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
- .byte 68,15,40,45,170,18,1,0 // movaps 0x112aa(%rip),%xmm13 # 3b340 <_sk_srcover_bgra_8888_sse2_lowp+0x1244>
+ .byte 68,15,40,45,37,19,1,0 // movaps 0x11325(%rip),%xmm13 # 3c920 <_sk_srcover_bgra_8888_sse2_lowp+0x1280>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,174,18,1,0 // addps 0x112ae(%rip),%xmm13 # 3b350 <_sk_srcover_bgra_8888_sse2_lowp+0x1254>
+ .byte 68,15,88,45,41,19,1,0 // addps 0x11329(%rip),%xmm13 # 3c930 <_sk_srcover_bgra_8888_sse2_lowp+0x1290>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,178,18,1,0 // addps 0x112b2(%rip),%xmm13 # 3b360 <_sk_srcover_bgra_8888_sse2_lowp+0x1264>
+ .byte 68,15,88,45,45,19,1,0 // addps 0x1132d(%rip),%xmm13 # 3c940 <_sk_srcover_bgra_8888_sse2_lowp+0x12a0>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,182,18,1,0 // addps 0x112b6(%rip),%xmm13 # 3b370 <_sk_srcover_bgra_8888_sse2_lowp+0x1274>
+ .byte 68,15,88,45,49,19,1,0 // addps 0x11331(%rip),%xmm13 # 3c950 <_sk_srcover_bgra_8888_sse2_lowp+0x12b0>
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,40,21,181,18,1,0 // movaps 0x112b5(%rip),%xmm10 # 3b380 <_sk_srcover_bgra_8888_sse2_lowp+0x1284>
+ .byte 68,15,40,21,48,19,1,0 // movaps 0x11330(%rip),%xmm10 # 3c960 <_sk_srcover_bgra_8888_sse2_lowp+0x12c0>
.byte 69,15,92,213 // subps %xmm13,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,205 // andnps %xmm13,%xmm9
.byte 69,15,86,202 // orps %xmm10,%xmm9
.byte 68,15,194,192,1 // cmpltps %xmm0,%xmm8
- .byte 68,15,40,21,184,12,1,0 // movaps 0x10cb8(%rip),%xmm10 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,21,243,12,1,0 // movaps 0x10cf3(%rip),%xmm10 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,84,208 // andps %xmm8,%xmm10
.byte 69,15,85,193 // andnps %xmm9,%xmm8
.byte 69,15,86,194 // orps %xmm10,%xmm8
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,194,200,1 // cmpltps %xmm0,%xmm9
- .byte 68,15,40,21,167,12,1,0 // movaps 0x10ca7(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,21,226,12,1,0 // movaps 0x10ce2(%rip),%xmm10 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,92,208 // subps %xmm8,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,200 // andnps %xmm8,%xmm9
@@ -41395,7 +42864,7 @@ HIDDEN _sk_negate_x_sse2
.globl _sk_negate_x_sse2
FUNCTION(_sk_negate_x_sse2)
_sk_negate_x_sse2:
- .byte 15,87,5,124,17,1,0 // xorps 0x1117c(%rip),%xmm0 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x11c4>
+ .byte 15,87,5,247,17,1,0 // xorps 0x111f7(%rip),%xmm0 # 3c8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1200>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41472,7 +42941,7 @@ _sk_xy_to_2pt_conical_smaller_sse2:
.byte 69,15,89,201 // mulps %xmm9,%xmm9
.byte 65,15,92,193 // subps %xmm9,%xmm0
.byte 15,81,192 // sqrtps %xmm0,%xmm0
- .byte 15,87,5,190,16,1,0 // xorps 0x110be(%rip),%xmm0 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x11c4>
+ .byte 15,87,5,57,17,1,0 // xorps 0x11139(%rip),%xmm0 # 3c8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1200>
.byte 65,15,92,192 // subps %xmm8,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41492,7 +42961,7 @@ HIDDEN _sk_alter_2pt_conical_unswap_sse2
.globl _sk_alter_2pt_conical_unswap_sse2
FUNCTION(_sk_alter_2pt_conical_unswap_sse2)
_sk_alter_2pt_conical_unswap_sse2:
- .byte 68,15,40,5,137,11,1,0 // movaps 0x10b89(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,196,11,1,0 // movaps 0x10bc4(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 68,15,92,192 // subps %xmm0,%xmm8
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
@@ -41541,7 +43010,7 @@ HIDDEN _sk_save_xy_sse2
FUNCTION(_sk_save_xy_sse2)
_sk_save_xy_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,23,11,1,0 // movaps 0x10b17(%rip),%xmm8 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,5,82,11,1,0 // movaps 0x10b52(%rip),%xmm8 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -41549,7 +43018,7 @@ _sk_save_xy_sse2:
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,40,217 // movaps %xmm9,%xmm11
.byte 69,15,194,218,1 // cmpltps %xmm10,%xmm11
- .byte 68,15,40,37,2,11,1,0 // movaps 0x10b02(%rip),%xmm12 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,37,61,11,1,0 // movaps 0x10b3d(%rip),%xmm12 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,92,211 // subps %xmm11,%xmm10
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -41596,8 +43065,8 @@ _sk_bilinear_nx_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,66,16,1,0 // addps 0x11042(%rip),%xmm0 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1294>
- .byte 68,15,40,13,90,10,1,0 // movaps 0x10a5a(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,88,5,189,16,1,0 // addps 0x110bd(%rip),%xmm0 # 3c970 <_sk_srcover_bgra_8888_sse2_lowp+0x12d0>
+ .byte 68,15,40,13,149,10,1,0 // movaps 0x10a95(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41610,7 +43079,7 @@ _sk_bilinear_px_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,38,10,1,0 // addps 0x10a26(%rip),%xmm0 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,88,5,97,10,1,0 // addps 0x10a61(%rip),%xmm0 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41622,8 +43091,8 @@ _sk_bilinear_ny_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,245,15,1,0 // addps 0x10ff5(%rip),%xmm1 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1294>
- .byte 68,15,40,13,13,10,1,0 // movaps 0x10a0d(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,88,13,112,16,1,0 // addps 0x11070(%rip),%xmm1 # 3c970 <_sk_srcover_bgra_8888_sse2_lowp+0x12d0>
+ .byte 68,15,40,13,72,10,1,0 // movaps 0x10a48(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41636,7 +43105,7 @@ _sk_bilinear_py_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,216,9,1,0 // addps 0x109d8(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,88,13,19,10,1,0 // addps 0x10a13(%rip),%xmm1 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41648,13 +43117,13 @@ _sk_bicubic_n3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,184,15,1,0 // addps 0x10fb8(%rip),%xmm0 # 3b3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x12a4>
- .byte 68,15,40,13,192,9,1,0 // movaps 0x109c0(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,88,5,51,16,1,0 // addps 0x11033(%rip),%xmm0 # 3c980 <_sk_srcover_bgra_8888_sse2_lowp+0x12e0>
+ .byte 68,15,40,13,251,9,1,0 // movaps 0x109fb(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,172,15,1,0 // mulps 0x10fac(%rip),%xmm9 # 3b3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
- .byte 68,15,88,13,164,11,1,0 // addps 0x10ba4(%rip),%xmm9 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
+ .byte 68,15,89,13,39,16,1,0 // mulps 0x11027(%rip),%xmm9 # 3c990 <_sk_srcover_bgra_8888_sse2_lowp+0x12f0>
+ .byte 68,15,88,13,223,11,1,0 // addps 0x10bdf(%rip),%xmm9 # 3c550 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41667,16 +43136,16 @@ _sk_bicubic_n1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,96,15,1,0 // addps 0x10f60(%rip),%xmm0 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1294>
- .byte 68,15,40,13,120,9,1,0 // movaps 0x10978(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,88,5,219,15,1,0 // addps 0x10fdb(%rip),%xmm0 # 3c970 <_sk_srcover_bgra_8888_sse2_lowp+0x12d0>
+ .byte 68,15,40,13,179,9,1,0 // movaps 0x109b3(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,124,15,1,0 // movaps 0x10f7c(%rip),%xmm8 # 3b3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c4>
+ .byte 68,15,40,5,247,15,1,0 // movaps 0x10ff7(%rip),%xmm8 # 3c9a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1300>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,128,15,1,0 // addps 0x10f80(%rip),%xmm8 # 3b3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 68,15,88,5,251,15,1,0 // addps 0x10ffb(%rip),%xmm8 # 3c9b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,68,9,1,0 // addps 0x10944(%rip),%xmm8 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,88,5,127,9,1,0 // addps 0x1097f(%rip),%xmm8 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,120,15,1,0 // addps 0x10f78(%rip),%xmm8 # 3b3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
+ .byte 68,15,88,5,243,15,1,0 // addps 0x10ff3(%rip),%xmm8 # 3c9c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41686,17 +43155,17 @@ HIDDEN _sk_bicubic_p1x_sse2
FUNCTION(_sk_bicubic_p1x_sse2)
_sk_bicubic_p1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,34,9,1,0 // movaps 0x10922(%rip),%xmm8 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,5,93,9,1,0 // movaps 0x1095d(%rip),%xmm8 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,136,128,0,0,0 // movups 0x80(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,43,15,1,0 // movaps 0x10f2b(%rip),%xmm10 # 3b3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c4>
+ .byte 68,15,40,21,166,15,1,0 // movaps 0x10fa6(%rip),%xmm10 # 3c9a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1300>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,47,15,1,0 // addps 0x10f2f(%rip),%xmm10 # 3b3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 68,15,88,21,170,15,1,0 // addps 0x10faa(%rip),%xmm10 # 3c9b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,43,15,1,0 // addps 0x10f2b(%rip),%xmm10 # 3b3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
+ .byte 68,15,88,21,166,15,1,0 // addps 0x10fa6(%rip),%xmm10 # 3c9c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
.byte 68,15,17,144,0,1,0,0 // movups %xmm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41708,11 +43177,11 @@ _sk_bicubic_p3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,251,14,1,0 // addps 0x10efb(%rip),%xmm0 # 3b3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 15,88,5,118,15,1,0 // addps 0x10f76(%rip),%xmm0 # 3c9b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,203,14,1,0 // mulps 0x10ecb(%rip),%xmm8 # 3b3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
- .byte 68,15,88,5,195,10,1,0 // addps 0x10ac3(%rip),%xmm8 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
+ .byte 68,15,89,5,70,15,1,0 // mulps 0x10f46(%rip),%xmm8 # 3c990 <_sk_srcover_bgra_8888_sse2_lowp+0x12f0>
+ .byte 68,15,88,5,254,10,1,0 // addps 0x10afe(%rip),%xmm8 # 3c550 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41725,13 +43194,13 @@ _sk_bicubic_n3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,142,14,1,0 // addps 0x10e8e(%rip),%xmm1 # 3b3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x12a4>
- .byte 68,15,40,13,150,8,1,0 // movaps 0x10896(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,88,13,9,15,1,0 // addps 0x10f09(%rip),%xmm1 # 3c980 <_sk_srcover_bgra_8888_sse2_lowp+0x12e0>
+ .byte 68,15,40,13,209,8,1,0 // movaps 0x108d1(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,130,14,1,0 // mulps 0x10e82(%rip),%xmm9 # 3b3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
- .byte 68,15,88,13,122,10,1,0 // addps 0x10a7a(%rip),%xmm9 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
+ .byte 68,15,89,13,253,14,1,0 // mulps 0x10efd(%rip),%xmm9 # 3c990 <_sk_srcover_bgra_8888_sse2_lowp+0x12f0>
+ .byte 68,15,88,13,181,10,1,0 // addps 0x10ab5(%rip),%xmm9 # 3c550 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41744,16 +43213,16 @@ _sk_bicubic_n1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,53,14,1,0 // addps 0x10e35(%rip),%xmm1 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1294>
- .byte 68,15,40,13,77,8,1,0 // movaps 0x1084d(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,88,13,176,14,1,0 // addps 0x10eb0(%rip),%xmm1 # 3c970 <_sk_srcover_bgra_8888_sse2_lowp+0x12d0>
+ .byte 68,15,40,13,136,8,1,0 // movaps 0x10888(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,81,14,1,0 // movaps 0x10e51(%rip),%xmm8 # 3b3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c4>
+ .byte 68,15,40,5,204,14,1,0 // movaps 0x10ecc(%rip),%xmm8 # 3c9a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1300>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,85,14,1,0 // addps 0x10e55(%rip),%xmm8 # 3b3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 68,15,88,5,208,14,1,0 // addps 0x10ed0(%rip),%xmm8 # 3c9b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,25,8,1,0 // addps 0x10819(%rip),%xmm8 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,88,5,84,8,1,0 // addps 0x10854(%rip),%xmm8 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,77,14,1,0 // addps 0x10e4d(%rip),%xmm8 # 3b3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
+ .byte 68,15,88,5,200,14,1,0 // addps 0x10ec8(%rip),%xmm8 # 3c9c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41763,17 +43232,17 @@ HIDDEN _sk_bicubic_p1y_sse2
FUNCTION(_sk_bicubic_p1y_sse2)
_sk_bicubic_p1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,247,7,1,0 // movaps 0x107f7(%rip),%xmm8 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,5,50,8,1,0 // movaps 0x10832(%rip),%xmm8 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,136,192,0,0,0 // movups 0xc0(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,255,13,1,0 // movaps 0x10dff(%rip),%xmm10 # 3b3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c4>
+ .byte 68,15,40,21,122,14,1,0 // movaps 0x10e7a(%rip),%xmm10 # 3c9a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1300>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,3,14,1,0 // addps 0x10e03(%rip),%xmm10 # 3b3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 68,15,88,21,126,14,1,0 // addps 0x10e7e(%rip),%xmm10 # 3c9b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,255,13,1,0 // addps 0x10dff(%rip),%xmm10 # 3b3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
+ .byte 68,15,88,21,122,14,1,0 // addps 0x10e7a(%rip),%xmm10 # 3c9c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1320>
.byte 68,15,17,144,64,1,0,0 // movups %xmm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41785,11 +43254,11 @@ _sk_bicubic_p3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,206,13,1,0 // addps 0x10dce(%rip),%xmm1 # 3b3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
+ .byte 15,88,13,73,14,1,0 // addps 0x10e49(%rip),%xmm1 # 3c9b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1310>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,158,13,1,0 // mulps 0x10d9e(%rip),%xmm8 # 3b3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
- .byte 68,15,88,5,150,9,1,0 // addps 0x10996(%rip),%xmm8 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
+ .byte 68,15,89,5,25,14,1,0 // mulps 0x10e19(%rip),%xmm8 # 3c990 <_sk_srcover_bgra_8888_sse2_lowp+0x12f0>
+ .byte 68,15,88,5,209,9,1,0 // addps 0x109d1(%rip),%xmm8 # 3c550 <_sk_srcover_bgra_8888_sse2_lowp+0xeb0>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41934,7 +43403,7 @@ _sk_clut_3D_sse2:
.byte 102,65,15,254,205 // paddd %xmm13,%xmm1
.byte 102,68,15,127,108,36,208 // movdqa %xmm13,-0x30(%rsp)
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,5,229,11,1,0 // movdqa 0x10be5(%rip),%xmm8 # 3b400 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
+ .byte 102,68,15,111,5,96,12,1,0 // movdqa 0x10c60(%rip),%xmm8 # 3c9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1340>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,65,15,244,216 // pmuludq %xmm8,%xmm3
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
@@ -41973,7 +43442,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,37,12,5,1,0 // movdqa 0x1050c(%rip),%xmm12 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,68,15,111,37,71,5,1,0 // movdqa 0x10547(%rip),%xmm12 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,65,15,254,196 // paddd %xmm12,%xmm0
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -41989,7 +43458,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
.byte 15,20,224 // unpcklps %xmm0,%xmm4
.byte 102,15,20,236 // unpcklpd %xmm4,%xmm5
- .byte 15,40,37,209,10,1,0 // movaps 0x10ad1(%rip),%xmm4 # 3b3f0 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
+ .byte 15,40,37,76,11,1,0 // movaps 0x10b4c(%rip),%xmm4 # 3c9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1330>
.byte 68,15,88,220 // addps %xmm4,%xmm11
.byte 68,15,41,92,36,192 // movaps %xmm11,-0x40(%rsp)
.byte 68,15,40,223 // movaps %xmm7,%xmm11
@@ -42025,7 +43494,7 @@ _sk_clut_3D_sse2:
.byte 15,20,249 // unpcklps %xmm1,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,70,10,1,0 // psubd 0x10a46(%rip),%xmm1 # 3b410 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
+ .byte 102,15,250,13,193,10,1,0 // psubd 0x10ac1(%rip),%xmm1 # 3c9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1350>
.byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42115,7 +43584,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,233 // unpcklps %xmm1,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,45,126,2,1,0 // movdqa 0x1027e(%rip),%xmm13 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,68,15,111,45,185,2,1,0 // movdqa 0x102b9(%rip),%xmm13 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,65,15,254,197 // paddd %xmm13,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
@@ -42212,7 +43681,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
- .byte 102,15,111,29,225,6,1,0 // movdqa 0x106e1(%rip),%xmm3 # 3b400 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
+ .byte 102,15,111,29,92,7,1,0 // movdqa 0x1075c(%rip),%xmm3 # 3c9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1340>
.byte 102,15,244,203 // pmuludq %xmm3,%xmm1
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -42250,7 +43719,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,213 // unpcklpd %xmm5,%xmm2
- .byte 102,15,111,5,17,0,1,0 // movdqa 0x10011(%rip),%xmm0 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,15,111,5,76,0,1,0 // movdqa 0x1004c(%rip),%xmm0 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -42331,7 +43800,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,65,15,254,212 // paddd %xmm12,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,190,4,1,0 // movdqa 0x104be(%rip),%xmm1 # 3b400 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
+ .byte 102,15,111,13,57,5,1,0 // movdqa 0x10539(%rip),%xmm1 # 3c9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1340>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -42353,7 +43822,7 @@ _sk_clut_3D_sse2:
.byte 68,15,20,209 // unpcklps %xmm1,%xmm10
.byte 102,68,15,20,210 // unpcklpd %xmm2,%xmm10
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,99,4,1,0 // psubd 0x10463(%rip),%xmm1 # 3b410 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
+ .byte 102,15,250,13,222,4,1,0 // psubd 0x104de(%rip),%xmm1 # 3c9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1350>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42368,7 +43837,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
- .byte 102,15,254,5,238,253,0,0 // paddd 0xfdee(%rip),%xmm0 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,15,254,5,41,254,0,0 // paddd 0xfe29(%rip),%xmm0 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -42405,7 +43874,7 @@ _sk_clut_3D_sse2:
.byte 15,20,199 // unpcklps %xmm7,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,109,3,1,0 // psubd 0x1036d(%rip),%xmm1 # 3b410 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
+ .byte 102,15,250,13,232,3,1,0 // psubd 0x103e8(%rip),%xmm1 # 3c9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1350>
.byte 102,15,112,249,78 // pshufd $0x4e,%xmm1,%xmm7
.byte 102,73,15,126,248 // movq %xmm7,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42420,7 +43889,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
.byte 15,20,247 // unpcklps %xmm7,%xmm6
.byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,15,254,21,248,252,0,0 // paddd 0xfcf8(%rip),%xmm2 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,15,254,21,51,253,0,0 // paddd 0xfd33(%rip),%xmm2 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -42566,7 +44035,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,210 // paddd %xmm10,%xmm2
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,37,176,0,1,0 // movdqa 0x100b0(%rip),%xmm4 # 3b400 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
+ .byte 102,15,111,37,43,1,1,0 // movdqa 0x1012b(%rip),%xmm4 # 3c9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1340>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -42605,7 +44074,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,5,218,249,0,0 // paddd 0xf9da(%rip),%xmm0 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,15,254,5,21,250,0,0 // paddd 0xfa15(%rip),%xmm0 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -42620,7 +44089,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,53,164,255,0,0 // movaps 0xffa4(%rip),%xmm6 # 3b3f0 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
+ .byte 15,40,53,31,0,1,0 // movaps 0x1001f(%rip),%xmm6 # 3c9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1330>
.byte 68,15,88,198 // addps %xmm6,%xmm8
.byte 68,15,41,68,36,176 // movaps %xmm8,-0x50(%rsp)
.byte 68,15,88,254 // addps %xmm6,%xmm15
@@ -42638,7 +44107,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,215 // paddd %xmm15,%xmm2
.byte 102,68,15,127,124,36,224 // movdqa %xmm15,-0x20(%rsp)
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,90,255,0,0 // movdqa 0xff5a(%rip),%xmm1 # 3b400 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
+ .byte 102,15,111,13,213,255,0,0 // movdqa 0xffd5(%rip),%xmm1 # 3c9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1340>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -42659,7 +44128,7 @@ _sk_clut_4D_sse2:
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,242 // unpcklpd %xmm2,%xmm6
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,5,255,0,0 // psubd 0xff05(%rip),%xmm0 # 3b410 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
+ .byte 102,15,250,5,128,255,0,0 // psubd 0xff80(%rip),%xmm0 # 3c9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1350>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -42674,7 +44143,7 @@ _sk_clut_4D_sse2:
.byte 243,68,15,16,28,131 // movss (%rbx,%rax,4),%xmm11
.byte 68,15,20,216 // unpcklps %xmm0,%xmm11
.byte 102,65,15,20,211 // unpcklpd %xmm11,%xmm2
- .byte 102,15,254,13,141,248,0,0 // paddd 0xf88d(%rip),%xmm1 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,15,254,13,200,248,0,0 // paddd 0xf8c8(%rip),%xmm1 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42712,7 +44181,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
.byte 102,15,254,68,36,160 // paddd -0x60(%rsp),%xmm0
.byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3
- .byte 102,15,111,37,4,254,0,0 // movdqa 0xfe04(%rip),%xmm4 # 3b400 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
+ .byte 102,15,111,37,127,254,0,0 // movdqa 0xfe7f(%rip),%xmm4 # 3c9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1340>
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,68,15,111,220 // movdqa %xmm4,%xmm11
@@ -42750,7 +44219,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
.byte 15,20,253 // unpcklps %xmm5,%xmm7
.byte 102,15,20,199 // unpcklpd %xmm7,%xmm0
- .byte 102,68,15,111,5,48,247,0,0 // movdqa 0xf730(%rip),%xmm8 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,68,15,111,5,107,247,0,0 // movdqa 0xf76b(%rip),%xmm8 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,65,15,254,224 // paddd %xmm8,%xmm4
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,73,15,126,232 // movq %xmm5,%r8
@@ -42896,7 +44365,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,226 // unpcklps %xmm2,%xmm4
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,68,15,111,61,138,244,0,0 // movdqa 0xf48a(%rip),%xmm15 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,68,15,111,61,197,244,0,0 // movdqa 0xf4c5(%rip),%xmm15 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,65,15,254,207 // paddd %xmm15,%xmm1
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
@@ -42979,7 +44448,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
.byte 102,65,15,254,216 // paddd %xmm8,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,45,57,249,0,0 // movdqa 0xf939(%rip),%xmm5 # 3b400 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
+ .byte 102,15,111,45,180,249,0,0 // movdqa 0xf9b4(%rip),%xmm5 # 3c9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1340>
.byte 102,15,244,221 // pmuludq %xmm5,%xmm3
.byte 102,15,244,213 // pmuludq %xmm5,%xmm2
.byte 102,15,112,234,232 // pshufd $0xe8,%xmm2,%xmm5
@@ -43000,7 +44469,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,198 // unpcklps %xmm6,%xmm8
.byte 102,68,15,20,197 // unpcklpd %xmm5,%xmm8
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,250,45,226,248,0,0 // psubd 0xf8e2(%rip),%xmm5 # 3b410 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
+ .byte 102,15,250,45,93,249,0,0 // psubd 0xf95d(%rip),%xmm5 # 3c9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1350>
.byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -43032,7 +44501,7 @@ _sk_clut_4D_sse2:
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
.byte 102,69,15,254,205 // paddd %xmm13,%xmm9
.byte 102,65,15,112,233,245 // pshufd $0xf5,%xmm9,%xmm5
- .byte 102,15,111,29,64,248,0,0 // movdqa 0xf840(%rip),%xmm3 # 3b400 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
+ .byte 102,15,111,29,187,248,0,0 // movdqa 0xf8bb(%rip),%xmm3 # 3c9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1340>
.byte 102,68,15,244,203 // pmuludq %xmm3,%xmm9
.byte 102,15,244,235 // pmuludq %xmm3,%xmm5
.byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
@@ -43053,7 +44522,7 @@ _sk_clut_4D_sse2:
.byte 69,15,20,233 // unpcklps %xmm9,%xmm13
.byte 102,68,15,20,237 // unpcklpd %xmm5,%xmm13
.byte 102,65,15,111,239 // movdqa %xmm15,%xmm5
- .byte 102,15,250,45,224,247,0,0 // psubd 0xf7e0(%rip),%xmm5 # 3b410 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
+ .byte 102,15,250,45,91,248,0,0 // psubd 0xf85b(%rip),%xmm5 # 3c9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1350>
.byte 102,15,112,221,78 // pshufd $0x4e,%xmm5,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -43068,7 +44537,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,245 // unpcklpd %xmm5,%xmm6
- .byte 102,68,15,111,13,106,241,0,0 // movdqa 0xf16a(%rip),%xmm9 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,68,15,111,13,165,241,0,0 // movdqa 0xf1a5(%rip),%xmm9 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,69,15,254,249 // paddd %xmm9,%xmm15
.byte 102,65,15,112,223,78 // pshufd $0x4e,%xmm15,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -43130,7 +44599,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,21,123,246,0,0 // movdqa 0xf67b(%rip),%xmm2 # 3b400 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
+ .byte 102,15,111,21,246,246,0,0 // movdqa 0xf6f6(%rip),%xmm2 # 3c9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1340>
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,68,15,111,234 // movdqa %xmm2,%xmm13
@@ -43323,7 +44792,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,238 // unpcklps %xmm6,%xmm13
.byte 102,68,15,20,234 // unpcklpd %xmm2,%xmm13
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,250,21,23,243,0,0 // psubd 0xf317(%rip),%xmm2 # 3b410 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
+ .byte 102,15,250,21,146,243,0,0 // psubd 0xf392(%rip),%xmm2 # 3c9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1350>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -43383,7 +44852,7 @@ _sk_clut_4D_sse2:
.byte 102,68,15,111,116,36,160 // movdqa -0x60(%rsp),%xmm14
.byte 102,65,15,254,198 // paddd %xmm14,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,68,15,111,5,246,241,0,0 // movdqa 0xf1f6(%rip),%xmm8 # 3b400 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
+ .byte 102,68,15,111,5,113,242,0,0 // movdqa 0xf271(%rip),%xmm8 # 3c9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1340>
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
.byte 102,65,15,244,200 // pmuludq %xmm8,%xmm1
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
@@ -43421,7 +44890,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
- .byte 102,68,15,111,5,36,235,0,0 // movdqa 0xeb24(%rip),%xmm8 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,68,15,111,5,95,235,0,0 // movdqa 0xeb5f(%rip),%xmm8 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,65,15,254,208 // paddd %xmm8,%xmm2
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -43504,7 +44973,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,37,208,239,0,0 // movdqa 0xefd0(%rip),%xmm4 # 3b400 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
+ .byte 102,15,111,37,75,240,0,0 // movdqa 0xf04b(%rip),%xmm4 # 3c9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1340>
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1
@@ -43525,7 +44994,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,193 // unpcklps %xmm1,%xmm8
.byte 102,68,15,20,194 // unpcklpd %xmm2,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,121,239,0,0 // psubd 0xef79(%rip),%xmm1 # 3b410 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
+ .byte 102,15,250,13,244,239,0,0 // psubd 0xeff4(%rip),%xmm1 # 3c9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1350>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -43540,7 +45009,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,68,15,20,242 // unpcklpd %xmm2,%xmm14
- .byte 102,15,254,5,2,233,0,0 // paddd 0xe902(%rip),%xmm0 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,15,254,5,61,233,0,0 // paddd 0xe93d(%rip),%xmm0 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -43578,7 +45047,7 @@ _sk_clut_4D_sse2:
.byte 15,20,198 // unpcklps %xmm6,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,129,238,0,0 // psubd 0xee81(%rip),%xmm1 # 3b410 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
+ .byte 102,15,250,13,252,238,0,0 // psubd 0xeefc(%rip),%xmm1 # 3c9f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1350>
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -43593,7 +45062,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,230 // unpcklps %xmm6,%xmm4
.byte 102,15,20,204 // unpcklpd %xmm4,%xmm1
- .byte 102,15,254,21,12,232,0,0 // paddd 0xe80c(%rip),%xmm2 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
+ .byte 102,15,254,21,71,232,0,0 // paddd 0xe847(%rip),%xmm2 # 3c380 <_sk_srcover_bgra_8888_sse2_lowp+0xce0>
.byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -43652,7 +45121,7 @@ _sk_clut_4D_sse2:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,215 // addps %xmm15,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,248,230,0,0 // movaps 0xe6f8(%rip),%xmm3 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,29,51,231,0,0 // movaps 0xe733(%rip),%xmm3 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,40,100,36,96 // movaps 0x60(%rsp),%xmm4
.byte 15,40,108,36,112 // movaps 0x70(%rsp),%xmm5
.byte 15,40,180,36,128,0,0,0 // movaps 0x80(%rsp),%xmm6
@@ -43665,15 +45134,15 @@ HIDDEN _sk_gauss_a_to_rgba_sse2
.globl _sk_gauss_a_to_rgba_sse2
FUNCTION(_sk_gauss_a_to_rgba_sse2)
_sk_gauss_a_to_rgba_sse2:
- .byte 15,40,5,61,237,0,0 // movaps 0xed3d(%rip),%xmm0 # 3b420 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
+ .byte 15,40,5,184,237,0,0 // movaps 0xedb8(%rip),%xmm0 # 3ca00 <_sk_srcover_bgra_8888_sse2_lowp+0x1360>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,67,237,0,0 // addps 0xed43(%rip),%xmm0 # 3b430 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
+ .byte 15,88,5,190,237,0,0 // addps 0xedbe(%rip),%xmm0 # 3ca10 <_sk_srcover_bgra_8888_sse2_lowp+0x1370>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,73,237,0,0 // addps 0xed49(%rip),%xmm0 # 3b440 <_sk_srcover_bgra_8888_sse2_lowp+0x1344>
+ .byte 15,88,5,196,237,0,0 // addps 0xedc4(%rip),%xmm0 # 3ca20 <_sk_srcover_bgra_8888_sse2_lowp+0x1380>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,79,237,0,0 // addps 0xed4f(%rip),%xmm0 # 3b450 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
+ .byte 15,88,5,202,237,0,0 // addps 0xedca(%rip),%xmm0 # 3ca30 <_sk_srcover_bgra_8888_sse2_lowp+0x1390>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,85,237,0,0 // addps 0xed55(%rip),%xmm0 # 3b460 <_sk_srcover_bgra_8888_sse2_lowp+0x1364>
+ .byte 15,88,5,208,237,0,0 // addps 0xedd0(%rip),%xmm0 # 3ca40 <_sk_srcover_bgra_8888_sse2_lowp+0x13a0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
@@ -43690,7 +45159,7 @@ _sk_bilerp_clamp_8888_sse2:
.byte 15,41,108,36,144 // movaps %xmm5,-0x70(%rsp)
.byte 15,41,100,36,128 // movaps %xmm4,-0x80(%rsp)
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,37,103,230,0,0 // movaps 0xe667(%rip),%xmm4 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,40,37,162,230,0,0 // movaps 0xe6a2(%rip),%xmm4 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 15,41,68,36,64 // movaps %xmm0,0x40(%rsp)
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,88,236 // addps %xmm4,%xmm5
@@ -43698,7 +45167,7 @@ _sk_bilerp_clamp_8888_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,213 // movaps %xmm5,%xmm2
.byte 15,194,208,1 // cmpltps %xmm0,%xmm2
- .byte 15,40,53,87,230,0,0 // movaps 0xe657(%rip),%xmm6 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,53,146,230,0,0 // movaps 0xe692(%rip),%xmm6 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,84,214 // andps %xmm6,%xmm2
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,92,194 // subps %xmm2,%xmm0
@@ -43731,9 +45200,9 @@ _sk_bilerp_clamp_8888_sse2:
.byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
.byte 102,15,112,193,0 // pshufd $0x0,%xmm1,%xmm0
.byte 102,15,127,68,36,208 // movdqa %xmm0,-0x30(%rsp)
- .byte 243,15,16,5,14,221,0,0 // movss 0xdd0e(%rip),%xmm0 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
- .byte 102,15,111,45,118,230,0,0 // movdqa 0xe676(%rip),%xmm5 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
- .byte 15,40,37,207,231,0,0 // movaps 0xe7cf(%rip),%xmm4 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
+ .byte 243,15,16,5,93,221,0,0 // movss 0xdd5d(%rip),%xmm0 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 102,15,111,45,177,230,0,0 // movdqa 0xe6b1(%rip),%xmm5 # 3c400 <_sk_srcover_bgra_8888_sse2_lowp+0xd60>
+ .byte 15,40,37,10,232,0,0 // movaps 0xe80a(%rip),%xmm4 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0xec0>
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,87,201 // xorps %xmm9,%xmm9
@@ -43744,9 +45213,9 @@ _sk_bilerp_clamp_8888_sse2:
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,95,206 // maxps %xmm6,%xmm1
.byte 15,41,124,36,16 // movaps %xmm7,0x10(%rsp)
- .byte 15,46,61,15,221,0,0 // ucomiss 0xdd0f(%rip),%xmm7 # 3a52c <_sk_srcover_bgra_8888_sse2_lowp+0x430>
+ .byte 15,46,61,94,221,0,0 // ucomiss 0xdd5e(%rip),%xmm7 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 68,15,40,124,36,240 // movaps -0x10(%rsp),%xmm15
- .byte 119,6 // ja 2c82b <_sk_bilerp_clamp_8888_sse2+0x113>
+ .byte 119,6 // ja 2dd90 <_sk_bilerp_clamp_8888_sse2+0x113>
.byte 68,15,40,124,36,192 // movaps -0x40(%rsp),%xmm15
.byte 15,93,76,36,224 // minps -0x20(%rsp),%xmm1
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
@@ -43759,7 +45228,7 @@ _sk_bilerp_clamp_8888_sse2:
.byte 102,15,244,241 // pmuludq %xmm1,%xmm6
.byte 102,15,112,206,232 // pshufd $0xe8,%xmm6,%xmm1
.byte 102,68,15,98,225 // punpckldq %xmm1,%xmm12
- .byte 243,15,16,13,136,220,0,0 // movss 0xdc88(%rip),%xmm1 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 243,15,16,13,215,220,0,0 // movss 0xdcd7(%rip),%xmm1 # 3baa4 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,88,116,36,64 // addps 0x40(%rsp),%xmm6
@@ -43799,9 +45268,9 @@ _sk_bilerp_clamp_8888_sse2:
.byte 102,15,114,208,24 // psrld $0x18,%xmm0
.byte 68,15,91,208 // cvtdq2ps %xmm0,%xmm10
.byte 68,15,89,212 // mulps %xmm4,%xmm10
- .byte 15,46,13,26,220,0,0 // ucomiss 0xdc1a(%rip),%xmm1 # 3a52c <_sk_srcover_bgra_8888_sse2_lowp+0x430>
+ .byte 15,46,13,105,220,0,0 // ucomiss 0xdc69(%rip),%xmm1 # 3bae0 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 68,15,40,92,36,48 // movaps 0x30(%rsp),%xmm11
- .byte 119,6 // ja 2c920 <_sk_bilerp_clamp_8888_sse2+0x208>
+ .byte 119,6 // ja 2de85 <_sk_bilerp_clamp_8888_sse2+0x208>
.byte 68,15,40,92,36,32 // movaps 0x20(%rsp),%xmm11
.byte 69,15,89,223 // mulps %xmm15,%xmm11
.byte 69,15,89,235 // mulps %xmm11,%xmm13
@@ -43812,15 +45281,15 @@ _sk_bilerp_clamp_8888_sse2:
.byte 15,88,215 // addps %xmm7,%xmm2
.byte 69,15,89,218 // mulps %xmm10,%xmm11
.byte 65,15,88,219 // addps %xmm11,%xmm3
- .byte 243,15,88,13,97,218,0,0 // addss 0xda61(%rip),%xmm1 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 243,15,16,5,85,218,0,0 // movss 0xda55(%rip),%xmm0 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,15,88,13,160,218,0,0 // addss 0xdaa0(%rip),%xmm1 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 243,15,16,5,148,218,0,0 // movss 0xda94(%rip),%xmm0 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 15,46,193 // ucomiss %xmm1,%xmm0
- .byte 15,131,12,255,255,255 // jae 2c868 <_sk_bilerp_clamp_8888_sse2+0x150>
+ .byte 15,131,12,255,255,255 // jae 2ddcd <_sk_bilerp_clamp_8888_sse2+0x150>
.byte 15,40,124,36,16 // movaps 0x10(%rsp),%xmm7
- .byte 243,15,88,61,67,218,0,0 // addss 0xda43(%rip),%xmm7 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 243,15,16,5,55,218,0,0 // movss 0xda37(%rip),%xmm0 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,15,88,61,130,218,0,0 // addss 0xda82(%rip),%xmm7 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 243,15,16,5,118,218,0,0 // movss 0xda76(%rip),%xmm0 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 15,46,199 // ucomiss %xmm7,%xmm0
- .byte 15,131,133,254,255,255 // jae 2c7ff <_sk_bilerp_clamp_8888_sse2+0xe7>
+ .byte 15,131,133,254,255,255 // jae 2dd64 <_sk_bilerp_clamp_8888_sse2+0xe7>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 65,15,40,200 // movaps %xmm8,%xmm1
@@ -43831,7 +45300,6 @@ _sk_bilerp_clamp_8888_sse2:
.byte 72,131,196,88 // add $0x58,%rsp
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 144 // nop
HIDDEN _sk_start_pipeline_hsw_lowp
.globl _sk_start_pipeline_hsw_lowp
@@ -43854,13 +45322,13 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 2ca6a <_sk_start_pipeline_hsw_lowp+0xca>
+ .byte 15,131,151,0,0,0 // jae 2dfce <_sk_start_pipeline_hsw_lowp+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,16 // lea 0x10(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 2ca2c <_sk_start_pipeline_hsw_lowp+0x8c>
+ .byte 119,67 // ja 2df90 <_sk_start_pipeline_hsw_lowp+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -43879,10 +45347,10 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,131,196,32 // add $0x20,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 2c9ed <_sk_start_pipeline_hsw_lowp+0x4d>
+ .byte 118,193 // jbe 2df51 <_sk_start_pipeline_hsw_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 2ca5d <_sk_start_pipeline_hsw_lowp+0xbd>
+ .byte 116,41 // je 2dfc1 <_sk_start_pipeline_hsw_lowp+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -43896,7 +45364,7 @@ _sk_start_pipeline_hsw_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 2c9df <_sk_start_pipeline_hsw_lowp+0x3f>
+ .byte 15,133,117,255,255,255 // jne 2df43 <_sk_start_pipeline_hsw_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -43926,7 +45394,7 @@ _sk_seed_shader_hsw_lowp:
.byte 197,249,110,209 // vmovd %ecx,%xmm2
.byte 196,226,125,88,210 // vpbroadcastd %xmm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,253,216,0,0 // vbroadcastss 0xd8fd(%rip),%ymm3 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,29,61,217,0,0 // vbroadcastss 0xd93d(%rip),%ymm3 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,236,88,211 // vaddps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,218 // vmovaps %ymm2,%ymm3
@@ -44042,7 +45510,7 @@ HIDDEN _sk_black_color_hsw_lowp
FUNCTION(_sk_black_color_hsw_lowp)
_sk_black_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,176,222,0,0 // vpbroadcastw 0xdeb0(%rip),%ymm3 # 3aae0 <_sk_srcover_bgra_8888_sse2_lowp+0x9e4>
+ .byte 196,226,125,121,29,236,222,0,0 // vpbroadcastw 0xdeec(%rip),%ymm3 # 3c080 <_sk_srcover_bgra_8888_sse2_lowp+0x9e0>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -44053,7 +45521,7 @@ HIDDEN _sk_white_color_hsw_lowp
FUNCTION(_sk_white_color_hsw_lowp)
_sk_white_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,5,153,222,0,0 // vpbroadcastw 0xde99(%rip),%ymm0 # 3aae2 <_sk_srcover_bgra_8888_sse2_lowp+0x9e6>
+ .byte 196,226,125,121,5,213,222,0,0 // vpbroadcastw 0xded5(%rip),%ymm0 # 3c082 <_sk_srcover_bgra_8888_sse2_lowp+0x9e2>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 197,253,111,216 // vmovdqa %ymm0,%ymm3
@@ -44064,8 +45532,8 @@ HIDDEN _sk_set_rgb_hsw_lowp
FUNCTION(_sk_set_rgb_hsw_lowp)
_sk_set_rgb_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,5,71,215,0,0 // vmovss 0xd747(%rip),%xmm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,250,16,21,111,215,0,0 // vmovss 0xd76f(%rip),%xmm2 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 197,122,16,5,135,215,0,0 // vmovss 0xd787(%rip),%xmm8 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,250,16,21,175,215,0,0 // vmovss 0xd7af(%rip),%xmm2 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 197,250,16,0 // vmovss (%rax),%xmm0
.byte 196,226,57,153,194 // vfmadd132ss %xmm2,%xmm8,%xmm0
.byte 197,122,44,192 // vcvttss2si %xmm0,%r8d
@@ -44108,7 +45576,7 @@ HIDDEN _sk_premul_hsw_lowp
FUNCTION(_sk_premul_hsw_lowp)
_sk_premul_hsw_lowp:
.byte 197,229,213,192 // vpmullw %ymm0,%ymm3,%ymm0
- .byte 196,98,125,121,5,2,222,0,0 // vpbroadcastw 0xde02(%rip),%ymm8 # 3aae4 <_sk_srcover_bgra_8888_sse2_lowp+0x9e8>
+ .byte 196,98,125,121,5,62,222,0,0 // vpbroadcastw 0xde3e(%rip),%ymm8 # 3c084 <_sk_srcover_bgra_8888_sse2_lowp+0x9e4>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,229,213,201 // vpmullw %ymm1,%ymm3,%ymm1
@@ -44125,7 +45593,7 @@ HIDDEN _sk_premul_dst_hsw_lowp
FUNCTION(_sk_premul_dst_hsw_lowp)
_sk_premul_dst_hsw_lowp:
.byte 197,197,213,228 // vpmullw %ymm4,%ymm7,%ymm4
- .byte 196,98,125,121,5,205,221,0,0 // vpbroadcastw 0xddcd(%rip),%ymm8 # 3aae6 <_sk_srcover_bgra_8888_sse2_lowp+0x9ea>
+ .byte 196,98,125,121,5,9,222,0,0 // vpbroadcastw 0xde09(%rip),%ymm8 # 3c086 <_sk_srcover_bgra_8888_sse2_lowp+0x9e6>
.byte 196,193,93,253,224 // vpaddw %ymm8,%ymm4,%ymm4
.byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
.byte 197,197,213,237 // vpmullw %ymm5,%ymm7,%ymm5
@@ -44137,6 +45605,22 @@ _sk_premul_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
+HIDDEN _sk_force_opaque_hsw_lowp
+.globl _sk_force_opaque_hsw_lowp
+FUNCTION(_sk_force_opaque_hsw_lowp)
+_sk_force_opaque_hsw_lowp:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,121,29,214,221,0,0 // vpbroadcastw 0xddd6(%rip),%ymm3 # 3c088 <_sk_srcover_bgra_8888_sse2_lowp+0x9e8>
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_force_opaque_dst_hsw_lowp
+.globl _sk_force_opaque_dst_hsw_lowp
+FUNCTION(_sk_force_opaque_dst_hsw_lowp)
+_sk_force_opaque_dst_hsw_lowp:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,121,61,203,221,0,0 // vpbroadcastw 0xddcb(%rip),%ymm7 # 3c08a <_sk_srcover_bgra_8888_sse2_lowp+0x9ea>
+ .byte 255,224 // jmpq *%rax
+
HIDDEN _sk_swap_rb_hsw_lowp
.globl _sk_swap_rb_hsw_lowp
FUNCTION(_sk_swap_rb_hsw_lowp)
@@ -44173,7 +45657,7 @@ HIDDEN _sk_invert_hsw_lowp
.globl _sk_invert_hsw_lowp
FUNCTION(_sk_invert_hsw_lowp)
_sk_invert_hsw_lowp:
- .byte 196,98,125,121,5,100,221,0,0 // vpbroadcastw 0xdd64(%rip),%ymm8 # 3aae8 <_sk_srcover_bgra_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,121,5,138,221,0,0 // vpbroadcastw 0xdd8a(%rip),%ymm8 # 3c08c <_sk_srcover_bgra_8888_sse2_lowp+0x9ec>
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,189,249,201 // vpsubw %ymm1,%ymm8,%ymm1
.byte 197,189,249,210 // vpsubw %ymm2,%ymm8,%ymm2
@@ -44197,7 +45681,7 @@ HIDDEN _sk_srcatop_hsw_lowp
FUNCTION(_sk_srcatop_hsw_lowp)
_sk_srcatop_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,49,221,0,0 // vpbroadcastw 0xdd31(%rip),%ymm8 # 3aaea <_sk_srcover_bgra_8888_sse2_lowp+0x9ee>
+ .byte 196,98,125,121,5,87,221,0,0 // vpbroadcastw 0xdd57(%rip),%ymm8 # 3c08e <_sk_srcover_bgra_8888_sse2_lowp+0x9ee>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,101,213,204 // vpmullw %ymm4,%ymm3,%ymm9
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -44224,7 +45708,7 @@ HIDDEN _sk_dstatop_hsw_lowp
FUNCTION(_sk_dstatop_hsw_lowp)
_sk_dstatop_hsw_lowp:
.byte 197,93,213,195 // vpmullw %ymm3,%ymm4,%ymm8
- .byte 196,98,125,121,13,209,220,0,0 // vpbroadcastw 0xdcd1(%rip),%ymm9 # 3aaec <_sk_srcover_bgra_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,121,13,247,220,0,0 // vpbroadcastw 0xdcf7(%rip),%ymm9 # 3c090 <_sk_srcover_bgra_8888_sse2_lowp+0x9f0>
.byte 197,53,249,215 // vpsubw %ymm7,%ymm9,%ymm10
.byte 197,173,213,192 // vpmullw %ymm0,%ymm10,%ymm0
.byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
@@ -44251,7 +45735,7 @@ HIDDEN _sk_srcin_hsw_lowp
FUNCTION(_sk_srcin_hsw_lowp)
_sk_srcin_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,110,220,0,0 // vpbroadcastw 0xdc6e(%rip),%ymm8 # 3aaee <_sk_srcover_bgra_8888_sse2_lowp+0x9f2>
+ .byte 196,98,125,121,5,148,220,0,0 // vpbroadcastw 0xdc94(%rip),%ymm8 # 3c092 <_sk_srcover_bgra_8888_sse2_lowp+0x9f2>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,197,213,201 // vpmullw %ymm1,%ymm7,%ymm1
@@ -44271,7 +45755,7 @@ HIDDEN _sk_dstin_hsw_lowp
FUNCTION(_sk_dstin_hsw_lowp)
_sk_dstin_hsw_lowp:
.byte 197,221,213,195 // vpmullw %ymm3,%ymm4,%ymm0
- .byte 196,98,125,121,5,43,220,0,0 // vpbroadcastw 0xdc2b(%rip),%ymm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,121,5,81,220,0,0 // vpbroadcastw 0xdc51(%rip),%ymm8 # 3c094 <_sk_srcover_bgra_8888_sse2_lowp+0x9f4>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,203 // vpmullw %ymm3,%ymm5,%ymm1
@@ -44290,7 +45774,7 @@ HIDDEN _sk_srcout_hsw_lowp
.globl _sk_srcout_hsw_lowp
FUNCTION(_sk_srcout_hsw_lowp)
_sk_srcout_hsw_lowp:
- .byte 196,98,125,121,5,236,219,0,0 // vpbroadcastw 0xdbec(%rip),%ymm8 # 3aaf2 <_sk_srcover_bgra_8888_sse2_lowp+0x9f6>
+ .byte 196,98,125,121,5,18,220,0,0 // vpbroadcastw 0xdc12(%rip),%ymm8 # 3c096 <_sk_srcover_bgra_8888_sse2_lowp+0x9f6>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -44311,7 +45795,7 @@ HIDDEN _sk_dstout_hsw_lowp
.globl _sk_dstout_hsw_lowp
FUNCTION(_sk_dstout_hsw_lowp)
_sk_dstout_hsw_lowp:
- .byte 196,98,125,121,5,165,219,0,0 // vpbroadcastw 0xdba5(%rip),%ymm8 # 3aaf4 <_sk_srcover_bgra_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,121,5,203,219,0,0 // vpbroadcastw 0xdbcb(%rip),%ymm8 # 3c098 <_sk_srcover_bgra_8888_sse2_lowp+0x9f8>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,229,213,196 // vpmullw %ymm4,%ymm3,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -44332,7 +45816,7 @@ HIDDEN _sk_srcover_hsw_lowp
.globl _sk_srcover_hsw_lowp
FUNCTION(_sk_srcover_hsw_lowp)
_sk_srcover_hsw_lowp:
- .byte 196,98,125,121,5,94,219,0,0 // vpbroadcastw 0xdb5e(%rip),%ymm8 # 3aaf6 <_sk_srcover_bgra_8888_sse2_lowp+0x9fa>
+ .byte 196,98,125,121,5,132,219,0,0 // vpbroadcastw 0xdb84(%rip),%ymm8 # 3c09a <_sk_srcover_bgra_8888_sse2_lowp+0x9fa>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,45,253,208 // vpaddw %ymm8,%ymm10,%ymm10
@@ -44357,7 +45841,7 @@ HIDDEN _sk_dstover_hsw_lowp
.globl _sk_dstover_hsw_lowp
FUNCTION(_sk_dstover_hsw_lowp)
_sk_dstover_hsw_lowp:
- .byte 196,98,125,121,5,3,219,0,0 // vpbroadcastw 0xdb03(%rip),%ymm8 # 3aaf8 <_sk_srcover_bgra_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,121,5,41,219,0,0 // vpbroadcastw 0xdb29(%rip),%ymm8 # 3c09c <_sk_srcover_bgra_8888_sse2_lowp+0x9fc>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -44383,7 +45867,7 @@ HIDDEN _sk_modulate_hsw_lowp
FUNCTION(_sk_modulate_hsw_lowp)
_sk_modulate_hsw_lowp:
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,168,218,0,0 // vpbroadcastw 0xdaa8(%rip),%ymm8 # 3aafa <_sk_srcover_bgra_8888_sse2_lowp+0x9fe>
+ .byte 196,98,125,121,5,206,218,0,0 // vpbroadcastw 0xdace(%rip),%ymm8 # 3c09e <_sk_srcover_bgra_8888_sse2_lowp+0x9fe>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,201 // vpmullw %ymm1,%ymm5,%ymm1
@@ -44402,7 +45886,7 @@ HIDDEN _sk_multiply_hsw_lowp
.globl _sk_multiply_hsw_lowp
FUNCTION(_sk_multiply_hsw_lowp)
_sk_multiply_hsw_lowp:
- .byte 196,98,125,121,5,105,218,0,0 // vpbroadcastw 0xda69(%rip),%ymm8 # 3aafc <_sk_srcover_bgra_8888_sse2_lowp+0xa00>
+ .byte 196,98,125,121,5,143,218,0,0 // vpbroadcastw 0xda8f(%rip),%ymm8 # 3c0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xa00>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,93,253,216 // vpaddw %ymm8,%ymm4,%ymm11
@@ -44438,7 +45922,7 @@ HIDDEN _sk_plus__hsw_lowp
FUNCTION(_sk_plus__hsw_lowp)
_sk_plus__hsw_lowp:
.byte 197,221,253,192 // vpaddw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,223,217,0,0 // vpbroadcastw 0xd9df(%rip),%ymm8 # 3aafe <_sk_srcover_bgra_8888_sse2_lowp+0xa02>
+ .byte 196,98,125,121,5,5,218,0,0 // vpbroadcastw 0xda05(%rip),%ymm8 # 3c0a2 <_sk_srcover_bgra_8888_sse2_lowp+0xa02>
.byte 196,194,125,58,192 // vpminuw %ymm8,%ymm0,%ymm0
.byte 197,213,253,201 // vpaddw %ymm1,%ymm5,%ymm1
.byte 196,194,117,58,200 // vpminuw %ymm8,%ymm1,%ymm1
@@ -44455,7 +45939,7 @@ FUNCTION(_sk_screen_hsw_lowp)
_sk_screen_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,172,217,0,0 // vpbroadcastw 0xd9ac(%rip),%ymm9 # 3ab00 <_sk_srcover_bgra_8888_sse2_lowp+0xa04>
+ .byte 196,98,125,121,13,210,217,0,0 // vpbroadcastw 0xd9d2(%rip),%ymm9 # 3c0a4 <_sk_srcover_bgra_8888_sse2_lowp+0xa04>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -44481,7 +45965,7 @@ HIDDEN _sk_xor__hsw_lowp
.globl _sk_xor__hsw_lowp
FUNCTION(_sk_xor__hsw_lowp)
_sk_xor__hsw_lowp:
- .byte 196,98,125,121,5,81,217,0,0 // vpbroadcastw 0xd951(%rip),%ymm8 # 3ab02 <_sk_srcover_bgra_8888_sse2_lowp+0xa06>
+ .byte 196,98,125,121,5,119,217,0,0 // vpbroadcastw 0xd977(%rip),%ymm8 # 3c0a6 <_sk_srcover_bgra_8888_sse2_lowp+0xa06>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 197,61,249,211 // vpsubw %ymm3,%ymm8,%ymm10
@@ -44515,7 +45999,7 @@ _sk_darken_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,62,193 // vpmaxuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,213,216,0,0 // vpbroadcastw 0xd8d5(%rip),%ymm9 # 3ab04 <_sk_srcover_bgra_8888_sse2_lowp+0xa08>
+ .byte 196,98,125,121,13,251,216,0,0 // vpbroadcastw 0xd8fb(%rip),%ymm9 # 3c0a8 <_sk_srcover_bgra_8888_sse2_lowp+0xa08>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -44549,7 +46033,7 @@ _sk_lighten_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,86,216,0,0 // vpbroadcastw 0xd856(%rip),%ymm9 # 3ab06 <_sk_srcover_bgra_8888_sse2_lowp+0xa0a>
+ .byte 196,98,125,121,13,124,216,0,0 // vpbroadcastw 0xd87c(%rip),%ymm9 # 3c0aa <_sk_srcover_bgra_8888_sse2_lowp+0xa0a>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -44583,10 +46067,10 @@ _sk_difference_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,215,215,0,0 // vpbroadcastw 0xd7d7(%rip),%ymm9 # 3ab08 <_sk_srcover_bgra_8888_sse2_lowp+0xa0c>
+ .byte 196,98,125,121,13,253,215,0,0 // vpbroadcastw 0xd7fd(%rip),%ymm9 # 3c0ac <_sk_srcover_bgra_8888_sse2_lowp+0xa0c>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,198,215,0,0 // vpbroadcastw 0xd7c6(%rip),%ymm10 # 3ab0a <_sk_srcover_bgra_8888_sse2_lowp+0xa0e>
+ .byte 196,98,125,121,21,236,215,0,0 // vpbroadcastw 0xd7ec(%rip),%ymm10 # 3c0ae <_sk_srcover_bgra_8888_sse2_lowp+0xa0e>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -44619,10 +46103,10 @@ FUNCTION(_sk_exclusion_hsw_lowp)
_sk_exclusion_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,75,215,0,0 // vpbroadcastw 0xd74b(%rip),%ymm9 # 3ab0c <_sk_srcover_bgra_8888_sse2_lowp+0xa10>
+ .byte 196,98,125,121,13,113,215,0,0 // vpbroadcastw 0xd771(%rip),%ymm9 # 3c0b0 <_sk_srcover_bgra_8888_sse2_lowp+0xa10>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,58,215,0,0 // vpbroadcastw 0xd73a(%rip),%ymm10 # 3ab0e <_sk_srcover_bgra_8888_sse2_lowp+0xa12>
+ .byte 196,98,125,121,21,96,215,0,0 // vpbroadcastw 0xd760(%rip),%ymm10 # 3c0b2 <_sk_srcover_bgra_8888_sse2_lowp+0xa12>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -44650,7 +46134,7 @@ HIDDEN _sk_hardlight_hsw_lowp
FUNCTION(_sk_hardlight_hsw_lowp)
_sk_hardlight_hsw_lowp:
.byte 197,125,253,192 // vpaddw %ymm0,%ymm0,%ymm8
- .byte 196,98,125,121,13,215,214,0,0 // vpbroadcastw 0xd6d7(%rip),%ymm9 # 3ab12 <_sk_srcover_bgra_8888_sse2_lowp+0xa16>
+ .byte 196,98,125,121,13,253,214,0,0 // vpbroadcastw 0xd6fd(%rip),%ymm9 # 3c0b6 <_sk_srcover_bgra_8888_sse2_lowp+0xa16>
.byte 196,65,101,239,209 // vpxor %ymm9,%ymm3,%ymm10
.byte 196,65,61,239,217 // vpxor %ymm9,%ymm8,%ymm11
.byte 196,65,37,101,218 // vpcmpgtw %ymm10,%ymm11,%ymm11
@@ -44678,7 +46162,7 @@ _sk_hardlight_hsw_lowp:
.byte 197,101,249,210 // vpsubw %ymm2,%ymm3,%ymm10
.byte 197,69,249,246 // vpsubw %ymm6,%ymm7,%ymm14
.byte 196,65,45,213,214 // vpmullw %ymm14,%ymm10,%ymm10
- .byte 196,98,125,121,53,78,214,0,0 // vpbroadcastw 0xd64e(%rip),%ymm14 # 3ab10 <_sk_srcover_bgra_8888_sse2_lowp+0xa14>
+ .byte 196,98,125,121,53,116,214,0,0 // vpbroadcastw 0xd674(%rip),%ymm14 # 3c0b4 <_sk_srcover_bgra_8888_sse2_lowp+0xa14>
.byte 196,65,45,253,210 // vpaddw %ymm10,%ymm10,%ymm10
.byte 196,65,61,249,194 // vpsubw %ymm10,%ymm8,%ymm8
.byte 197,13,249,215 // vpsubw %ymm7,%ymm14,%ymm10
@@ -44715,7 +46199,7 @@ HIDDEN _sk_overlay_hsw_lowp
FUNCTION(_sk_overlay_hsw_lowp)
_sk_overlay_hsw_lowp:
.byte 197,93,253,196 // vpaddw %ymm4,%ymm4,%ymm8
- .byte 196,98,125,121,13,195,213,0,0 // vpbroadcastw 0xd5c3(%rip),%ymm9 # 3ab16 <_sk_srcover_bgra_8888_sse2_lowp+0xa1a>
+ .byte 196,98,125,121,13,233,213,0,0 // vpbroadcastw 0xd5e9(%rip),%ymm9 # 3c0ba <_sk_srcover_bgra_8888_sse2_lowp+0xa1a>
.byte 196,65,69,239,209 // vpxor %ymm9,%ymm7,%ymm10
.byte 196,65,61,239,193 // vpxor %ymm9,%ymm8,%ymm8
.byte 196,65,61,101,218 // vpcmpgtw %ymm10,%ymm8,%ymm11
@@ -44739,7 +46223,7 @@ _sk_overlay_hsw_lowp:
.byte 196,65,21,253,237 // vpaddw %ymm13,%ymm13,%ymm13
.byte 196,65,61,249,237 // vpsubw %ymm13,%ymm8,%ymm13
.byte 196,67,13,76,229,192 // vpblendvb %ymm12,%ymm13,%ymm14,%ymm12
- .byte 196,98,125,121,45,75,213,0,0 // vpbroadcastw 0xd54b(%rip),%ymm13 # 3ab14 <_sk_srcover_bgra_8888_sse2_lowp+0xa18>
+ .byte 196,98,125,121,45,113,213,0,0 // vpbroadcastw 0xd571(%rip),%ymm13 # 3c0b8 <_sk_srcover_bgra_8888_sse2_lowp+0xa18>
.byte 197,77,253,246 // vpaddw %ymm6,%ymm6,%ymm14
.byte 196,65,13,239,201 // vpxor %ymm9,%ymm14,%ymm9
.byte 196,65,53,101,202 // vpcmpgtw %ymm10,%ymm9,%ymm9
@@ -44791,10 +46275,10 @@ _sk_load_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2d6bf <_sk_load_8888_hsw_lowp+0x52>
+ .byte 119,55 // ja 2ec3d <_sk_load_8888_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,162,1,0,0 // lea 0x1a2(%rip),%r9 # 2d838 <_sk_load_8888_hsw_lowp+0x1cb>
+ .byte 76,141,13,160,1,0,0 // lea 0x1a0(%rip),%r9 # 2edb4 <_sk_load_8888_hsw_lowp+0x1c9>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44804,10 +46288,10 @@ _sk_load_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2d7e6 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2ed64 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2d7e6 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2ed64 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -44816,7 +46300,7 @@ _sk_load_8888_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2d7e6 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2ed64 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44832,7 +46316,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2d7e6 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2ed64 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44842,7 +46326,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2d7e6 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2ed64 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44862,7 +46346,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,227,101,14,200,170 // vpblendw $0xaa,%ymm0,%ymm3,%ymm1
.byte 196,227,109,14,192,170 // vpblendw $0xaa,%ymm0,%ymm2,%ymm0
.byte 196,226,125,43,201 // vpackusdw %ymm1,%ymm0,%ymm1
- .byte 197,125,111,5,17,211,0,0 // vmovdqa 0xd311(%rip),%ymm8 # 3ab20 <_sk_srcover_bgra_8888_sse2_lowp+0xa24>
+ .byte 197,125,111,5,51,211,0,0 // vmovdqa 0xd333(%rip),%ymm8 # 3c0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xa20>
.byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3
@@ -44872,39 +46356,40 @@ _sk_load_8888_hsw_lowp:
.byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
- .byte 102,144 // xchg %ax,%ax
- .byte 120,254 // js 2d838 <_sk_load_8888_hsw_lowp+0x1cb>
+ .byte 122,254 // jp 2edb4 <_sk_load_8888_hsw_lowp+0x1c9>
.byte 255 // (bad)
- .byte 255,175,254,255,255,153 // ljmp *-0x66000002(%rdi)
+ .byte 255,177,254,255,255,155 // pushq -0x64000002(%rcx)
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,15 // decl (%rdi)
+ .byte 255,17 // callq *(%rcx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,247 // push %rdi
- .byte 254 // (bad)
.byte 255 // (bad)
+ .byte 249 // stc
+ .byte 254 // (bad)
.byte 255 // (bad)
- .byte 223,254 // (bad)
+ .byte 255,225 // jmpq *%rcx
+ .byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,201 // dec %ecx
+ .byte 255,203 // dec %ebx
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,85,255 // callq *-0x1(%rbp)
+ .byte 255,87,255 // callq *-0x1(%rdi)
.byte 255 // (bad)
- .byte 255,72,255 // decl -0x1(%rax)
+ .byte 255,74,255 // decl -0x1(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 58,255 // cmp %bh,%bh
+ .byte 60,255 // cmp $0xff,%al
.byte 255 // (bad)
- .byte 255,36,255 // jmpq *(%rdi,%rdi,8)
+ .byte 255,38 // jmpq *(%rsi)
.byte 255 // (bad)
- .byte 255,155,255,255,255,135 // lcall *-0x78000001(%rbx)
.byte 255 // (bad)
+ .byte 255,157,255,255,255,137 // lcall *-0x76000001(%rbp)
.byte 255 // (bad)
- .byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
- .byte 255,93,255 // lcall *-0x1(%rbp)
+ .byte 255,117,255 // pushq -0x1(%rbp)
+ .byte 255 // (bad)
+ .byte 255,95,255 // lcall *-0x1(%rdi)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -44921,10 +46406,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2d8c6 <_sk_load_8888_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 2ee42 <_sk_load_8888_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2da40 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2efbc <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44934,10 +46419,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2d9ed <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2ef69 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2d9ed <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2ef69 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -44946,7 +46431,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2d9ed <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2ef69 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44962,7 +46447,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2d9ed <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2ef69 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44972,7 +46457,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2d9ed <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2ef69 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44992,7 +46477,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,42,209,0,0 // vmovdqa 0xd12a(%rip),%ymm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xa44>
+ .byte 197,125,111,5,78,209,0,0 // vmovdqa 0xd14e(%rip),%ymm8 # 3c0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xa40>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
@@ -45003,7 +46488,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2da40 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2efbc <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -45064,20 +46549,20 @@ _sk_store_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2dafd <_sk_store_8888_hsw_lowp+0x81>
+ .byte 119,30 // ja 2f079 <_sk_store_8888_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2dbac <_sk_store_8888_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2f128 <_sk_store_8888_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2dba8 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 2f124 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2dba8 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 2f124 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2dba8 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 2f124 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -45085,12 +46570,12 @@ _sk_store_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2dba8 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 2f124 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2dba8 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 2f124 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -45147,10 +46632,10 @@ _sk_load_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2dc3a <_sk_load_bgra_hsw_lowp+0x52>
+ .byte 119,55 // ja 2f1b6 <_sk_load_bgra_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2ddb4 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2f330 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -45160,10 +46645,10 @@ _sk_load_bgra_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2dd61 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2f2dd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2dd61 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2f2dd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -45172,7 +46657,7 @@ _sk_load_bgra_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2dd61 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2f2dd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -45188,7 +46673,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2dd61 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2f2dd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -45198,7 +46683,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2dd61 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2f2dd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -45218,7 +46703,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,227,125,14,209,170 // vpblendw $0xaa,%ymm1,%ymm0,%ymm2
.byte 196,227,101,14,201,170 // vpblendw $0xaa,%ymm1,%ymm3,%ymm1
.byte 196,226,117,43,202 // vpackusdw %ymm2,%ymm1,%ymm1
- .byte 197,125,111,5,214,205,0,0 // vmovdqa 0xcdd6(%rip),%ymm8 # 3ab60 <_sk_srcover_bgra_8888_sse2_lowp+0xa64>
+ .byte 197,125,111,5,250,205,0,0 // vmovdqa 0xcdfa(%rip),%ymm8 # 3c100 <_sk_srcover_bgra_8888_sse2_lowp+0xa60>
.byte 196,193,117,219,208 // vpand %ymm8,%ymm1,%ymm2
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0
@@ -45229,7 +46714,7 @@ _sk_load_bgra_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2ddb4 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2f330 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -45276,10 +46761,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2de42 <_sk_load_bgra_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 2f3be <_sk_load_bgra_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2dfbc <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2f538 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -45289,10 +46774,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2df69 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2f4e5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2df69 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2f4e5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -45301,7 +46786,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2df69 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2f4e5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -45317,7 +46802,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2df69 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2f4e5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -45327,7 +46812,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2df69 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2f4e5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -45347,7 +46832,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6
.byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5
.byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5
- .byte 197,125,111,5,238,203,0,0 // vmovdqa 0xcbee(%rip),%ymm8 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xa84>
+ .byte 197,125,111,5,18,204,0,0 // vmovdqa 0xcc12(%rip),%ymm8 # 3c120 <_sk_srcover_bgra_8888_sse2_lowp+0xa80>
.byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4
@@ -45358,7 +46843,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2dfbc <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2f538 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -45419,20 +46904,20 @@ _sk_store_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2e079 <_sk_store_bgra_hsw_lowp+0x81>
+ .byte 119,30 // ja 2f5f5 <_sk_store_bgra_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2e128 <_sk_store_bgra_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2f6a4 <_sk_store_bgra_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2e124 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 2f6a0 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2e124 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 2f6a0 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2e124 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 2f6a0 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -45440,12 +46925,12 @@ _sk_store_bgra_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2e124 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 2f6a0 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2e124 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 2f6a0 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -45528,7 +47013,7 @@ _sk_gather_8888_hsw_lowp:
.byte 196,195,101,14,194,170 // vpblendw $0xaa,%ymm10,%ymm3,%ymm0
.byte 196,195,109,14,202,170 // vpblendw $0xaa,%ymm10,%ymm2,%ymm1
.byte 196,226,117,43,200 // vpackusdw %ymm0,%ymm1,%ymm1
- .byte 197,125,111,5,138,201,0,0 // vmovdqa 0xc98a(%rip),%ymm8 # 3aba0 <_sk_srcover_bgra_8888_sse2_lowp+0xaa4>
+ .byte 197,125,111,5,174,201,0,0 // vmovdqa 0xc9ae(%rip),%ymm8 # 3c140 <_sk_srcover_bgra_8888_sse2_lowp+0xaa0>
.byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3
@@ -45578,7 +47063,7 @@ _sk_gather_bgra_hsw_lowp:
.byte 196,195,125,14,202,170 // vpblendw $0xaa,%ymm10,%ymm0,%ymm1
.byte 196,195,61,14,210,170 // vpblendw $0xaa,%ymm10,%ymm8,%ymm2
.byte 196,226,109,43,201 // vpackusdw %ymm1,%ymm2,%ymm1
- .byte 197,253,111,29,209,200,0,0 // vmovdqa 0xc8d1(%rip),%ymm3 # 3abc0 <_sk_srcover_bgra_8888_sse2_lowp+0xac4>
+ .byte 197,253,111,29,245,200,0,0 // vmovdqa 0xc8f5(%rip),%ymm3 # 3c160 <_sk_srcover_bgra_8888_sse2_lowp+0xac0>
.byte 197,245,219,211 // vpand %ymm3,%ymm1,%ymm2
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0
@@ -45602,24 +47087,24 @@ _sk_load_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2e355 <_sk_load_565_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2f8d1 <_sk_load_565_hsw_lowp+0x3f>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,130,1,0,0 // lea 0x182(%rip),%r9 # 2e4c0 <_sk_load_565_hsw_lowp+0x1aa>
+ .byte 76,141,13,130,1,0,0 // lea 0x182(%rip),%r9 # 2fa3c <_sk_load_565_hsw_lowp+0x1aa>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,8,1,0,0 // jmpq 2e45d <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2f9d9 <_sk_load_565_hsw_lowp+0x147>
.byte 196,193,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm0
- .byte 233,253,0,0,0 // jmpq 2e45d <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2f9d9 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
.byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
- .byte 233,218,0,0,0 // jmpq 2e45d <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2f9d9 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
@@ -45629,7 +47114,7 @@ _sk_load_565_hsw_lowp:
.byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
.byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm0
- .byte 233,155,0,0,0 // jmpq 2e45d <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2f9d9 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -45641,7 +47126,7 @@ _sk_load_565_hsw_lowp:
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
.byte 196,193,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm1
.byte 196,227,117,2,192,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm0
- .byte 235,83 // jmp 2e45d <_sk_load_565_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2f9d9 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -45655,13 +47140,13 @@ _sk_load_565_hsw_lowp:
.byte 196,193,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm2
.byte 196,227,109,56,201,1 // vinserti128 $0x1,%xmm1,%ymm2,%ymm1
.byte 196,227,117,2,192,192 // vpblendd $0xc0,%ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,122,199,0,0 // vpbroadcastw 0xc77a(%rip),%ymm1 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xae4>
+ .byte 196,226,125,121,13,158,199,0,0 // vpbroadcastw 0xc79e(%rip),%ymm1 # 3c180 <_sk_srcover_bgra_8888_sse2_lowp+0xae0>
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,237,113,208,5 // vpsrlw $0x5,%ymm0,%ymm2
- .byte 196,226,125,121,29,101,199,0,0 // vpbroadcastw 0xc765(%rip),%ymm3 # 3abe2 <_sk_srcover_bgra_8888_sse2_lowp+0xae6>
+ .byte 196,226,125,121,29,137,199,0,0 // vpbroadcastw 0xc789(%rip),%ymm3 # 3c182 <_sk_srcover_bgra_8888_sse2_lowp+0xae2>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 196,226,125,121,29,90,199,0,0 // vpbroadcastw 0xc75a(%rip),%ymm3 # 3abe4 <_sk_srcover_bgra_8888_sse2_lowp+0xae8>
+ .byte 196,226,125,121,29,126,199,0,0 // vpbroadcastw 0xc77e(%rip),%ymm3 # 3c184 <_sk_srcover_bgra_8888_sse2_lowp+0xae4>
.byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3
.byte 197,253,113,208,13 // vpsrlw $0xd,%ymm0,%ymm0
.byte 197,245,235,192 // vpor %ymm0,%ymm1,%ymm0
@@ -45672,7 +47157,7 @@ _sk_load_565_hsw_lowp:
.byte 197,229,113,211,2 // vpsrlw $0x2,%ymm3,%ymm3
.byte 197,237,235,211 // vpor %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,40,199,0,0 // vpbroadcastw 0xc728(%rip),%ymm3 # 3abe6 <_sk_srcover_bgra_8888_sse2_lowp+0xaea>
+ .byte 196,226,125,121,29,76,199,0,0 // vpbroadcastw 0xc74c(%rip),%ymm3 # 3c186 <_sk_srcover_bgra_8888_sse2_lowp+0xae6>
.byte 255,224 // jmpq *%rax
.byte 135,254 // xchg %edi,%esi
.byte 255 // (bad)
@@ -45722,24 +47207,24 @@ _sk_load_565_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2e53b <_sk_load_565_dst_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2fab7 <_sk_load_565_dst_hsw_lowp+0x3f>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2e6a8 <_sk_load_565_dst_hsw_lowp+0x1ac>
+ .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2fc24 <_sk_load_565_dst_hsw_lowp+0x1ac>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,8,1,0,0 // jmpq 2e643 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2fbbf <_sk_load_565_dst_hsw_lowp+0x147>
.byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4
- .byte 233,253,0,0,0 // jmpq 2e643 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2fbbf <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 233,218,0,0,0 // jmpq 2e643 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2fbbf <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
@@ -45749,7 +47234,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4
- .byte 233,155,0,0,0 // jmpq 2e643 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2fbbf <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -45761,7 +47246,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
.byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5
.byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- .byte 235,83 // jmp 2e643 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2fbbf <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -45775,13 +47260,13 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,193,122,111,52,80 // vmovdqu (%r8,%rdx,2),%xmm6
.byte 196,227,77,56,237,1 // vinserti128 $0x1,%xmm5,%ymm6,%ymm5
.byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4
- .byte 196,226,125,121,45,156,197,0,0 // vpbroadcastw 0xc59c(%rip),%ymm5 # 3abe8 <_sk_srcover_bgra_8888_sse2_lowp+0xaec>
+ .byte 196,226,125,121,45,192,197,0,0 // vpbroadcastw 0xc5c0(%rip),%ymm5 # 3c188 <_sk_srcover_bgra_8888_sse2_lowp+0xae8>
.byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,205,113,212,5 // vpsrlw $0x5,%ymm4,%ymm6
- .byte 196,226,125,121,61,135,197,0,0 // vpbroadcastw 0xc587(%rip),%ymm7 # 3abea <_sk_srcover_bgra_8888_sse2_lowp+0xaee>
+ .byte 196,226,125,121,61,171,197,0,0 // vpbroadcastw 0xc5ab(%rip),%ymm7 # 3c18a <_sk_srcover_bgra_8888_sse2_lowp+0xaea>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
- .byte 196,226,125,121,61,124,197,0,0 // vpbroadcastw 0xc57c(%rip),%ymm7 # 3abec <_sk_srcover_bgra_8888_sse2_lowp+0xaf0>
+ .byte 196,226,125,121,61,160,197,0,0 // vpbroadcastw 0xc5a0(%rip),%ymm7 # 3c18c <_sk_srcover_bgra_8888_sse2_lowp+0xaec>
.byte 197,221,219,255 // vpand %ymm7,%ymm4,%ymm7
.byte 197,221,113,212,13 // vpsrlw $0xd,%ymm4,%ymm4
.byte 197,213,235,228 // vpor %ymm4,%ymm5,%ymm4
@@ -45792,7 +47277,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 197,197,113,215,2 // vpsrlw $0x2,%ymm7,%ymm7
.byte 197,205,235,247 // vpor %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,74,197,0,0 // vpbroadcastw 0xc54a(%rip),%ymm7 # 3abee <_sk_srcover_bgra_8888_sse2_lowp+0xaf2>
+ .byte 196,226,125,121,61,110,197,0,0 // vpbroadcastw 0xc56e(%rip),%ymm7 # 3c18e <_sk_srcover_bgra_8888_sse2_lowp+0xaee>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 133,254 // test %edi,%esi
@@ -45843,10 +47328,10 @@ _sk_store_565_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
- .byte 196,98,125,121,5,243,196,0,0 // vpbroadcastw 0xc4f3(%rip),%ymm8 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xaf4>
+ .byte 196,98,125,121,5,23,197,0,0 // vpbroadcastw 0xc517(%rip),%ymm8 # 3c190 <_sk_srcover_bgra_8888_sse2_lowp+0xaf0>
.byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9
.byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,226,196,0,0 // vpbroadcastw 0xc4e2(%rip),%ymm9 # 3abf2 <_sk_srcover_bgra_8888_sse2_lowp+0xaf6>
+ .byte 196,98,125,121,13,6,197,0,0 // vpbroadcastw 0xc506(%rip),%ymm9 # 3c192 <_sk_srcover_bgra_8888_sse2_lowp+0xaf2>
.byte 197,173,113,241,3 // vpsllw $0x3,%ymm1,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -45856,31 +47341,31 @@ _sk_store_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,31 // ja 2e752 <_sk_store_565_hsw_lowp+0x6e>
+ .byte 119,31 // ja 2fcce <_sk_store_565_hsw_lowp+0x6e>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2e800 <_sk_store_565_hsw_lowp+0x11c>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2fd7c <_sk_store_565_hsw_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 233,167,0,0,0 // jmpq 2e7f9 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,167,0,0,0 // jmpq 2fd75 <_sk_store_565_hsw_lowp+0x115>
.byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2)
- .byte 233,156,0,0,0 // jmpq 2e7f9 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,156,0,0,0 // jmpq 2fd75 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 233,137,0,0,0 // jmpq 2e7f9 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,137,0,0,0 // jmpq 2fd75 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,105 // jmp 2e7f9 <_sk_store_565_hsw_lowp+0x115>
+ .byte 235,105 // jmp 2fd75 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- .byte 235,55 // jmp 2e7f3 <_sk_store_565_hsw_lowp+0x10f>
+ .byte 235,55 // jmp 2fd6f <_sk_store_565_hsw_lowp+0x10f>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -45903,7 +47388,7 @@ _sk_store_565_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 120,255 // js 2e815 <_sk_store_565_hsw_lowp+0x131>
+ .byte 120,255 // js 2fd91 <_sk_store_565_hsw_lowp+0x131>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -46015,13 +47500,13 @@ _sk_gather_565_hsw_lowp:
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,226,125,121,13,38,194,0,0 // vpbroadcastw 0xc226(%rip),%ymm1 # 3abf4 <_sk_srcover_bgra_8888_sse2_lowp+0xaf8>
+ .byte 196,226,125,121,13,74,194,0,0 // vpbroadcastw 0xc24a(%rip),%ymm1 # 3c194 <_sk_srcover_bgra_8888_sse2_lowp+0xaf4>
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,237,113,208,5 // vpsrlw $0x5,%ymm0,%ymm2
- .byte 196,226,125,121,29,17,194,0,0 // vpbroadcastw 0xc211(%rip),%ymm3 # 3abf6 <_sk_srcover_bgra_8888_sse2_lowp+0xafa>
+ .byte 196,226,125,121,29,53,194,0,0 // vpbroadcastw 0xc235(%rip),%ymm3 # 3c196 <_sk_srcover_bgra_8888_sse2_lowp+0xaf6>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 196,226,125,121,29,6,194,0,0 // vpbroadcastw 0xc206(%rip),%ymm3 # 3abf8 <_sk_srcover_bgra_8888_sse2_lowp+0xafc>
+ .byte 196,226,125,121,29,42,194,0,0 // vpbroadcastw 0xc22a(%rip),%ymm3 # 3c198 <_sk_srcover_bgra_8888_sse2_lowp+0xaf8>
.byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3
.byte 197,253,113,208,13 // vpsrlw $0xd,%ymm0,%ymm0
.byte 197,245,235,192 // vpor %ymm0,%ymm1,%ymm0
@@ -46032,7 +47517,7 @@ _sk_gather_565_hsw_lowp:
.byte 197,229,113,211,2 // vpsrlw $0x2,%ymm3,%ymm3
.byte 197,237,235,211 // vpor %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,212,193,0,0 // vpbroadcastw 0xc1d4(%rip),%ymm3 # 3abfa <_sk_srcover_bgra_8888_sse2_lowp+0xafe>
+ .byte 196,226,125,121,29,248,193,0,0 // vpbroadcastw 0xc1f8(%rip),%ymm3 # 3c19a <_sk_srcover_bgra_8888_sse2_lowp+0xafa>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_load_4444_hsw_lowp
@@ -46048,24 +47533,24 @@ _sk_load_4444_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2ea67 <_sk_load_4444_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2ffe3 <_sk_load_4444_hsw_lowp+0x3f>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2ebc0 <_sk_load_4444_hsw_lowp+0x198>
+ .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 3013c <_sk_load_4444_hsw_lowp+0x198>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,8,1,0,0 // jmpq 2eb6f <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 300eb <_sk_load_4444_hsw_lowp+0x147>
.byte 196,193,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm0
- .byte 233,253,0,0,0 // jmpq 2eb6f <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 300eb <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
.byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
- .byte 233,218,0,0,0 // jmpq 2eb6f <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 300eb <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
@@ -46075,7 +47560,7 @@ _sk_load_4444_hsw_lowp:
.byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
.byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm0
- .byte 233,155,0,0,0 // jmpq 2eb6f <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 300eb <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -46087,7 +47572,7 @@ _sk_load_4444_hsw_lowp:
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
.byte 196,193,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm1
.byte 196,227,117,2,192,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm0
- .byte 235,83 // jmp 2eb6f <_sk_load_4444_hsw_lowp+0x147>
+ .byte 235,83 // jmp 300eb <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -46103,7 +47588,7 @@ _sk_load_4444_hsw_lowp:
.byte 196,227,117,2,192,192 // vpblendd $0xc0,%ymm0,%ymm1,%ymm0
.byte 197,245,113,208,12 // vpsrlw $0xc,%ymm0,%ymm1
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
- .byte 196,226,125,121,29,122,192,0,0 // vpbroadcastw 0xc07a(%rip),%ymm3 # 3abfc <_sk_srcover_bgra_8888_sse2_lowp+0xb00>
+ .byte 196,226,125,121,29,158,192,0,0 // vpbroadcastw 0xc09e(%rip),%ymm3 # 3c19c <_sk_srcover_bgra_8888_sse2_lowp+0xafc>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,189,113,208,4 // vpsrlw $0x4,%ymm0,%ymm8
.byte 197,61,219,195 // vpand %ymm3,%ymm8,%ymm8
@@ -46168,24 +47653,24 @@ _sk_load_4444_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2ec3b <_sk_load_4444_dst_hsw_lowp+0x3f>
+ .byte 119,37 // ja 301b7 <_sk_load_4444_dst_hsw_lowp+0x3f>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2ed94 <_sk_load_4444_dst_hsw_lowp+0x198>
+ .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 30310 <_sk_load_4444_dst_hsw_lowp+0x198>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,8,1,0,0 // jmpq 2ed43 <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 302bf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4
- .byte 233,253,0,0,0 // jmpq 2ed43 <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 302bf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 233,218,0,0,0 // jmpq 2ed43 <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 302bf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
@@ -46195,7 +47680,7 @@ _sk_load_4444_dst_hsw_lowp:
.byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4
- .byte 233,155,0,0,0 // jmpq 2ed43 <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 302bf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -46207,7 +47692,7 @@ _sk_load_4444_dst_hsw_lowp:
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
.byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5
.byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- .byte 235,83 // jmp 2ed43 <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 235,83 // jmp 302bf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -46223,7 +47708,7 @@ _sk_load_4444_dst_hsw_lowp:
.byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4
.byte 197,213,113,212,12 // vpsrlw $0xc,%ymm4,%ymm5
.byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6
- .byte 196,226,125,121,61,168,190,0,0 // vpbroadcastw 0xbea8(%rip),%ymm7 # 3abfe <_sk_srcover_bgra_8888_sse2_lowp+0xb02>
+ .byte 196,226,125,121,61,204,190,0,0 // vpbroadcastw 0xbecc(%rip),%ymm7 # 3c19e <_sk_srcover_bgra_8888_sse2_lowp+0xafe>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
.byte 197,189,113,212,4 // vpsrlw $0x4,%ymm4,%ymm8
.byte 197,61,219,199 // vpand %ymm7,%ymm8,%ymm8
@@ -46284,13 +47769,13 @@ _sk_store_4444_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
- .byte 196,98,125,121,5,23,190,0,0 // vpbroadcastw 0xbe17(%rip),%ymm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xb04>
+ .byte 196,98,125,121,5,59,190,0,0 // vpbroadcastw 0xbe3b(%rip),%ymm8 # 3c1a0 <_sk_srcover_bgra_8888_sse2_lowp+0xb00>
.byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9
.byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
.byte 197,181,113,241,4 // vpsllw $0x4,%ymm1,%ymm9
- .byte 197,53,219,13,32,190,0,0 // vpand 0xbe20(%rip),%ymm9,%ymm9 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xb24>
+ .byte 197,53,219,13,68,190,0,0 // vpand 0xbe44(%rip),%ymm9,%ymm9 # 3c1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xb20>
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,50,190,0,0 // vpbroadcastw 0xbe32(%rip),%ymm9 # 3ac40 <_sk_srcover_bgra_8888_sse2_lowp+0xb44>
+ .byte 196,98,125,121,13,86,190,0,0 // vpbroadcastw 0xbe56(%rip),%ymm9 # 3c1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xb40>
.byte 196,65,109,219,201 // vpand %ymm9,%ymm2,%ymm9
.byte 197,173,113,211,4 // vpsrlw $0x4,%ymm3,%ymm10
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
@@ -46299,31 +47784,31 @@ _sk_store_4444_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,31 // ja 2ee4b <_sk_store_4444_hsw_lowp+0x7b>
+ .byte 119,31 // ja 303c7 <_sk_store_4444_hsw_lowp+0x7b>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,194,0,0,0 // lea 0xc2(%rip),%r9 # 2eef8 <_sk_store_4444_hsw_lowp+0x128>
+ .byte 76,141,13,194,0,0,0 // lea 0xc2(%rip),%r9 # 30474 <_sk_store_4444_hsw_lowp+0x128>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 233,167,0,0,0 // jmpq 2eef2 <_sk_store_4444_hsw_lowp+0x122>
+ .byte 233,167,0,0,0 // jmpq 3046e <_sk_store_4444_hsw_lowp+0x122>
.byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2)
- .byte 233,156,0,0,0 // jmpq 2eef2 <_sk_store_4444_hsw_lowp+0x122>
+ .byte 233,156,0,0,0 // jmpq 3046e <_sk_store_4444_hsw_lowp+0x122>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 233,137,0,0,0 // jmpq 2eef2 <_sk_store_4444_hsw_lowp+0x122>
+ .byte 233,137,0,0,0 // jmpq 3046e <_sk_store_4444_hsw_lowp+0x122>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,105 // jmp 2eef2 <_sk_store_4444_hsw_lowp+0x122>
+ .byte 235,105 // jmp 3046e <_sk_store_4444_hsw_lowp+0x122>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- .byte 235,55 // jmp 2eeec <_sk_store_4444_hsw_lowp+0x11c>
+ .byte 235,55 // jmp 30468 <_sk_store_4444_hsw_lowp+0x11c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -46346,7 +47831,7 @@ _sk_store_4444_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 121,255 // jns 2ef0d <_sk_store_4444_hsw_lowp+0x13d>
+ .byte 121,255 // jns 30489 <_sk_store_4444_hsw_lowp+0x13d>
.byte 255 // (bad)
.byte 255,113,255 // pushq -0x1(%rcx)
.byte 255 // (bad)
@@ -46461,7 +47946,7 @@ _sk_gather_4444_hsw_lowp:
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,245,113,208,12 // vpsrlw $0xc,%ymm0,%ymm1
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
- .byte 196,226,125,121,29,114,187,0,0 // vpbroadcastw 0xbb72(%rip),%ymm3 # 3ac42 <_sk_srcover_bgra_8888_sse2_lowp+0xb46>
+ .byte 196,226,125,121,29,150,187,0,0 // vpbroadcastw 0xbb96(%rip),%ymm3 # 3c1e2 <_sk_srcover_bgra_8888_sse2_lowp+0xb42>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,189,113,208,4 // vpsrlw $0x4,%ymm0,%ymm8
.byte 197,61,219,195 // vpand %ymm3,%ymm8,%ymm8
@@ -46489,38 +47974,38 @@ _sk_load_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2f147 <_sk_load_a8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 306c3 <_sk_load_a8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,220,0,0,0 // lea 0xdc(%rip),%r9 # 2f20c <_sk_load_a8_hsw_lowp+0x101>
+ .byte 76,141,13,220,0,0,0 // lea 0xdc(%rip),%r9 # 30788 <_sk_load_a8_hsw_lowp+0x101>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 2f1f6 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 30772 <_sk_load_a8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 2f1f6 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 30772 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 2f1f6 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 30772 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 2f1f6 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 30772 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 2f1f6 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 30772 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -46578,38 +48063,38 @@ _sk_load_a8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2f284 <_sk_load_a8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 30800 <_sk_load_a8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2f348 <_sk_load_a8_dst_hsw_lowp+0x100>
+ .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 308c4 <_sk_load_a8_dst_hsw_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 2f333 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 308af <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 2f333 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 308af <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 2f333 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 308af <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 2f333 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 308af <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 2f333 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 308af <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -46666,7 +48151,7 @@ _sk_store_a8_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 196,195,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm8
- .byte 197,121,111,13,225,192,0,0 // vmovdqa 0xc0e1(%rip),%xmm9 # 3b480 <_sk_srcover_bgra_8888_sse2_lowp+0x1384>
+ .byte 197,121,111,13,69,193,0,0 // vmovdqa 0xc145(%rip),%xmm9 # 3ca60 <_sk_srcover_bgra_8888_sse2_lowp+0x13c0>
.byte 196,66,57,0,193 // vpshufb %xmm9,%xmm8,%xmm8
.byte 196,66,97,0,201 // vpshufb %xmm9,%xmm3,%xmm9
.byte 196,65,49,108,192 // vpunpcklqdq %xmm8,%xmm9,%xmm8
@@ -46674,28 +48159,28 @@ _sk_store_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,28 // ja 2f3d4 <_sk_store_a8_hsw_lowp+0x50>
+ .byte 119,28 // ja 30950 <_sk_store_a8_hsw_lowp+0x50>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 2f454 <_sk_store_a8_hsw_lowp+0xd0>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 309d0 <_sk_store_a8_hsw_lowp+0xd0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,20,4,16,0 // vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,121 // jmp 2f44d <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,121 // jmp 309c9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,65,122,127,4,16 // vmovdqu %xmm8,(%r8,%rdx,1)
- .byte 235,113 // jmp 2f44d <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,113 // jmp 309c9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,2,2 // vpextrb $0x2,%xmm8,0x2(%r8,%rdx,1)
.byte 196,67,121,21,4,16,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 2f44d <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,96 // jmp 309c9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,6,6 // vpextrb $0x6,%xmm8,0x6(%r8,%rdx,1)
.byte 196,67,121,20,68,16,5,5 // vpextrb $0x5,%xmm8,0x5(%r8,%rdx,1)
.byte 196,67,121,20,68,16,4,4 // vpextrb $0x4,%xmm8,0x4(%r8,%rdx,1)
.byte 196,65,121,126,4,16 // vmovd %xmm8,(%r8,%rdx,1)
- .byte 235,64 // jmp 2f44d <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,64 // jmp 309c9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,10,10 // vpextrb $0xa,%xmm8,0xa(%r8,%rdx,1)
.byte 196,67,121,20,68,16,9,9 // vpextrb $0x9,%xmm8,0x9(%r8,%rdx,1)
.byte 196,67,121,20,68,16,8,8 // vpextrb $0x8,%xmm8,0x8(%r8,%rdx,1)
- .byte 235,32 // jmp 2f447 <_sk_store_a8_hsw_lowp+0xc3>
+ .byte 235,32 // jmp 309c3 <_sk_store_a8_hsw_lowp+0xc3>
.byte 196,67,121,20,68,16,14,14 // vpextrb $0xe,%xmm8,0xe(%r8,%rdx,1)
.byte 196,67,121,20,68,16,13,13 // vpextrb $0xd,%xmm8,0xd(%r8,%rdx,1)
.byte 196,67,121,20,68,16,12,12 // vpextrb $0xc,%xmm8,0xc(%r8,%rdx,1)
@@ -46704,7 +48189,7 @@ _sk_store_a8_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,255 // ja 2f455 <_sk_store_a8_hsw_lowp+0xd1>
+ .byte 119,255 // ja 309d1 <_sk_store_a8_hsw_lowp+0xd1>
.byte 255 // (bad)
.byte 255,144,255,255,255,136 // callq *-0x77000001(%rax)
.byte 255 // (bad)
@@ -46845,38 +48330,38 @@ _sk_load_g8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2f673 <_sk_load_g8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 30bef <_sk_load_g8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,224,0,0,0 // lea 0xe0(%rip),%r9 # 2f73c <_sk_load_g8_hsw_lowp+0x105>
+ .byte 76,141,13,224,0,0,0 // lea 0xe0(%rip),%r9 # 30cb8 <_sk_load_g8_hsw_lowp+0x105>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 2f722 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 30c9e <_sk_load_g8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 2f722 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 30c9e <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 2f722 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 30c9e <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 2f722 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 30c9e <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 2f722 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 30c9e <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -46886,7 +48371,7 @@ _sk_load_g8_hsw_lowp:
.byte 196,227,113,2,192,8 // vpblendd $0x8,%xmm0,%xmm1,%xmm0
.byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,18,181,0,0 // vpbroadcastw 0xb512(%rip),%ymm3 # 3ac44 <_sk_srcover_bgra_8888_sse2_lowp+0xb48>
+ .byte 196,226,125,121,29,54,181,0,0 // vpbroadcastw 0xb536(%rip),%ymm3 # 3c1e4 <_sk_srcover_bgra_8888_sse2_lowp+0xb44>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -46897,7 +48382,7 @@ _sk_load_g8_hsw_lowp:
.byte 255,66,255 // incl -0x1(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 2f749 <_sk_load_g8_hsw_lowp+0x112>
+ .byte 126,255 // jle 30cc5 <_sk_load_g8_hsw_lowp+0x112>
.byte 255 // (bad)
.byte 255,118,255 // pushq -0x1(%rsi)
.byte 255 // (bad)
@@ -46937,38 +48422,38 @@ _sk_load_g8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2f7b4 <_sk_load_g8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 30d30 <_sk_load_g8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2f880 <_sk_load_g8_dst_hsw_lowp+0x108>
+ .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 30dfc <_sk_load_g8_dst_hsw_lowp+0x108>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 2f863 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 30ddf <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 2f863 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 30ddf <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 2f863 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 30ddf <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 2f863 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 30ddf <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 2f863 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 30ddf <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -46978,7 +48463,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 196,227,81,2,228,8 // vpblendd $0x8,%xmm4,%xmm5,%xmm4
.byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,211,179,0,0 // vpbroadcastw 0xb3d3(%rip),%ymm7 # 3ac46 <_sk_srcover_bgra_8888_sse2_lowp+0xb4a>
+ .byte 196,226,125,121,61,247,179,0,0 // vpbroadcastw 0xb3f7(%rip),%ymm7 # 3c1e6 <_sk_srcover_bgra_8888_sse2_lowp+0xb46>
.byte 197,253,111,236 // vmovdqa %ymm4,%ymm5
.byte 197,253,111,244 // vmovdqa %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -46992,7 +48477,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2f88d <_sk_load_g8_dst_hsw_lowp+0x115>
+ .byte 123,255 // jnp 30e09 <_sk_load_g8_dst_hsw_lowp+0x115>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -47022,12 +48507,12 @@ HIDDEN _sk_luminance_to_alpha_hsw_lowp
.globl _sk_luminance_to_alpha_hsw_lowp
FUNCTION(_sk_luminance_to_alpha_hsw_lowp)
_sk_luminance_to_alpha_hsw_lowp:
- .byte 196,226,125,121,29,131,179,0,0 // vpbroadcastw 0xb383(%rip),%ymm3 # 3ac48 <_sk_srcover_bgra_8888_sse2_lowp+0xb4c>
+ .byte 196,226,125,121,29,167,179,0,0 // vpbroadcastw 0xb3a7(%rip),%ymm3 # 3c1e8 <_sk_srcover_bgra_8888_sse2_lowp+0xb48>
.byte 197,253,213,195 // vpmullw %ymm3,%ymm0,%ymm0
- .byte 196,226,125,121,29,120,179,0,0 // vpbroadcastw 0xb378(%rip),%ymm3 # 3ac4a <_sk_srcover_bgra_8888_sse2_lowp+0xb4e>
+ .byte 196,226,125,121,29,156,179,0,0 // vpbroadcastw 0xb39c(%rip),%ymm3 # 3c1ea <_sk_srcover_bgra_8888_sse2_lowp+0xb4a>
.byte 197,245,213,203 // vpmullw %ymm3,%ymm1,%ymm1
.byte 197,245,253,192 // vpaddw %ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,105,179,0,0 // vpbroadcastw 0xb369(%rip),%ymm1 # 3ac4c <_sk_srcover_bgra_8888_sse2_lowp+0xb50>
+ .byte 196,226,125,121,13,141,179,0,0 // vpbroadcastw 0xb38d(%rip),%ymm1 # 3c1ec <_sk_srcover_bgra_8888_sse2_lowp+0xb4c>
.byte 197,237,213,201 // vpmullw %ymm1,%ymm2,%ymm1
.byte 197,253,253,193 // vpaddw %ymm1,%ymm0,%ymm0
.byte 197,229,113,208,8 // vpsrlw $0x8,%ymm0,%ymm3
@@ -47126,7 +48611,7 @@ _sk_gather_g8_hsw_lowp:
.byte 196,227,121,32,192,15 // vpinsrb $0xf,%eax,%xmm0,%xmm0
.byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,172,177,0,0 // vpbroadcastw 0xb1ac(%rip),%ymm3 # 3ac4e <_sk_srcover_bgra_8888_sse2_lowp+0xb52>
+ .byte 196,226,125,121,29,208,177,0,0 // vpbroadcastw 0xb1d0(%rip),%ymm3 # 3c1ee <_sk_srcover_bgra_8888_sse2_lowp+0xb4e>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -47137,13 +48622,13 @@ FUNCTION(_sk_scale_1_float_hsw_lowp)
_sk_scale_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,30,169,0,0 // vmovss 0xa91e(%rip),%xmm9 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,57,169,13,229,168,0,0 // vfmadd213ss 0xa8e5(%rip),%xmm8,%xmm9 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,122,16,13,70,169,0,0 // vmovss 0xa946(%rip),%xmm9 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,57,169,13,13,169,0,0 // vfmadd213ss 0xa90d(%rip),%xmm8,%xmm9 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,114,177,0,0 // vpbroadcastw 0xb172(%rip),%ymm9 # 3ac50 <_sk_srcover_bgra_8888_sse2_lowp+0xb54>
+ .byte 196,98,125,121,13,150,177,0,0 // vpbroadcastw 0xb196(%rip),%ymm9 # 3c1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xb50>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -47164,12 +48649,12 @@ FUNCTION(_sk_lerp_1_float_hsw_lowp)
_sk_lerp_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,180,168,0,0 // vmovss 0xa8b4(%rip),%xmm9 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,57,169,13,123,168,0,0 // vfmadd213ss 0xa87b(%rip),%xmm8,%xmm9 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,122,16,13,220,168,0,0 // vmovss 0xa8dc(%rip),%xmm9 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,57,169,13,163,168,0,0 // vfmadd213ss 0xa8a3(%rip),%xmm8,%xmm9 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
- .byte 196,98,125,121,13,14,177,0,0 // vpbroadcastw 0xb10e(%rip),%ymm9 # 3ac52 <_sk_srcover_bgra_8888_sse2_lowp+0xb56>
+ .byte 196,98,125,121,13,50,177,0,0 // vpbroadcastw 0xb132(%rip),%ymm9 # 3c1f2 <_sk_srcover_bgra_8888_sse2_lowp+0xb52>
.byte 196,65,53,249,208 // vpsubw %ymm8,%ymm9,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -47206,38 +48691,38 @@ _sk_scale_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2fbe2 <_sk_scale_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 3115e <_sk_scale_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 2fce0 <_sk_scale_u8_hsw_lowp+0x13b>
+ .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 3125c <_sk_scale_u8_hsw_lowp+0x13b>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 2fc95 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 31211 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 2fc95 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 31211 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 2fc95 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 31211 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 2fc95 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 31211 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 2fc95 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 31211 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -47247,7 +48732,7 @@ _sk_scale_u8_hsw_lowp:
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,173,175,0,0 // vpbroadcastw 0xafad(%rip),%ymm9 # 3ac54 <_sk_srcover_bgra_8888_sse2_lowp+0xb58>
+ .byte 196,98,125,121,13,209,175,0,0 // vpbroadcastw 0xafd1(%rip),%ymm9 # 3c1f4 <_sk_srcover_bgra_8888_sse2_lowp+0xb54>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -47268,7 +48753,7 @@ _sk_scale_u8_hsw_lowp:
.byte 255,26 // lcall *(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c02fcec <_sk_srcover_bgra_8888_sse2_lowp+0x4bff5bf0>
+ .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c031268 <_sk_srcover_bgra_8888_sse2_lowp+0x4bff5bc8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,67,255 // incl -0x1(%rbx)
@@ -47307,38 +48792,38 @@ _sk_lerp_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2fd59 <_sk_lerp_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 312d5 <_sk_lerp_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 2fe7c <_sk_lerp_u8_hsw_lowp+0x160>
+ .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 313f8 <_sk_lerp_u8_hsw_lowp+0x160>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 2fe0c <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 31388 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 2fe0c <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 31388 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 2fe0c <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 31388 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 2fe0c <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 31388 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 2fe0c <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 31388 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -47347,7 +48832,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 196,67,49,34,76,16,8,2 // vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm9,%xmm9
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
- .byte 196,98,125,121,13,60,174,0,0 // vpbroadcastw 0xae3c(%rip),%ymm9 # 3ac56 <_sk_srcover_bgra_8888_sse2_lowp+0xb5a>
+ .byte 196,98,125,121,13,96,174,0,0 // vpbroadcastw 0xae60(%rip),%ymm9 # 3c1f6 <_sk_srcover_bgra_8888_sse2_lowp+0xb56>
.byte 196,65,61,239,209 // vpxor %ymm9,%ymm8,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -47379,7 +48864,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,254,255,255,38 // callq 2702fe87 <_sk_srcover_bgra_8888_sse2_lowp+0x26ff5d8b>
+ .byte 232,254,255,255,38 // callq 27031403 <_sk_srcover_bgra_8888_sse2_lowp+0x26ff5d63>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,30 // lcall *(%rsi)
@@ -47400,7 +48885,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 255,52,255 // pushq (%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 2fea9 <_sk_lerp_u8_hsw_lowp+0x18d>
+ .byte 124,255 // jl 31425 <_sk_lerp_u8_hsw_lowp+0x18d>
.byte 255 // (bad)
.byte 255,116,255,255 // pushq -0x1(%rdi,%rdi,8)
.byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8)
@@ -47421,24 +48906,24 @@ _sk_scale_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2fef8 <_sk_scale_565_hsw_lowp+0x40>
+ .byte 119,38 // ja 31474 <_sk_scale_565_hsw_lowp+0x40>
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 300e0 <_sk_scale_565_hsw_lowp+0x228>
+ .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 3165c <_sk_scale_565_hsw_lowp+0x228>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 30004 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,12,1,0,0 // jmpq 31580 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 30004 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,1,1,0,0 // jmpq 31580 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 30004 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,221,0,0,0 // jmpq 31580 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
@@ -47448,7 +48933,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 30004 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,157,0,0,0 // jmpq 31580 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -47460,7 +48945,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
.byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 30004 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 235,84 // jmp 31580 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -47474,13 +48959,13 @@ _sk_scale_565_hsw_lowp:
.byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
.byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
.byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,75,172,0,0 // vpbroadcastw 0xac4b(%rip),%ymm9 # 3ac58 <_sk_srcover_bgra_8888_sse2_lowp+0xb5c>
+ .byte 196,98,125,121,13,111,172,0,0 // vpbroadcastw 0xac6f(%rip),%ymm9 # 3c1f8 <_sk_srcover_bgra_8888_sse2_lowp+0xb58>
.byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,51,172,0,0 // vpbroadcastw 0xac33(%rip),%ymm11 # 3ac5a <_sk_srcover_bgra_8888_sse2_lowp+0xb5e>
+ .byte 196,98,125,121,29,87,172,0,0 // vpbroadcastw 0xac57(%rip),%ymm11 # 3c1fa <_sk_srcover_bgra_8888_sse2_lowp+0xb5a>
.byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,39,172,0,0 // vpbroadcastw 0xac27(%rip),%ymm11 # 3ac5c <_sk_srcover_bgra_8888_sse2_lowp+0xb60>
+ .byte 196,98,125,121,29,75,172,0,0 // vpbroadcastw 0xac4b(%rip),%ymm11 # 3c1fc <_sk_srcover_bgra_8888_sse2_lowp+0xb5c>
.byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
.byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -47490,7 +48975,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
.byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
.byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,238,171,0,0 // vpbroadcastw 0xabee(%rip),%ymm11 # 3ac5e <_sk_srcover_bgra_8888_sse2_lowp+0xb62>
+ .byte 196,98,125,121,29,18,172,0,0 // vpbroadcastw 0xac12(%rip),%ymm11 # 3c1fe <_sk_srcover_bgra_8888_sse2_lowp+0xb5e>
.byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
.byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
.byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
@@ -47500,7 +48985,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
.byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,5,186,171,0,0 // vpbroadcastw 0xabba(%rip),%ymm8 # 3ac60 <_sk_srcover_bgra_8888_sse2_lowp+0xb64>
+ .byte 196,98,125,121,5,222,171,0,0 // vpbroadcastw 0xabde(%rip),%ymm8 # 3c200 <_sk_srcover_bgra_8888_sse2_lowp+0xb60>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,181,213,201 // vpmullw %ymm1,%ymm9,%ymm1
@@ -47564,24 +49049,24 @@ _sk_lerp_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 3015c <_sk_lerp_565_hsw_lowp+0x40>
+ .byte 119,38 // ja 316d8 <_sk_lerp_565_hsw_lowp+0x40>
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 30378 <_sk_lerp_565_hsw_lowp+0x25c>
+ .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 318f4 <_sk_lerp_565_hsw_lowp+0x25c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 30268 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,12,1,0,0 // jmpq 317e4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 30268 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,1,1,0,0 // jmpq 317e4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 30268 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,221,0,0,0 // jmpq 317e4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
@@ -47591,7 +49076,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 30268 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,157,0,0,0 // jmpq 317e4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -47603,7 +49088,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
.byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 30268 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 235,84 // jmp 317e4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -47617,13 +49102,13 @@ _sk_lerp_565_hsw_lowp:
.byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
.byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
.byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,241,169,0,0 // vpbroadcastw 0xa9f1(%rip),%ymm9 # 3ac62 <_sk_srcover_bgra_8888_sse2_lowp+0xb66>
+ .byte 196,98,125,121,13,21,170,0,0 // vpbroadcastw 0xaa15(%rip),%ymm9 # 3c202 <_sk_srcover_bgra_8888_sse2_lowp+0xb62>
.byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,217,169,0,0 // vpbroadcastw 0xa9d9(%rip),%ymm11 # 3ac64 <_sk_srcover_bgra_8888_sse2_lowp+0xb68>
+ .byte 196,98,125,121,29,253,169,0,0 // vpbroadcastw 0xa9fd(%rip),%ymm11 # 3c204 <_sk_srcover_bgra_8888_sse2_lowp+0xb64>
.byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,205,169,0,0 // vpbroadcastw 0xa9cd(%rip),%ymm11 # 3ac66 <_sk_srcover_bgra_8888_sse2_lowp+0xb6a>
+ .byte 196,98,125,121,29,241,169,0,0 // vpbroadcastw 0xa9f1(%rip),%ymm11 # 3c206 <_sk_srcover_bgra_8888_sse2_lowp+0xb66>
.byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
.byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -47633,7 +49118,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
.byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
.byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,148,169,0,0 // vpbroadcastw 0xa994(%rip),%ymm11 # 3ac68 <_sk_srcover_bgra_8888_sse2_lowp+0xb6c>
+ .byte 196,98,125,121,29,184,169,0,0 // vpbroadcastw 0xa9b8(%rip),%ymm11 # 3c208 <_sk_srcover_bgra_8888_sse2_lowp+0xb68>
.byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
.byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
.byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
@@ -47642,7 +49127,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,66,53,62,234 // vpmaxuw %ymm10,%ymm9,%ymm13
.byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
.byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
- .byte 196,98,125,121,37,100,169,0,0 // vpbroadcastw 0xa964(%rip),%ymm12 # 3ac6a <_sk_srcover_bgra_8888_sse2_lowp+0xb6e>
+ .byte 196,98,125,121,37,136,169,0,0 // vpbroadcastw 0xa988(%rip),%ymm12 # 3c20a <_sk_srcover_bgra_8888_sse2_lowp+0xb6a>
.byte 196,65,61,239,236 // vpxor %ymm12,%ymm8,%ymm13
.byte 197,21,213,236 // vpmullw %ymm4,%ymm13,%ymm13
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -47715,7 +49200,7 @@ _sk_clamp_x_1_hsw_lowp:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,224,159,0,0 // vbroadcastss 0x9fe0(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,8,160,0,0 // vbroadcastss 0xa008(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -47732,7 +49217,7 @@ _sk_repeat_x_1_hsw_lowp:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,164,159,0,0 // vbroadcastss 0x9fa4(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,204,159,0,0 // vbroadcastss 0x9fcc(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -47742,10 +49227,10 @@ HIDDEN _sk_mirror_x_1_hsw_lowp
.globl _sk_mirror_x_1_hsw_lowp
FUNCTION(_sk_mirror_x_1_hsw_lowp)
_sk_mirror_x_1_hsw_lowp:
- .byte 196,98,125,24,5,165,159,0,0 // vbroadcastss 0x9fa5(%rip),%ymm8 # 3a3c4 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,205,159,0,0 // vbroadcastss 0x9fcd(%rip),%ymm8 # 3b968 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,118,159,0,0 // vbroadcastss 0x9f76(%rip),%ymm9 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,158,159,0,0 // vbroadcastss 0x9f9e(%rip),%ymm9 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,116,89,209 // vmulps %ymm9,%ymm1,%ymm10
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
@@ -47756,13 +49241,13 @@ _sk_mirror_x_1_hsw_lowp:
.byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
.byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,201,160,0,0 // vbroadcastss 0xa0c9(%rip),%ymm8 # 3a538 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
+ .byte 196,98,125,24,5,1,161,0,0 // vbroadcastss 0xa101(%rip),%ymm8 # 3baec <_sk_srcover_bgra_8888_sse2_lowp+0x44c>
.byte 196,193,124,84,192 // vandps %ymm8,%ymm0,%ymm0
.byte 196,193,116,84,200 // vandps %ymm8,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,27,159,0,0 // vbroadcastss 0x9f1b(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,67,159,0,0 // vbroadcastss 0x9f43(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -47782,7 +49267,7 @@ _sk_gradient_hsw_lowp:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,60 // jb 3050c <_sk_gradient_hsw_lowp+0x6d>
+ .byte 114,60 // jb 31a88 <_sk_gradient_hsw_lowp+0x6d>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
@@ -47794,9 +49279,9 @@ _sk_gradient_hsw_lowp:
.byte 197,213,250,234 // vpsubd %ymm2,%ymm5,%ymm5
.byte 73,255,194 // inc %r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,224 // jne 304e2 <_sk_gradient_hsw_lowp+0x43>
+ .byte 117,224 // jne 31a5e <_sk_gradient_hsw_lowp+0x43>
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,135,180,0,0,0 // ja 305c0 <_sk_gradient_hsw_lowp+0x121>
+ .byte 15,135,180,0,0,0 // ja 31b3c <_sk_gradient_hsw_lowp+0x121>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 196,193,124,16,24 // vmovups (%r8),%ymm3
@@ -47833,7 +49318,7 @@ _sk_gradient_hsw_lowp:
.byte 197,124,16,56 // vmovups (%rax),%ymm15
.byte 196,66,69,22,231 // vpermps %ymm15,%ymm7,%ymm12
.byte 196,194,85,22,255 // vpermps %ymm15,%ymm5,%ymm7
- .byte 233,34,1,0,0 // jmpq 306e2 <_sk_gradient_hsw_lowp+0x243>
+ .byte 233,34,1,0,0 // jmpq 31c5e <_sk_gradient_hsw_lowp+0x243>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
@@ -47902,8 +49387,8 @@ _sk_gradient_hsw_lowp:
.byte 196,98,117,168,76,36,128 // vfmadd213ps -0x80(%rsp),%ymm1,%ymm9
.byte 196,98,117,168,222 // vfmadd213ps %ymm6,%ymm1,%ymm11
.byte 196,226,117,184,124,36,160 // vfmadd231ps -0x60(%rsp),%ymm1,%ymm7
- .byte 196,226,125,24,5,189,156,0,0 // vbroadcastss 0x9cbd(%rip),%ymm0 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,226,125,24,13,132,156,0,0 // vbroadcastss 0x9c84(%rip),%ymm1 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,229,156,0,0 // vbroadcastss 0x9ce5(%rip),%ymm0 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,226,125,24,13,172,156,0,0 // vbroadcastss 0x9cac(%rip),%ymm1 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,168,217 // vfmadd213ps %ymm1,%ymm0,%ymm3
.byte 196,226,125,168,209 // vfmadd213ps %ymm1,%ymm0,%ymm2
.byte 196,98,125,168,201 // vfmadd213ps %ymm1,%ymm0,%ymm9
@@ -47913,7 +49398,7 @@ _sk_gradient_hsw_lowp:
.byte 196,226,125,168,249 // vfmadd213ps %ymm1,%ymm0,%ymm7
.byte 196,98,125,168,225 // vfmadd213ps %ymm1,%ymm0,%ymm12
.byte 197,254,91,194 // vcvttps2dq %ymm2,%ymm0
- .byte 197,253,111,37,40,165,0,0 // vmovdqa 0xa528(%rip),%ymm4 # 3ac80 <_sk_srcover_bgra_8888_sse2_lowp+0xb84>
+ .byte 197,253,111,37,76,165,0,0 // vmovdqa 0xa54c(%rip),%ymm4 # 3c220 <_sk_srcover_bgra_8888_sse2_lowp+0xb80>
.byte 196,226,125,0,196 // vpshufb %ymm4,%ymm0,%ymm0
.byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0
.byte 197,254,91,203 // vcvttps2dq %ymm3,%ymm1
@@ -47962,9 +49447,9 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 76,139,0 // mov (%rax),%r8
.byte 77,137,193 // mov %r8,%r9
.byte 73,255,201 // dec %r9
- .byte 120,7 // js 3083d <_sk_evenly_spaced_gradient_hsw_lowp+0x32>
+ .byte 120,7 // js 31db9 <_sk_evenly_spaced_gradient_hsw_lowp+0x32>
.byte 196,193,234,42,209 // vcvtsi2ss %r9,%xmm2,%xmm2
- .byte 235,22 // jmp 30853 <_sk_evenly_spaced_gradient_hsw_lowp+0x48>
+ .byte 235,22 // jmp 31dcf <_sk_evenly_spaced_gradient_hsw_lowp+0x48>
.byte 77,137,202 // mov %r9,%r10
.byte 73,209,234 // shr %r10
.byte 65,131,225,1 // and $0x1,%r9d
@@ -47977,7 +49462,7 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 197,126,91,242 // vcvttps2dq %ymm2,%ymm14
.byte 197,254,91,251 // vcvttps2dq %ymm3,%ymm7
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,135,180,0,0,0 // ja 30926 <_sk_evenly_spaced_gradient_hsw_lowp+0x11b>
+ .byte 15,135,180,0,0,0 // ja 31ea2 <_sk_evenly_spaced_gradient_hsw_lowp+0x11b>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 196,193,124,16,24 // vmovups (%r8),%ymm3
@@ -48014,7 +49499,7 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 197,124,16,56 // vmovups (%rax),%ymm15
.byte 196,66,69,22,231 // vpermps %ymm15,%ymm7,%ymm12
.byte 196,194,13,22,255 // vpermps %ymm15,%ymm14,%ymm7
- .byte 233,33,1,0,0 // jmpq 30a47 <_sk_evenly_spaced_gradient_hsw_lowp+0x23c>
+ .byte 233,33,1,0,0 // jmpq 31fc3 <_sk_evenly_spaced_gradient_hsw_lowp+0x23c>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -48083,8 +49568,8 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 196,98,117,168,76,36,128 // vfmadd213ps -0x80(%rsp),%ymm1,%ymm9
.byte 196,98,117,168,222 // vfmadd213ps %ymm6,%ymm1,%ymm11
.byte 196,226,117,184,124,36,160 // vfmadd231ps -0x60(%rsp),%ymm1,%ymm7
- .byte 196,226,125,24,5,88,153,0,0 // vbroadcastss 0x9958(%rip),%ymm0 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,226,125,24,13,31,153,0,0 // vbroadcastss 0x991f(%rip),%ymm1 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,128,153,0,0 // vbroadcastss 0x9980(%rip),%ymm0 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,226,125,24,13,71,153,0,0 // vbroadcastss 0x9947(%rip),%ymm1 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,168,217 // vfmadd213ps %ymm1,%ymm0,%ymm3
.byte 196,226,125,168,209 // vfmadd213ps %ymm1,%ymm0,%ymm2
.byte 196,98,125,168,201 // vfmadd213ps %ymm1,%ymm0,%ymm9
@@ -48094,7 +49579,7 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 196,226,125,168,249 // vfmadd213ps %ymm1,%ymm0,%ymm7
.byte 196,98,125,168,225 // vfmadd213ps %ymm1,%ymm0,%ymm12
.byte 197,254,91,194 // vcvttps2dq %ymm2,%ymm0
- .byte 197,253,111,37,227,161,0,0 // vmovdqa 0xa1e3(%rip),%ymm4 # 3aca0 <_sk_srcover_bgra_8888_sse2_lowp+0xba4>
+ .byte 197,253,111,37,7,162,0,0 // vmovdqa 0xa207(%rip),%ymm4 # 3c240 <_sk_srcover_bgra_8888_sse2_lowp+0xba0>
.byte 196,226,125,0,196 // vpshufb %ymm4,%ymm0,%ymm0
.byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0
.byte 197,254,91,203 // vcvttps2dq %ymm3,%ymm1
@@ -48140,12 +49625,12 @@ _sk_evenly_spaced_2_stop_gradient_hsw_lowp:
.byte 197,124,40,194 // vmovaps %ymm2,%ymm8
.byte 196,98,125,168,195 // vfmadd213ps %ymm3,%ymm0,%ymm8
.byte 196,226,117,168,211 // vfmadd213ps %ymm3,%ymm1,%ymm2
- .byte 196,226,125,24,29,68,152,0,0 // vbroadcastss 0x9844(%rip),%ymm3 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,125,24,29,11,152,0,0 // vbroadcastss 0x980b(%rip),%ymm11 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,29,108,152,0,0 // vbroadcastss 0x986c(%rip),%ymm3 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,51,152,0,0 // vbroadcastss 0x9833(%rip),%ymm11 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,194,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm2
.byte 196,66,101,168,195 // vfmadd213ps %ymm11,%ymm3,%ymm8
.byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
- .byte 197,125,111,21,12,161,0,0 // vmovdqa 0xa10c(%rip),%ymm10 # 3acc0 <_sk_srcover_bgra_8888_sse2_lowp+0xbc4>
+ .byte 197,125,111,21,48,161,0,0 // vmovdqa 0xa130(%rip),%ymm10 # 3c260 <_sk_srcover_bgra_8888_sse2_lowp+0xbc0>
.byte 196,66,61,0,194 // vpshufb %ymm10,%ymm8,%ymm8
.byte 196,67,253,0,192,232 // vpermq $0xe8,%ymm8,%ymm8
.byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
@@ -48209,7 +49694,7 @@ _sk_xy_to_unit_angle_hsw_lowp:
.byte 197,252,40,227 // vmovaps %ymm3,%ymm4
.byte 197,252,40,217 // vmovaps %ymm1,%ymm3
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 196,98,125,24,5,90,152,0,0 // vbroadcastss 0x985a(%rip),%ymm8 # 3a538 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
+ .byte 196,98,125,24,5,146,152,0,0 // vbroadcastss 0x9892(%rip),%ymm8 # 3baec <_sk_srcover_bgra_8888_sse2_lowp+0x44c>
.byte 196,65,116,84,200 // vandps %ymm8,%ymm1,%ymm9
.byte 196,65,100,84,208 // vandps %ymm8,%ymm3,%ymm10
.byte 196,65,108,84,216 // vandps %ymm8,%ymm2,%ymm11
@@ -48223,20 +49708,20 @@ _sk_xy_to_unit_angle_hsw_lowp:
.byte 196,67,45,74,192,192 // vblendvps %ymm12,%ymm8,%ymm10,%ymm8
.byte 196,65,4,94,192 // vdivps %ymm8,%ymm15,%ymm8
.byte 196,65,60,89,208 // vmulps %ymm8,%ymm8,%ymm10
- .byte 196,98,125,24,29,170,151,0,0 // vbroadcastss 0x97aa(%rip),%ymm11 # 3a4d8 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- .byte 196,98,125,24,53,165,151,0,0 // vbroadcastss 0x97a5(%rip),%ymm14 # 3a4dc <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 196,98,125,24,29,226,151,0,0 // vbroadcastss 0x97e2(%rip),%ymm11 # 3ba8c <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,53,221,151,0,0 // vbroadcastss 0x97dd(%rip),%ymm14 # 3ba90 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,124,40,251 // vmovaps %ymm11,%ymm15
.byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15
.byte 196,193,52,89,193 // vmulps %ymm9,%ymm9,%ymm0
.byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11
- .byte 196,98,125,24,53,140,151,0,0 // vbroadcastss 0x978c(%rip),%ymm14 # 3a4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 196,98,125,24,53,196,151,0,0 // vbroadcastss 0x97c4(%rip),%ymm14 # 3ba94 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11
.byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15
- .byte 196,98,125,24,53,125,151,0,0 // vbroadcastss 0x977d(%rip),%ymm14 # 3a4e4 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,53,181,151,0,0 // vbroadcastss 0x97b5(%rip),%ymm14 # 3ba98 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15
.byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11
.byte 196,193,52,89,195 // vmulps %ymm11,%ymm9,%ymm0
- .byte 196,98,125,24,13,105,151,0,0 // vbroadcastss 0x9769(%rip),%ymm9 # 3a4e8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,13,161,151,0,0 // vbroadcastss 0x97a1(%rip),%ymm9 # 3ba9c <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,52,92,208 // vsubps %ymm0,%ymm9,%ymm10
.byte 196,195,125,74,194,208 // vblendvps %ymm13,%ymm10,%ymm0,%ymm0
.byte 196,65,60,89,199 // vmulps %ymm15,%ymm8,%ymm8
@@ -48244,14 +49729,14 @@ _sk_xy_to_unit_angle_hsw_lowp:
.byte 196,67,61,74,193,192 // vblendvps %ymm12,%ymm9,%ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,193,116,194,201,1 // vcmpltps %ymm9,%ymm1,%ymm1
- .byte 196,98,125,24,21,251,149,0,0 // vbroadcastss 0x95fb(%rip),%ymm10 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,35,150,0,0 // vbroadcastss 0x9623(%rip),%ymm10 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,44,92,216 // vsubps %ymm0,%ymm10,%ymm11
.byte 196,195,125,74,195,16 // vblendvps %ymm1,%ymm11,%ymm0,%ymm0
.byte 196,193,100,194,201,1 // vcmpltps %ymm9,%ymm3,%ymm1
.byte 196,193,44,92,216 // vsubps %ymm8,%ymm10,%ymm3
.byte 196,227,61,74,203,16 // vblendvps %ymm1,%ymm3,%ymm8,%ymm1
.byte 196,193,108,194,217,1 // vcmpltps %ymm9,%ymm2,%ymm3
- .byte 196,98,125,24,5,213,149,0,0 // vbroadcastss 0x95d5(%rip),%ymm8 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,253,149,0,0 // vbroadcastss 0x95fd(%rip),%ymm8 # 3b950 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,208 // vsubps %ymm0,%ymm8,%ymm10
.byte 196,195,125,74,194,48 // vblendvps %ymm3,%ymm10,%ymm0,%ymm0
.byte 196,193,92,194,217,1 // vcmpltps %ymm9,%ymm4,%ymm3
@@ -48297,9 +49782,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,194 // movzbl %r10b,%r8d
.byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 119,51 // ja 30e9b <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
+ .byte 119,51 // ja 32417 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 76,141,29,237,2,0,0 // lea 0x2ed(%rip),%r11 # 31160 <_sk_srcover_rgba_8888_hsw_lowp+0x321>
+ .byte 76,141,29,237,2,0,0 // lea 0x2ed(%rip),%r11 # 326dc <_sk_srcover_rgba_8888_hsw_lowp+0x321>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48309,10 +49794,10 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,41 // vmovd (%r9),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,22,1,0,0 // jmpq 30fb1 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,22,1,0,0 // jmpq 3252d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
.byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4
- .byte 233,6,1,0,0 // jmpq 30fb1 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,6,1,0,0 // jmpq 3252d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -48321,7 +49806,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,216,0,0,0 // jmpq 30fb1 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,216,0,0,0 // jmpq 3252d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48337,7 +49822,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,129,0,0,0 // jmpq 30fb1 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,129,0,0,0 // jmpq 3252d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48347,7 +49832,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 235,76 // jmp 30fb1 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 235,76 // jmp 3252d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48367,9 +49852,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,6,157,0,0 // vmovdqa 0x9d06(%rip),%ymm8 # 3ace0 <_sk_srcover_bgra_8888_sse2_lowp+0xbe4>
+ .byte 197,125,111,5,42,157,0,0 // vmovdqa 0x9d2a(%rip),%ymm8 # 3c280 <_sk_srcover_bgra_8888_sse2_lowp+0xbe0>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
- .byte 196,98,125,121,13,24,157,0,0 // vpbroadcastw 0x9d18(%rip),%ymm9 # 3ad00 <_sk_srcover_bgra_8888_sse2_lowp+0xc04>
+ .byte 196,98,125,121,13,60,157,0,0 // vpbroadcastw 0x9d3c(%rip),%ymm9 # 3c2a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc00>
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
.byte 197,205,114,214,16 // vpsrld $0x10,%ymm6,%ymm6
@@ -48408,19 +49893,19 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,26 // ja 310c2 <_sk_srcover_rgba_8888_hsw_lowp+0x283>
- .byte 76,141,21,237,0,0,0 // lea 0xed(%rip),%r10 # 3119c <_sk_srcover_rgba_8888_hsw_lowp+0x35d>
+ .byte 119,26 // ja 3263e <_sk_srcover_rgba_8888_hsw_lowp+0x283>
+ .byte 76,141,21,237,0,0,0 // lea 0xed(%rip),%r10 # 32718 <_sk_srcover_rgba_8888_hsw_lowp+0x35d>
.byte 75,99,4,130 // movslq (%r10,%r8,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,1 // vmovd %xmm8,(%r9)
- .byte 233,151,0,0,0 // jmpq 31159 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,151,0,0,0 // jmpq 326d5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
.byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9)
- .byte 233,135,0,0,0 // jmpq 31159 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,135,0,0,0 // jmpq 326d5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9)
.byte 196,65,121,214,1 // vmovq %xmm8,(%r9)
- .byte 235,121 // jmp 31159 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,121 // jmp 326d5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -48428,12 +49913,12 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9)
.byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9)
- .byte 235,76 // jmp 31159 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,76 // jmp 326d5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9)
.byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9)
.byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9)
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 235,49 // jmp 31159 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,49 // jmp 326d5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -48472,10 +49957,10 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255,64,254 // incl -0x2(%rax)
.byte 255 // (bad)
- .byte 255,45,254,255,255,26 // ljmp *0x1afffffe(%rip) # 1b031193 <_sk_srcover_bgra_8888_sse2_lowp+0x1aff7097>
+ .byte 255,45,254,255,255,26 // ljmp *0x1afffffe(%rip) # 1b03270f <_sk_srcover_bgra_8888_sse2_lowp+0x1aff706f>
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,5,254,255,255,28 // incl 0x1cfffffe(%rip) # 1d03119b <_sk_srcover_bgra_8888_sse2_lowp+0x1cff709f>
+ .byte 255,5,254,255,255,28 // incl 0x1cfffffe(%rip) # 1d032717 <_sk_srcover_bgra_8888_sse2_lowp+0x1cff7077>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -48493,7 +49978,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 120,255 // js 311c1 <_sk_srcover_rgba_8888_hsw_lowp+0x382>
+ .byte 120,255 // js 3273d <_sk_srcover_rgba_8888_hsw_lowp+0x382>
.byte 255 // (bad)
.byte 255,113,255 // pushq -0x1(%rcx)
.byte 255 // (bad)
@@ -48520,9 +50005,9 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,194 // movzbl %r10b,%r8d
.byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 119,51 // ja 31234 <_sk_srcover_bgra_8888_hsw_lowp+0x5c>
+ .byte 119,51 // ja 327b0 <_sk_srcover_bgra_8888_hsw_lowp+0x5c>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 314f8 <_sk_srcover_bgra_8888_hsw_lowp+0x320>
+ .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 32a74 <_sk_srcover_bgra_8888_hsw_lowp+0x320>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48532,10 +50017,10 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,41 // vmovd (%r9),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,22,1,0,0 // jmpq 3134a <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,22,1,0,0 // jmpq 328c6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
.byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4
- .byte 233,6,1,0,0 // jmpq 3134a <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,6,1,0,0 // jmpq 328c6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -48544,7 +50029,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,216,0,0,0 // jmpq 3134a <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,216,0,0,0 // jmpq 328c6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48560,7 +50045,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,129,0,0,0 // jmpq 3134a <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,129,0,0,0 // jmpq 328c6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48570,7 +50055,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 235,76 // jmp 3134a <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 235,76 // jmp 328c6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -48590,9 +50075,9 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6
.byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5
.byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5
- .byte 197,125,111,5,173,153,0,0 // vmovdqa 0x99ad(%rip),%ymm8 # 3ad20 <_sk_srcover_bgra_8888_sse2_lowp+0xc24>
+ .byte 197,125,111,5,209,153,0,0 // vmovdqa 0x99d1(%rip),%ymm8 # 3c2c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc20>
.byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6
- .byte 196,98,125,121,13,191,153,0,0 // vpbroadcastw 0x99bf(%rip),%ymm9 # 3ad40 <_sk_srcover_bgra_8888_sse2_lowp+0xc44>
+ .byte 196,98,125,121,13,227,153,0,0 // vpbroadcastw 0x99e3(%rip),%ymm9 # 3c2e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc40>
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
@@ -48631,19 +50116,19 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,26 // ja 3145b <_sk_srcover_bgra_8888_hsw_lowp+0x283>
- .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 31534 <_sk_srcover_bgra_8888_hsw_lowp+0x35c>
+ .byte 119,26 // ja 329d7 <_sk_srcover_bgra_8888_hsw_lowp+0x283>
+ .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 32ab0 <_sk_srcover_bgra_8888_hsw_lowp+0x35c>
.byte 75,99,4,130 // movslq (%r10,%r8,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,1 // vmovd %xmm8,(%r9)
- .byte 233,151,0,0,0 // jmpq 314f2 <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 233,151,0,0,0 // jmpq 32a6e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
.byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9)
- .byte 233,135,0,0,0 // jmpq 314f2 <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 233,135,0,0,0 // jmpq 32a6e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9)
.byte 196,65,121,214,1 // vmovq %xmm8,(%r9)
- .byte 235,121 // jmp 314f2 <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 235,121 // jmp 32a6e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -48651,12 +50136,12 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9)
.byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9)
- .byte 235,76 // jmp 314f2 <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 235,76 // jmp 32a6e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9)
.byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9)
.byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9)
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 235,49 // jmp 314f2 <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 235,49 // jmp 32a6e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -48704,7 +50189,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 255,6 // incl (%rsi)
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f031538 <_sk_srcover_bgra_8888_sse2_lowp+0x3eff743c>
+ .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f032ab4 <_sk_srcover_bgra_8888_sse2_lowp+0x3eff7414>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,55 // pushq (%rdi)
@@ -48722,7 +50207,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 121,255 // jns 31559 <_sk_srcover_bgra_8888_hsw_lowp+0x381>
+ .byte 121,255 // jns 32ad5 <_sk_srcover_bgra_8888_hsw_lowp+0x381>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -48755,13 +50240,13 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 31626 <_sk_start_pipeline_sse41_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 32ba2 <_sk_start_pipeline_sse41_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 315f4 <_sk_start_pipeline_sse41_lowp+0x84>
+ .byte 119,59 // ja 32b70 <_sk_start_pipeline_sse41_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -48780,10 +50265,10 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 315bd <_sk_start_pipeline_sse41_lowp+0x4d>
+ .byte 118,201 // jbe 32b39 <_sk_start_pipeline_sse41_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 3161d <_sk_start_pipeline_sse41_lowp+0xad>
+ .byte 116,33 // je 32b99 <_sk_start_pipeline_sse41_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -48797,7 +50282,7 @@ _sk_start_pipeline_sse41_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 315af <_sk_start_pipeline_sse41_lowp+0x3f>
+ .byte 117,137 // jne 32b2b <_sk_start_pipeline_sse41_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -48828,7 +50313,7 @@ _sk_seed_shader_sse41_lowp:
.byte 102,15,110,209 // movd %ecx,%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,88,21,60,151,0,0 // addps 0x973c(%rip),%xmm2 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,88,21,96,151,0,0 // addps 0x9760(%rip),%xmm2 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 255,224 // jmpq *%rax
@@ -49005,7 +50490,7 @@ HIDDEN _sk_black_color_sse41_lowp
FUNCTION(_sk_black_color_sse41_lowp)
_sk_black_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,129,148,0,0 // movaps 0x9481(%rip),%xmm3 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 15,40,29,165,148,0,0 // movaps 0x94a5(%rip),%xmm3 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -49016,7 +50501,7 @@ HIDDEN _sk_white_color_sse41_lowp
FUNCTION(_sk_white_color_sse41_lowp)
_sk_white_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,109,148,0,0 // movaps 0x946d(%rip),%xmm0 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 15,40,5,145,148,0,0 // movaps 0x9491(%rip),%xmm0 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -49027,10 +50512,10 @@ HIDDEN _sk_set_rgb_sse41_lowp
FUNCTION(_sk_set_rgb_sse41_lowp)
_sk_set_rgb_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,224,138,0,0 // movss 0x8ae0(%rip),%xmm2 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,15,16,21,8,139,0,0 // movss 0x8b08(%rip),%xmm2 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,159,138,0,0 // movss 0x8a9f(%rip),%xmm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,16,5,199,138,0,0 // movss 0x8ac7(%rip),%xmm8 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -49077,7 +50562,7 @@ HIDDEN _sk_premul_sse41_lowp
FUNCTION(_sk_premul_sse41_lowp)
_sk_premul_sse41_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,185,147,0,0 // movdqa 0x93b9(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,221,147,0,0 // movdqa 0x93dd(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -49094,7 +50579,7 @@ HIDDEN _sk_premul_dst_sse41_lowp
FUNCTION(_sk_premul_dst_sse41_lowp)
_sk_premul_dst_sse41_lowp:
.byte 102,15,213,231 // pmullw %xmm7,%xmm4
- .byte 102,68,15,111,5,130,147,0,0 // movdqa 0x9382(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,166,147,0,0 // movdqa 0x93a6(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,224 // paddw %xmm8,%xmm4
.byte 102,15,113,212,8 // psrlw $0x8,%xmm4
.byte 102,15,213,239 // pmullw %xmm7,%xmm5
@@ -49106,6 +50591,22 @@ _sk_premul_dst_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
+HIDDEN _sk_force_opaque_sse41_lowp
+.globl _sk_force_opaque_sse41_lowp
+FUNCTION(_sk_force_opaque_sse41_lowp)
+_sk_force_opaque_sse41_lowp:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,29,115,147,0,0 // movaps 0x9373(%rip),%xmm3 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_force_opaque_dst_sse41_lowp
+.globl _sk_force_opaque_dst_sse41_lowp
+FUNCTION(_sk_force_opaque_dst_sse41_lowp)
+_sk_force_opaque_dst_sse41_lowp:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,61,104,147,0,0 // movaps 0x9368(%rip),%xmm7 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
+ .byte 255,224 // jmpq *%rax
+
HIDDEN _sk_swap_rb_sse41_lowp
.globl _sk_swap_rb_sse41_lowp
FUNCTION(_sk_swap_rb_sse41_lowp)
@@ -49142,7 +50643,7 @@ HIDDEN _sk_invert_sse41_lowp
.globl _sk_invert_sse41_lowp
FUNCTION(_sk_invert_sse41_lowp)
_sk_invert_sse41_lowp:
- .byte 102,68,15,111,5,32,147,0,0 // movdqa 0x9320(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,46,147,0,0 // movdqa 0x932e(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -49174,7 +50675,7 @@ FUNCTION(_sk_srcatop_sse41_lowp)
_sk_srcatop_sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,196,146,0,0 // movdqa 0x92c4(%rip),%xmm3 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,15,111,29,210,146,0,0 // movdqa 0x92d2(%rip),%xmm3 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -49206,7 +50707,7 @@ FUNCTION(_sk_dstatop_sse41_lowp)
_sk_dstatop_sse41_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,68,146,0,0 // movdqa 0x9244(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,82,146,0,0 // movdqa 0x9252(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -49235,7 +50736,7 @@ HIDDEN _sk_srcin_sse41_lowp
FUNCTION(_sk_srcin_sse41_lowp)
_sk_srcin_sse41_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,207,145,0,0 // movdqa 0x91cf(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,221,145,0,0 // movdqa 0x91dd(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -49256,7 +50757,7 @@ FUNCTION(_sk_dstin_sse41_lowp)
_sk_dstin_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,134,145,0,0 // movdqa 0x9186(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,148,145,0,0 // movdqa 0x9194(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -49277,7 +50778,7 @@ HIDDEN _sk_srcout_sse41_lowp
.globl _sk_srcout_sse41_lowp
FUNCTION(_sk_srcout_sse41_lowp)
_sk_srcout_sse41_lowp:
- .byte 102,68,15,111,5,61,145,0,0 // movdqa 0x913d(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,75,145,0,0 // movdqa 0x914b(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -49300,7 +50801,7 @@ HIDDEN _sk_dstout_sse41_lowp
FUNCTION(_sk_dstout_sse41_lowp)
_sk_dstout_sse41_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,230,144,0,0 // movdqa 0x90e6(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,244,144,0,0 // movdqa 0x90f4(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -49325,7 +50826,7 @@ HIDDEN _sk_srcover_sse41_lowp
.globl _sk_srcover_sse41_lowp
FUNCTION(_sk_srcover_sse41_lowp)
_sk_srcover_sse41_lowp:
- .byte 102,68,15,111,13,140,144,0,0 // movdqa 0x908c(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,154,144,0,0 // movdqa 0x909a(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -49354,7 +50855,7 @@ HIDDEN _sk_dstover_sse41_lowp
.globl _sk_dstover_sse41_lowp
FUNCTION(_sk_dstover_sse41_lowp)
_sk_dstover_sse41_lowp:
- .byte 102,68,15,111,5,18,144,0,0 // movdqa 0x9012(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,32,144,0,0 // movdqa 0x9020(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -49381,7 +50882,7 @@ HIDDEN _sk_modulate_sse41_lowp
FUNCTION(_sk_modulate_sse41_lowp)
_sk_modulate_sse41_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,171,143,0,0 // movdqa 0x8fab(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,185,143,0,0 // movdqa 0x8fb9(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -49400,7 +50901,7 @@ HIDDEN _sk_multiply_sse41_lowp
.globl _sk_multiply_sse41_lowp
FUNCTION(_sk_multiply_sse41_lowp)
_sk_multiply_sse41_lowp:
- .byte 102,68,15,111,13,106,143,0,0 // movdqa 0x8f6a(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,120,143,0,0 // movdqa 0x8f78(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -49443,7 +50944,7 @@ HIDDEN _sk_plus__sse41_lowp
FUNCTION(_sk_plus__sse41_lowp)
_sk_plus__sse41_lowp:
.byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,68,15,111,5,175,142,0,0 // movdqa 0x8eaf(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,189,142,0,0 // movdqa 0x8ebd(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,56,58,192 // pminuw %xmm8,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,65,15,56,58,200 // pminuw %xmm8,%xmm1
@@ -49463,7 +50964,7 @@ _sk_screen_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,105,142,0,0 // movdqa 0x8e69(%rip),%xmm10 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,21,119,142,0,0 // movdqa 0x8e77(%rip),%xmm10 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -49495,7 +50996,7 @@ HIDDEN _sk_xor__sse41_lowp
FUNCTION(_sk_xor__sse41_lowp)
_sk_xor__sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,231,141,0,0 // movdqa 0x8de7(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,245,141,0,0 // movdqa 0x8df5(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -49538,7 +51039,7 @@ _sk_darken_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,62,201 // pmaxuw %xmm9,%xmm1
- .byte 102,68,15,111,13,46,141,0,0 // movdqa 0x8d2e(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,60,141,0,0 // movdqa 0x8d3c(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -49582,7 +51083,7 @@ _sk_lighten_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,113,140,0,0 // movdqa 0x8c71(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,127,140,0,0 // movdqa 0x8c7f(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -49626,10 +51127,10 @@ _sk_difference_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,180,139,0,0 // movdqa 0x8bb4(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,194,139,0,0 // movdqa 0x8bc2(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,225,146,0,0 // movdqa 0x92e1(%rip),%xmm10 # 3b490 <_sk_srcover_bgra_8888_sse2_lowp+0x1394>
+ .byte 102,68,15,111,21,47,147,0,0 // movdqa 0x932f(%rip),%xmm10 # 3ca70 <_sk_srcover_bgra_8888_sse2_lowp+0x13d0>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,221 // movdqa %xmm5,%xmm11
@@ -49671,10 +51172,10 @@ _sk_exclusion_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,240,138,0,0 // movdqa 0x8af0(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,254,138,0,0 // movdqa 0x8afe(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,29,146,0,0 // movdqa 0x921d(%rip),%xmm10 # 3b490 <_sk_srcover_bgra_8888_sse2_lowp+0x1394>
+ .byte 102,68,15,111,21,107,146,0,0 // movdqa 0x926b(%rip),%xmm10 # 3ca70 <_sk_srcover_bgra_8888_sse2_lowp+0x13d0>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -49710,14 +51211,14 @@ _sk_hardlight_sse41_lowp:
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,75,138,0,0 // movdqa 0x8a4b(%rip),%xmm11 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,29,89,138,0,0 // movdqa 0x8a59(%rip),%xmm11 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,227 // movdqa %xmm11,%xmm4
.byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
.byte 102,68,15,111,251 // movdqa %xmm3,%xmm15
.byte 102,69,15,249,248 // psubw %xmm8,%xmm15
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
- .byte 102,68,15,111,13,116,145,0,0 // movdqa 0x9174(%rip),%xmm9 # 3b4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a4>
+ .byte 102,68,15,111,13,194,145,0,0 // movdqa 0x91c2(%rip),%xmm9 # 3ca80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,239,241 // pxor %xmm9,%xmm14
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -49764,7 +51265,7 @@ _sk_hardlight_sse41_lowp:
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,60,137,0,0 // movdqa 0x893c(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,74,137,0,0 // movdqa 0x894a(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -49803,7 +51304,7 @@ FUNCTION(_sk_overlay_sse41_lowp)
_sk_overlay_sse41_lowp:
.byte 102,68,15,111,231 // movdqa %xmm7,%xmm12
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,159,136,0,0 // movdqa 0x889f(%rip),%xmm11 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,29,173,136,0,0 // movdqa 0x88ad(%rip),%xmm11 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
@@ -49815,7 +51316,7 @@ _sk_overlay_sse41_lowp:
.byte 102,68,15,249,252 // psubw %xmm4,%xmm15
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,68,15,111,13,176,143,0,0 // movdqa 0x8fb0(%rip),%xmm9 # 3b4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a4>
+ .byte 102,68,15,111,13,254,143,0,0 // movdqa 0x8ffe(%rip),%xmm9 # 3ca80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
.byte 102,69,15,111,212 // movdqa %xmm12,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
.byte 102,69,15,213,254 // pmullw %xmm14,%xmm15
@@ -49861,7 +51362,7 @@ _sk_overlay_sse41_lowp:
.byte 102,15,253,210 // paddw %xmm2,%xmm2
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,130,135,0,0 // movdqa 0x8782(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,144,135,0,0 // movdqa 0x8790(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -49904,71 +51405,70 @@ _sk_load_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 32690 <_sk_load_8888_sse41_lowp+0x44>
+ .byte 119,41 // ja 33c22 <_sk_load_8888_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 32768 <_sk_load_8888_sse41_lowp+0x11c>
+ .byte 76,141,13,240,0,0,0 // lea 0xf0(%rip),%r9 # 33cf8 <_sk_load_8888_sse41_lowp+0x11a>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,144 // movd (%r8,%rdx,4),%xmm2
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 326e9 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 33c7b <_sk_load_8888_sse41_lowp+0x9d>
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 326e9 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 33c7b <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 243,65,15,126,20,144 // movq (%r8,%rdx,4),%xmm2
.byte 102,65,15,58,14,208,240 // pblendw $0xf0,%xmm8,%xmm2
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,37 // jmp 326e9 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 33c7b <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
- .byte 102,15,111,5,191,141,0,0 // movdqa 0x8dbf(%rip),%xmm0 # 3b4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b4>
+ .byte 102,15,111,5,13,142,0,0 // movdqa 0x8e0d(%rip),%xmm0 # 3ca90 <_sk_srcover_bgra_8888_sse2_lowp+0x13f0>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,56,0,200 // pshufb %xmm0,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,216 // pshufb %xmm0,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,63,134,0,0 // movdqa 0x863f(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,77,134,0,0 // movdqa 0x864d(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,152,141,0,0 // movdqa 0x8d98(%rip),%xmm10 # 3b4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
+ .byte 102,68,15,111,21,230,141,0,0 // movdqa 0x8de6(%rip),%xmm10 # 3caa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1400>
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,133,141,0,0 // movdqa 0x8d85(%rip),%xmm10 # 3b4d0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
+ .byte 102,68,15,111,21,211,141,0,0 // movdqa 0x8dd3(%rip),%xmm10 # 3cab0 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
.byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 27,255 // sbb %edi,%edi
+ .byte 144 // nop
+ .byte 29,255,255,255,74 // sbb $0x4affffff,%eax
.byte 255 // (bad)
- .byte 255,72,255 // decl -0x1(%rax)
.byte 255 // (bad)
- .byte 255,55 // pushq (%rdi)
.byte 255 // (bad)
+ .byte 57,255 // cmp %edi,%edi
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 32775 <_sk_load_8888_sse41_lowp+0x129>
+ .byte 125,255 // jge 33d05 <_sk_load_8888_sse41_lowp+0x127>
.byte 255 // (bad)
- .byte 255,114,255 // pushq -0x1(%rdx)
+ .byte 255,116,255,255 // pushq -0x1(%rdi,%rdi,8)
+ .byte 255,107,255 // ljmp *-0x1(%rbx)
.byte 255 // (bad)
- .byte 255,105,255 // ljmp *-0x1(%rcx)
+ .byte 255,94,255 // lcall *-0x1(%rsi)
.byte 255 // (bad)
- .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
.byte 255 // .byte 0xff
HIDDEN _sk_load_8888_dst_sse41_lowp
@@ -49984,49 +51484,49 @@ _sk_load_8888_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 327c8 <_sk_load_8888_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 33d58 <_sk_load_8888_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 328a0 <_sk_load_8888_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 33e30 <_sk_load_8888_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 32821 <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 33db1 <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 32821 <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 33db1 <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 32821 <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 33db1 <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,135,140,0,0 // movdqa 0x8c87(%rip),%xmm4 # 3b4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b4>
+ .byte 102,15,111,37,215,140,0,0 // movdqa 0x8cd7(%rip),%xmm4 # 3ca90 <_sk_srcover_bgra_8888_sse2_lowp+0x13f0>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,7,133,0,0 // movdqa 0x8507(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,23,133,0,0 // movdqa 0x8517(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,96,140,0,0 // movdqa 0x8c60(%rip),%xmm10 # 3b4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
+ .byte 102,68,15,111,21,176,140,0,0 // movdqa 0x8cb0(%rip),%xmm10 # 3caa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1400>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,77,140,0,0 // movdqa 0x8c4d(%rip),%xmm10 # 3b4d0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
+ .byte 102,68,15,111,21,157,140,0,0 // movdqa 0x8c9d(%rip),%xmm10 # 3cab0 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
.byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -50042,7 +51542,7 @@ _sk_load_8888_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 328ad <_sk_load_8888_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 33e3d <_sk_load_8888_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -50079,20 +51579,20 @@ _sk_store_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 32942 <_sk_store_8888_sse41_lowp+0x86>
+ .byte 119,27 // ja 33ed2 <_sk_store_8888_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 32988 <_sk_store_8888_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 33f18 <_sk_store_8888_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 32981 <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 33f11 <_sk_store_8888_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 32981 <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 33f11 <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 32981 <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 33f11 <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -50136,49 +51636,49 @@ _sk_load_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 329e8 <_sk_load_bgra_sse41_lowp+0x44>
+ .byte 119,41 // ja 33f78 <_sk_load_bgra_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 32ac0 <_sk_load_bgra_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 34050 <_sk_load_bgra_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 32a41 <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 33fd1 <_sk_load_bgra_sse41_lowp+0x9d>
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 32a41 <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 33fd1 <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,65,15,58,14,192,240 // pblendw $0xf0,%xmm8,%xmm0
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 235,37 // jmp 32a41 <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 33fd1 <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
- .byte 102,15,111,21,103,138,0,0 // movdqa 0x8a67(%rip),%xmm2 # 3b4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b4>
+ .byte 102,15,111,21,183,138,0,0 // movdqa 0x8ab7(%rip),%xmm2 # 3ca90 <_sk_srcover_bgra_8888_sse2_lowp+0x13f0>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,56,0,202 // pshufb %xmm2,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,218 // pshufb %xmm2,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,231,130,0,0 // movdqa 0x82e7(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,247,130,0,0 // movdqa 0x82f7(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,64,138,0,0 // movdqa 0x8a40(%rip),%xmm10 # 3b4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
+ .byte 102,68,15,111,21,144,138,0,0 // movdqa 0x8a90(%rip),%xmm10 # 3caa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1400>
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,45,138,0,0 // movdqa 0x8a2d(%rip),%xmm10 # 3b4d0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
+ .byte 102,68,15,111,21,125,138,0,0 // movdqa 0x8a7d(%rip),%xmm10 # 3cab0 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
.byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0
@@ -50194,7 +51694,7 @@ _sk_load_bgra_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 32acd <_sk_load_bgra_sse41_lowp+0x129>
+ .byte 123,255 // jnp 3405d <_sk_load_bgra_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -50216,49 +51716,49 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 32b20 <_sk_load_bgra_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 340b0 <_sk_load_bgra_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 32bf8 <_sk_load_bgra_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 34188 <_sk_load_bgra_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 32b79 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 34109 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 32b79 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 34109 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4
.byte 102,68,15,111,197 // movdqa %xmm5,%xmm8
- .byte 235,37 // jmp 32b79 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 34109 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 102,15,111,53,47,137,0,0 // movdqa 0x892f(%rip),%xmm6 # 3b4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b4>
+ .byte 102,15,111,53,127,137,0,0 // movdqa 0x897f(%rip),%xmm6 # 3ca90 <_sk_srcover_bgra_8888_sse2_lowp+0x13f0>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,254 // pshufb %xmm6,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,175,129,0,0 // movdqa 0x81af(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,191,129,0,0 // movdqa 0x81bf(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,8,137,0,0 // movdqa 0x8908(%rip),%xmm10 # 3b4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
+ .byte 102,68,15,111,21,88,137,0,0 // movdqa 0x8958(%rip),%xmm10 # 3caa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1400>
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,245,136,0,0 // movdqa 0x88f5(%rip),%xmm10 # 3b4d0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
+ .byte 102,68,15,111,21,69,137,0,0 // movdqa 0x8945(%rip),%xmm10 # 3cab0 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
.byte 102,65,15,56,0,226 // pshufb %xmm10,%xmm4
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4
@@ -50274,7 +51774,7 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 32c05 <_sk_load_bgra_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 34195 <_sk_load_bgra_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -50311,20 +51811,20 @@ _sk_store_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 32c9a <_sk_store_bgra_sse41_lowp+0x86>
+ .byte 119,27 // ja 3422a <_sk_store_bgra_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 32ce0 <_sk_store_bgra_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 34270 <_sk_store_bgra_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 32cd9 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 34269 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 32cd9 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 34269 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 32cd9 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 34269 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -50427,17 +51927,17 @@ _sk_gather_8888_sse41_lowp:
.byte 102,65,15,196,202,5 // pinsrw $0x5,%r10d,%xmm1
.byte 102,65,15,196,201,6 // pinsrw $0x6,%r9d,%xmm1
.byte 102,15,196,200,7 // pinsrw $0x7,%eax,%xmm1
- .byte 102,68,15,111,13,24,127,0,0 // movdqa 0x7f18(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,40,127,0,0 // movdqa 0x7f28(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,113,134,0,0 // movdqa 0x8671(%rip),%xmm10 # 3b4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
+ .byte 102,68,15,111,21,193,134,0,0 // movdqa 0x86c1(%rip),%xmm10 # 3caa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1400>
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,94,134,0,0 // movdqa 0x865e(%rip),%xmm10 # 3b4d0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
+ .byte 102,68,15,111,21,174,134,0,0 // movdqa 0x86ae(%rip),%xmm10 # 3cab0 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
.byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2
@@ -50522,17 +52022,17 @@ _sk_gather_bgra_sse41_lowp:
.byte 102,65,15,196,202,5 // pinsrw $0x5,%r10d,%xmm1
.byte 102,65,15,196,201,6 // pinsrw $0x6,%r9d,%xmm1
.byte 102,15,196,200,7 // pinsrw $0x7,%eax,%xmm1
- .byte 102,68,15,111,13,128,125,0,0 // movdqa 0x7d80(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,144,125,0,0 // movdqa 0x7d90(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,217,132,0,0 // movdqa 0x84d9(%rip),%xmm10 # 3b4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
+ .byte 102,68,15,111,21,41,133,0,0 // movdqa 0x8529(%rip),%xmm10 # 3caa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1400>
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,198,132,0,0 // movdqa 0x84c6(%rip),%xmm10 # 3b4d0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
+ .byte 102,68,15,111,21,22,133,0,0 // movdqa 0x8516(%rip),%xmm10 # 3cab0 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
.byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0
@@ -50558,23 +52058,23 @@ _sk_load_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 33068 <_sk_load_565_sse41_lowp+0x3c>
+ .byte 119,34 // ja 345f8 <_sk_load_565_sse41_lowp+0x3c>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 33118 <_sk_load_565_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 346a8 <_sk_load_565_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,74 // jmp 330b2 <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,74 // jmp 34642 <_sk_load_565_sse41_lowp+0x86>
.byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,66 // jmp 330b2 <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,66 // jmp 34642 <_sk_load_565_sse41_lowp+0x86>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,76,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm1
.byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,40 // jmp 330b2 <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,40 // jmp 34642 <_sk_load_565_sse41_lowp+0x86>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,76,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm1
.byte 102,65,15,196,76,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm1
@@ -50583,11 +52083,11 @@ _sk_load_565_sse41_lowp:
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,29,132,0,0 // pand 0x841d(%rip),%xmm3 # 3b4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
+ .byte 102,15,219,29,109,132,0,0 // pand 0x846d(%rip),%xmm3 # 3cac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,28,132,0,0 // pand 0x841c(%rip),%xmm1 # 3b4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,15,111,21,36,132,0,0 // movdqa 0x8424(%rip),%xmm2 # 3b500 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
+ .byte 102,15,219,13,108,132,0,0 // pand 0x846c(%rip),%xmm1 # 3cad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1430>
+ .byte 102,15,111,21,116,132,0,0 // movdqa 0x8474(%rip),%xmm2 # 3cae0 <_sk_srcover_bgra_8888_sse2_lowp+0x1440>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -50600,7 +52100,7 @@ _sk_load_565_sse41_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,58,124,0,0 // movaps 0x7c3a(%rip),%xmm3 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 15,40,29,74,124,0,0 // movaps 0x7c4a(%rip),%xmm3 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -50611,7 +52111,7 @@ _sk_load_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 3312d <_sk_load_565_sse41_lowp+0x101>
+ .byte 126,255 // jle 346bd <_sk_load_565_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -50630,23 +52130,23 @@ _sk_load_565_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 33170 <_sk_load_565_dst_sse41_lowp+0x3c>
+ .byte 119,34 // ja 34700 <_sk_load_565_dst_sse41_lowp+0x3c>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 33220 <_sk_load_565_dst_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 347b0 <_sk_load_565_dst_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,74 // jmp 331ba <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,74 // jmp 3474a <_sk_load_565_dst_sse41_lowp+0x86>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,66 // jmp 331ba <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,66 // jmp 3474a <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm5
.byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,40 // jmp 331ba <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,40 // jmp 3474a <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm5
.byte 102,65,15,196,108,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm5
@@ -50655,11 +52155,11 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,21,131,0,0 // pand 0x8315(%rip),%xmm7 # 3b4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
+ .byte 102,15,219,61,101,131,0,0 // pand 0x8365(%rip),%xmm7 # 3cac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,20,131,0,0 // pand 0x8314(%rip),%xmm5 # 3b4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,15,111,53,28,131,0,0 // movdqa 0x831c(%rip),%xmm6 # 3b500 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
+ .byte 102,15,219,45,100,131,0,0 // pand 0x8364(%rip),%xmm5 # 3cad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1430>
+ .byte 102,15,111,53,108,131,0,0 // movdqa 0x836c(%rip),%xmm6 # 3cae0 <_sk_srcover_bgra_8888_sse2_lowp+0x1440>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -50672,7 +52172,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,50,123,0,0 // movaps 0x7b32(%rip),%xmm7 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 15,40,61,66,123,0,0 // movaps 0x7b42(%rip),%xmm7 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -50683,7 +52183,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 33235 <_sk_load_565_dst_sse41_lowp+0x101>
+ .byte 126,255 // jle 347c5 <_sk_load_565_dst_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -50700,10 +52200,10 @@ _sk_store_565_sse41_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,176,130,0,0 // pand 0x82b0(%rip),%xmm8 # 3b510 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
+ .byte 102,68,15,219,5,0,131,0,0 // pand 0x8300(%rip),%xmm8 # 3caf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1450>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,172,130,0,0 // pand 0x82ac(%rip),%xmm9 # 3b520 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
+ .byte 102,68,15,219,13,252,130,0,0 // pand 0x82fc(%rip),%xmm9 # 3cb00 <_sk_srcover_bgra_8888_sse2_lowp+0x1460>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -50712,19 +52212,19 @@ _sk_store_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 332b0 <_sk_store_565_sse41_lowp+0x74>
+ .byte 119,29 // ja 34840 <_sk_store_565_sse41_lowp+0x74>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 332f0 <_sk_store_565_sse41_lowp+0xb4>
+ .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 34880 <_sk_store_565_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,58 // jmp 332ea <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,58 // jmp 3487a <_sk_store_565_sse41_lowp+0xae>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,50 // jmp 332ea <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,50 // jmp 3487a <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,33 // jmp 332ea <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,33 // jmp 3487a <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
@@ -50744,7 +52244,7 @@ _sk_store_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 235,255 // jmp 33301 <_sk_store_565_sse41_lowp+0xc5>
+ .byte 235,255 // jmp 34891 <_sk_store_565_sse41_lowp+0xc5>
.byte 255 // (bad)
.byte 255,226 // jmpq *%rdx
.byte 255 // (bad)
@@ -50821,11 +52321,11 @@ _sk_gather_565_sse41_lowp:
.byte 102,15,196,192,7 // pinsrw $0x7,%eax,%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,186,128,0,0 // pand 0x80ba(%rip),%xmm3 # 3b4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
+ .byte 102,15,219,29,10,129,0,0 // pand 0x810a(%rip),%xmm3 # 3cac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,185,128,0,0 // pand 0x80b9(%rip),%xmm1 # 3b4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,15,111,21,193,128,0,0 // movdqa 0x80c1(%rip),%xmm2 # 3b500 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
+ .byte 102,15,219,13,9,129,0,0 // pand 0x8109(%rip),%xmm1 # 3cad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1430>
+ .byte 102,15,111,21,17,129,0,0 // movdqa 0x8111(%rip),%xmm2 # 3cae0 <_sk_srcover_bgra_8888_sse2_lowp+0x1440>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -50838,7 +52338,7 @@ _sk_gather_565_sse41_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,215,120,0,0 // movaps 0x78d7(%rip),%xmm3 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 15,40,29,231,120,0,0 // movaps 0x78e7(%rip),%xmm3 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -50859,23 +52359,23 @@ _sk_load_4444_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 334c0 <_sk_load_4444_sse41_lowp+0x3d>
+ .byte 119,35 // ja 34a50 <_sk_load_4444_sse41_lowp+0x3d>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,209,0,0,0 // lea 0xd1(%rip),%r9 # 3357c <_sk_load_4444_sse41_lowp+0xf9>
+ .byte 76,141,13,209,0,0,0 // lea 0xd1(%rip),%r9 # 34b0c <_sk_load_4444_sse41_lowp+0xf9>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,76 // jmp 3350c <_sk_load_4444_sse41_lowp+0x89>
+ .byte 235,76 // jmp 34a9c <_sk_load_4444_sse41_lowp+0x89>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,68 // jmp 3350c <_sk_load_4444_sse41_lowp+0x89>
+ .byte 235,68 // jmp 34a9c <_sk_load_4444_sse41_lowp+0x89>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,4,80 // movd (%r8,%rdx,2),%xmm8
.byte 102,68,15,58,14,192,252 // pblendw $0xfc,%xmm0,%xmm8
- .byte 235,41 // jmp 3350c <_sk_load_4444_sse41_lowp+0x89>
+ .byte 235,41 // jmp 34a9c <_sk_load_4444_sse41_lowp+0x89>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -50886,7 +52386,7 @@ _sk_load_4444_sse41_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,8,128,0,0 // movdqa 0x8008(%rip),%xmm0 # 3b530 <_sk_srcover_bgra_8888_sse2_lowp+0x1434>
+ .byte 102,15,111,5,88,128,0,0 // movdqa 0x8058(%rip),%xmm0 # 3cb10 <_sk_srcover_bgra_8888_sse2_lowp+0x1470>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -50934,23 +52434,23 @@ _sk_load_4444_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 335d5 <_sk_load_4444_dst_sse41_lowp+0x3d>
+ .byte 119,35 // ja 34b65 <_sk_load_4444_dst_sse41_lowp+0x3d>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,208,0,0,0 // lea 0xd0(%rip),%r9 # 33690 <_sk_load_4444_dst_sse41_lowp+0xf8>
+ .byte 76,141,13,208,0,0,0 // lea 0xd0(%rip),%r9 # 34c20 <_sk_load_4444_dst_sse41_lowp+0xf8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,76 // jmp 33621 <_sk_load_4444_dst_sse41_lowp+0x89>
+ .byte 235,76 // jmp 34bb1 <_sk_load_4444_dst_sse41_lowp+0x89>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,68 // jmp 33621 <_sk_load_4444_dst_sse41_lowp+0x89>
+ .byte 235,68 // jmp 34bb1 <_sk_load_4444_dst_sse41_lowp+0x89>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
.byte 102,69,15,110,4,80 // movd (%r8,%rdx,2),%xmm8
.byte 102,68,15,58,14,196,252 // pblendw $0xfc,%xmm4,%xmm8
- .byte 235,41 // jmp 33621 <_sk_load_4444_dst_sse41_lowp+0x89>
+ .byte 235,41 // jmp 34bb1 <_sk_load_4444_dst_sse41_lowp+0x89>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
.byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
@@ -50961,7 +52461,7 @@ _sk_load_4444_dst_sse41_lowp:
.byte 102,15,113,213,12 // psrlw $0xc,%xmm5
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,111,37,243,126,0,0 // movdqa 0x7ef3(%rip),%xmm4 # 3b530 <_sk_srcover_bgra_8888_sse2_lowp+0x1434>
+ .byte 102,15,111,37,67,127,0,0 // movdqa 0x7f43(%rip),%xmm4 # 3cb10 <_sk_srcover_bgra_8888_sse2_lowp+0x1470>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,113,215,4 // psrlw $0x4,%xmm7
@@ -51006,12 +52506,12 @@ _sk_store_4444_sse41_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,112,126,0,0 // pand 0x7e70(%rip),%xmm8 # 3b540 <_sk_srcover_bgra_8888_sse2_lowp+0x1444>
+ .byte 102,68,15,219,5,192,126,0,0 // pand 0x7ec0(%rip),%xmm8 # 3cb20 <_sk_srcover_bgra_8888_sse2_lowp+0x1480>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,4 // psllw $0x4,%xmm9
- .byte 102,68,15,219,13,108,126,0,0 // pand 0x7e6c(%rip),%xmm9 # 3b550 <_sk_srcover_bgra_8888_sse2_lowp+0x1454>
+ .byte 102,68,15,219,13,188,126,0,0 // pand 0x7ebc(%rip),%xmm9 # 3cb30 <_sk_srcover_bgra_8888_sse2_lowp+0x1490>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
- .byte 102,68,15,111,21,110,126,0,0 // movdqa 0x7e6e(%rip),%xmm10 # 3b560 <_sk_srcover_bgra_8888_sse2_lowp+0x1464>
+ .byte 102,68,15,111,21,190,126,0,0 // movdqa 0x7ebe(%rip),%xmm10 # 3cb40 <_sk_srcover_bgra_8888_sse2_lowp+0x14a0>
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,65,15,113,208,4 // psrlw $0x4,%xmm8
@@ -51021,19 +52521,19 @@ _sk_store_4444_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 33733 <_sk_store_4444_sse41_lowp+0x87>
+ .byte 119,29 // ja 34cc3 <_sk_store_4444_sse41_lowp+0x87>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,84,0,0,0 // lea 0x54(%rip),%r9 # 33774 <_sk_store_4444_sse41_lowp+0xc8>
+ .byte 76,141,13,84,0,0,0 // lea 0x54(%rip),%r9 # 34d04 <_sk_store_4444_sse41_lowp+0xc8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,58 // jmp 3376d <_sk_store_4444_sse41_lowp+0xc1>
+ .byte 235,58 // jmp 34cfd <_sk_store_4444_sse41_lowp+0xc1>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,50 // jmp 3376d <_sk_store_4444_sse41_lowp+0xc1>
+ .byte 235,50 // jmp 34cfd <_sk_store_4444_sse41_lowp+0xc1>
.byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,33 // jmp 3376d <_sk_store_4444_sse41_lowp+0xc1>
+ .byte 235,33 // jmp 34cfd <_sk_store_4444_sse41_lowp+0xc1>
.byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
@@ -51133,7 +52633,7 @@ _sk_gather_4444_sse41_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,116,124,0,0 // movdqa 0x7c74(%rip),%xmm0 # 3b530 <_sk_srcover_bgra_8888_sse2_lowp+0x1434>
+ .byte 102,15,111,5,196,124,0,0 // movdqa 0x7cc4(%rip),%xmm0 # 3cb10 <_sk_srcover_bgra_8888_sse2_lowp+0x1470>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -51171,18 +52671,18 @@ _sk_load_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3394e <_sk_load_a8_sse41_lowp+0x39>
+ .byte 119,34 // ja 34ede <_sk_load_a8_sse41_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 339cc <_sk_load_a8_sse41_lowp+0xb7>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 34f5c <_sk_load_a8_sse41_lowp+0xb7>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,100 // jmp 339b2 <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 34f42 <_sk_load_a8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,28,16 // pmovzxbw (%r8,%rdx,1),%xmm3
- .byte 235,91 // jmp 339b2 <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 34f42 <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -51190,7 +52690,7 @@ _sk_load_a8_sse41_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,252 // pblendw $0xfc,%xmm0,%xmm3
- .byte 235,54 // jmp 339b2 <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 34f42 <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -51201,14 +52701,14 @@ _sk_load_a8_sse41_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,240 // pblendw $0xf0,%xmm0,%xmm3
- .byte 102,15,219,29,150,115,0,0 // pand 0x7396(%rip),%xmm3 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,15,219,29,166,115,0,0 // pand 0x73a6(%rip),%xmm3 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,255 // ja 339cd <_sk_load_a8_sse41_lowp+0xb8>
+ .byte 119,255 // ja 34f5d <_sk_load_a8_sse41_lowp+0xb8>
.byte 255 // (bad)
.byte 255,154,255,255,255,139 // lcall *-0x74000001(%rdx)
.byte 255 // (bad)
@@ -51237,18 +52737,18 @@ _sk_load_a8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 33a21 <_sk_load_a8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 34fb1 <_sk_load_a8_dst_sse41_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 33a9c <_sk_load_a8_dst_sse41_lowp+0xb4>
+ .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 3502c <_sk_load_a8_dst_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,100 // jmp 33a85 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 35015 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,60,16 // pmovzxbw (%r8,%rdx,1),%xmm7
- .byte 235,91 // jmp 33a85 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 35015 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -51256,7 +52756,7 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,252 // pblendw $0xfc,%xmm4,%xmm7
- .byte 235,54 // jmp 33a85 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 35015 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -51267,13 +52767,13 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,240 // pblendw $0xf0,%xmm4,%xmm7
- .byte 102,15,219,61,195,114,0,0 // pand 0x72c3(%rip),%xmm7 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,15,219,61,211,114,0,0 // pand 0x72d3(%rip),%xmm7 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 122,255 // jp 33a9d <_sk_load_a8_dst_sse41_lowp+0xb5>
+ .byte 122,255 // jp 3502d <_sk_load_a8_dst_sse41_lowp+0xb5>
.byte 255 // (bad)
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
.byte 255 // (bad)
@@ -51304,28 +52804,28 @@ _sk_store_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 33aec <_sk_store_a8_sse41_lowp+0x34>
+ .byte 119,29 // ja 3507c <_sk_store_a8_sse41_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 33b5c <_sk_store_a8_sse41_lowp+0xa4>
+ .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 350ec <_sk_store_a8_sse41_lowp+0xa4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,58,20,28,16,0 // pextrb $0x0,%xmm3,(%r8,%rdx,1)
- .byte 235,105 // jmp 33b55 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,105 // jmp 350e5 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,133,121,0,0 // pshufb 0x7985(%rip),%xmm8 # 3b480 <_sk_srcover_bgra_8888_sse2_lowp+0x1384>
+ .byte 102,68,15,56,0,5,213,121,0,0 // pshufb 0x79d5(%rip),%xmm8 # 3ca60 <_sk_srcover_bgra_8888_sse2_lowp+0x13c0>
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,82 // jmp 33b55 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,82 // jmp 350e5 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,2,4 // pextrb $0x4,%xmm3,0x2(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,69,114,0,0 // pshufb 0x7245(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
+ .byte 102,68,15,56,0,5,85,114,0,0 // pshufb 0x7255(%rip),%xmm8 # 3c300 <_sk_srcover_bgra_8888_sse2_lowp+0xc60>
.byte 102,69,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,48 // jmp 33b55 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,48 // jmp 350e5 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,6,12 // pextrb $0xc,%xmm3,0x6(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,5,10 // pextrb $0xa,%xmm3,0x5(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,4,8 // pextrb $0x8,%xmm3,0x4(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,33,114,0,0 // pshufb 0x7221(%rip),%xmm8 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xc74>
+ .byte 102,68,15,56,0,5,49,114,0,0 // pshufb 0x7231(%rip),%xmm8 # 3c310 <_sk_srcover_bgra_8888_sse2_lowp+0xc70>
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -51438,18 +52938,18 @@ _sk_load_g8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 33cde <_sk_load_g8_sse41_lowp+0x39>
+ .byte 119,34 // ja 3526e <_sk_load_g8_sse41_lowp+0x39>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,150,0,0,0 // lea 0x96(%rip),%r9 # 33d60 <_sk_load_g8_sse41_lowp+0xbb>
+ .byte 76,141,13,150,0,0,0 // lea 0x96(%rip),%r9 # 352f0 <_sk_load_g8_sse41_lowp+0xbb>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,100 // jmp 33d42 <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 352d2 <_sk_load_g8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm0
- .byte 235,91 // jmp 33d42 <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 352d2 <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,2 // pinsrw $0x2,%eax,%xmm1
@@ -51457,7 +52957,7 @@ _sk_load_g8_sse41_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,54 // jmp 33d42 <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 352d2 <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,6 // pinsrw $0x6,%eax,%xmm1
@@ -51468,14 +52968,14 @@ _sk_load_g8_sse41_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
- .byte 102,15,219,5,6,112,0,0 // pand 0x7006(%rip),%xmm0 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,15,219,5,22,112,0,0 // pand 0x7016(%rip),%xmm0 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,253,111,0,0 // movaps 0x6ffd(%rip),%xmm3 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 15,40,29,13,112,0,0 // movaps 0x700d(%rip),%xmm3 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 115,255 // jae 33d61 <_sk_load_g8_sse41_lowp+0xbc>
+ .byte 115,255 // jae 352f1 <_sk_load_g8_sse41_lowp+0xbc>
.byte 255 // (bad)
.byte 255,150,255,255,255,135 // callq *-0x78000001(%rsi)
.byte 255 // (bad)
@@ -51504,18 +53004,18 @@ _sk_load_g8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 33db5 <_sk_load_g8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 35345 <_sk_load_g8_dst_sse41_lowp+0x39>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 33e34 <_sk_load_g8_dst_sse41_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 353c4 <_sk_load_g8_dst_sse41_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,100 // jmp 33e19 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 353a9 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,36,16 // pmovzxbw (%r8,%rdx,1),%xmm4
- .byte 235,91 // jmp 33e19 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 353a9 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,2 // pinsrw $0x2,%eax,%xmm5
@@ -51523,7 +53023,7 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,54 // jmp 33e19 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 353a9 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,6 // pinsrw $0x6,%eax,%xmm5
@@ -51534,13 +53034,13 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
- .byte 102,15,219,37,47,111,0,0 // pand 0x6f2f(%rip),%xmm4 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,15,219,37,63,111,0,0 // pand 0x6f3f(%rip),%xmm4 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,38,111,0,0 // movaps 0x6f26(%rip),%xmm7 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 15,40,61,54,111,0,0 // movaps 0x6f36(%rip),%xmm7 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 118,255 // jbe 33e35 <_sk_load_g8_dst_sse41_lowp+0xb9>
+ .byte 118,255 // jbe 353c5 <_sk_load_g8_dst_sse41_lowp+0xb9>
.byte 255 // (bad)
.byte 255,153,255,255,255,138 // lcall *-0x75000001(%rcx)
.byte 255 // (bad)
@@ -51562,10 +53062,10 @@ HIDDEN _sk_luminance_to_alpha_sse41_lowp
FUNCTION(_sk_luminance_to_alpha_sse41_lowp)
_sk_luminance_to_alpha_sse41_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,20,119,0,0 // pmullw 0x7714(%rip),%xmm0 # 3b570 <_sk_srcover_bgra_8888_sse2_lowp+0x1474>
- .byte 102,15,213,13,28,119,0,0 // pmullw 0x771c(%rip),%xmm1 # 3b580 <_sk_srcover_bgra_8888_sse2_lowp+0x1484>
+ .byte 102,15,213,5,100,119,0,0 // pmullw 0x7764(%rip),%xmm0 # 3cb50 <_sk_srcover_bgra_8888_sse2_lowp+0x14b0>
+ .byte 102,15,213,13,108,119,0,0 // pmullw 0x776c(%rip),%xmm1 # 3cb60 <_sk_srcover_bgra_8888_sse2_lowp+0x14c0>
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,32,119,0,0 // pmullw 0x7720(%rip),%xmm3 # 3b590 <_sk_srcover_bgra_8888_sse2_lowp+0x1494>
+ .byte 102,15,213,29,112,119,0,0 // pmullw 0x7770(%rip),%xmm3 # 3cb70 <_sk_srcover_bgra_8888_sse2_lowp+0x14d0>
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -51641,7 +53141,7 @@ _sk_gather_g8_sse41_lowp:
.byte 102,15,58,32,192,7 // pinsrb $0x7,%eax,%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,169,109,0,0 // movaps 0x6da9(%rip),%xmm3 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 15,40,29,185,109,0,0 // movaps 0x6db9(%rip),%xmm3 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 91 // pop %rbx
@@ -51657,14 +53157,14 @@ FUNCTION(_sk_scale_1_float_sse41_lowp)
_sk_scale_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,15,100,0,0 // mulss 0x640f(%rip),%xmm8 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,214,99,0,0 // addss 0x63d6(%rip),%xmm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,35,100,0,0 // mulss 0x6423(%rip),%xmm8 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,234,99,0,0 // addss 0x63ea(%rip),%xmm8 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,90,109,0,0 // movdqa 0x6d5a(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,106,109,0,0 // movdqa 0x6d6a(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -51685,13 +53185,13 @@ FUNCTION(_sk_lerp_1_float_sse41_lowp)
_sk_lerp_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,151,99,0,0 // mulss 0x6397(%rip),%xmm8 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,94,99,0,0 // addss 0x635e(%rip),%xmm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,171,99,0,0 // mulss 0x63ab(%rip),%xmm8 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,114,99,0,0 // addss 0x6372(%rip),%xmm8 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,231,108,0,0 // movdqa 0x6ce7(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,247,108,0,0 // movdqa 0x6cf7(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -51731,18 +53231,18 @@ _sk_scale_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 34120 <_sk_scale_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 356b0 <_sk_scale_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 341e8 <_sk_scale_u8_sse41_lowp+0x103>
+ .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 35778 <_sk_scale_u8_sse41_lowp+0x103>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 3418f <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 3571f <_sk_scale_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 3418f <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 3571f <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -51750,7 +53250,7 @@ _sk_scale_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 3418f <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 3571f <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -51761,9 +53261,9 @@ _sk_scale_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,184,107,0,0 // pand 0x6bb8(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,219,5,200,107,0,0 // pand 0x6bc8(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,170,107,0,0 // movdqa 0x6baa(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,186,107,0,0 // movdqa 0x6bba(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -51788,7 +53288,7 @@ _sk_scale_u8_sse41_lowp:
.byte 255,148,255,255,255,136,255 // callq *-0x770001(%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 341fd <_sk_scale_u8_sse41_lowp+0x118>
+ .byte 124,255 // jl 3578d <_sk_scale_u8_sse41_lowp+0x118>
.byte 255 // (bad)
.byte 255,107,255 // ljmp *-0x1(%rbx)
.byte 255 // (bad)
@@ -51806,18 +53306,18 @@ _sk_lerp_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 3423f <_sk_lerp_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 357cf <_sk_lerp_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 34348 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 358d8 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 342ae <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 3583e <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 342ae <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 3583e <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -51825,7 +53325,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 342ae <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 3583e <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -51836,8 +53336,8 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,153,106,0,0 // pand 0x6a99(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
- .byte 102,68,15,111,21,144,106,0,0 // movdqa 0x6a90(%rip),%xmm10 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,219,5,169,106,0,0 // pand 0x6aa9(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
+ .byte 102,68,15,111,21,160,106,0,0 // movdqa 0x6aa0(%rip),%xmm10 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -51867,7 +53367,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 235,254 // jmp 34348 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 235,254 // jmp 358d8 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 255 // (bad)
.byte 255,17 // callq *(%rcx)
.byte 255 // (bad)
@@ -51901,23 +53401,23 @@ _sk_scale_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 343a6 <_sk_scale_565_sse41_lowp+0x42>
+ .byte 119,35 // ja 35936 <_sk_scale_565_sse41_lowp+0x42>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 34500 <_sk_scale_565_sse41_lowp+0x19c>
+ .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 35a90 <_sk_scale_565_sse41_lowp+0x19c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 343f2 <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,76 // jmp 35982 <_sk_scale_565_sse41_lowp+0x8e>
.byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 343f2 <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,68 // jmp 35982 <_sk_scale_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
.byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 343f2 <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,41 // jmp 35982 <_sk_scale_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -51926,11 +53426,11 @@ _sk_scale_565_sse41_lowp:
.byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,220,112,0,0 // pand 0x70dc(%rip),%xmm0 # 3b4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
+ .byte 102,15,219,5,44,113,0,0 // pand 0x712c(%rip),%xmm0 # 3cac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,216,112,0,0 // pand 0x70d8(%rip),%xmm10 # 3b4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,68,15,111,29,223,112,0,0 // movdqa 0x70df(%rip),%xmm11 # 3b500 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
+ .byte 102,68,15,219,21,40,113,0,0 // pand 0x7128(%rip),%xmm10 # 3cad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1430>
+ .byte 102,68,15,111,29,47,113,0,0 // movdqa 0x712f(%rip),%xmm11 # 3cae0 <_sk_srcover_bgra_8888_sse2_lowp+0x1440>
.byte 102,69,15,219,217 // pand %xmm9,%xmm11
.byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
.byte 102,68,15,235,200 // por %xmm0,%xmm9
@@ -51942,7 +53442,7 @@ _sk_scale_565_sse41_lowp:
.byte 102,15,113,240,3 // psllw $0x3,%xmm0
.byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
.byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,61,112,0,0 // movdqa 0x703d(%rip),%xmm0 # 3b4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a4>
+ .byte 102,15,111,5,141,112,0,0 // movdqa 0x708d(%rip),%xmm0 # 3ca80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
.byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
.byte 102,68,15,239,224 // pxor %xmm0,%xmm12
.byte 102,15,239,199 // pxor %xmm7,%xmm0
@@ -51955,7 +53455,7 @@ _sk_scale_565_sse41_lowp:
.byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
.byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
.byte 102,69,15,213,200 // pmullw %xmm8,%xmm9
- .byte 102,15,111,5,165,104,0,0 // movdqa 0x68a5(%rip),%xmm0 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,15,111,5,181,104,0,0 // movdqa 0x68b5(%rip),%xmm0 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,68,15,253,200 // paddw %xmm0,%xmm9
.byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
.byte 102,68,15,213,209 // pmullw %xmm1,%xmm10
@@ -52009,23 +53509,23 @@ _sk_lerp_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 3455e <_sk_lerp_565_sse41_lowp+0x42>
+ .byte 119,35 // ja 35aee <_sk_lerp_565_sse41_lowp+0x42>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 34704 <_sk_lerp_565_sse41_lowp+0x1e8>
+ .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 35c94 <_sk_lerp_565_sse41_lowp+0x1e8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 345aa <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,76 // jmp 35b3a <_sk_lerp_565_sse41_lowp+0x8e>
.byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 345aa <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,68 // jmp 35b3a <_sk_lerp_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
.byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 345aa <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,41 // jmp 35b3a <_sk_lerp_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -52034,11 +53534,11 @@ _sk_lerp_565_sse41_lowp:
.byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,36,111,0,0 // pand 0x6f24(%rip),%xmm0 # 3b4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
+ .byte 102,15,219,5,116,111,0,0 // pand 0x6f74(%rip),%xmm0 # 3cac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,32,111,0,0 // pand 0x6f20(%rip),%xmm10 # 3b4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,68,15,111,29,39,111,0,0 // movdqa 0x6f27(%rip),%xmm11 # 3b500 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
+ .byte 102,68,15,219,21,112,111,0,0 // pand 0x6f70(%rip),%xmm10 # 3cad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1430>
+ .byte 102,68,15,111,29,119,111,0,0 // movdqa 0x6f77(%rip),%xmm11 # 3cae0 <_sk_srcover_bgra_8888_sse2_lowp+0x1440>
.byte 102,69,15,219,217 // pand %xmm9,%xmm11
.byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
.byte 102,68,15,235,200 // por %xmm0,%xmm9
@@ -52050,7 +53550,7 @@ _sk_lerp_565_sse41_lowp:
.byte 102,15,113,240,3 // psllw $0x3,%xmm0
.byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
.byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,133,110,0,0 // movdqa 0x6e85(%rip),%xmm0 # 3b4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a4>
+ .byte 102,15,111,5,213,110,0,0 // movdqa 0x6ed5(%rip),%xmm0 # 3ca80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
.byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
.byte 102,68,15,239,224 // pxor %xmm0,%xmm12
.byte 102,15,239,199 // pxor %xmm7,%xmm0
@@ -52062,7 +53562,7 @@ _sk_lerp_565_sse41_lowp:
.byte 102,69,15,56,62,227 // pmaxuw %xmm11,%xmm12
.byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
.byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
- .byte 102,68,15,111,45,241,102,0,0 // movdqa 0x66f1(%rip),%xmm13 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,45,1,103,0,0 // movdqa 0x6701(%rip),%xmm13 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,239,197 // pxor %xmm13,%xmm0
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
@@ -52119,7 +53619,7 @@ _sk_clamp_x_1_sse41_lowp:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,124,102,0,0 // movaps 0x667c(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,140,102,0,0 // movaps 0x668c(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -52136,7 +53636,7 @@ _sk_repeat_x_1_sse41_lowp:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,70,102,0,0 // movaps 0x6646(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,86,102,0,0 // movaps 0x6656(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -52146,10 +53646,10 @@ HIDDEN _sk_mirror_x_1_sse41_lowp
.globl _sk_mirror_x_1_sse41_lowp
FUNCTION(_sk_mirror_x_1_sse41_lowp)
_sk_mirror_x_1_sse41_lowp:
- .byte 68,15,40,5,146,102,0,0 // movaps 0x6692(%rip),%xmm8 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xd14>
+ .byte 68,15,40,5,162,102,0,0 // movaps 0x66a2(%rip),%xmm8 # 3c3b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd10>
.byte 65,15,88,192 // addps %xmm8,%xmm0
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,13,18,102,0,0 // movaps 0x6612(%rip),%xmm9 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,13,34,102,0,0 // movaps 0x6622(%rip),%xmm9 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 68,15,89,200 // mulps %xmm0,%xmm9
@@ -52161,13 +53661,13 @@ _sk_mirror_x_1_sse41_lowp:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 65,15,88,200 // addps %xmm8,%xmm1
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,5,8,107,0,0 // movaps 0x6b08(%rip),%xmm8 # 3b2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x11d4>
+ .byte 68,15,40,5,88,107,0,0 // movaps 0x6b58(%rip),%xmm8 # 3c8b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1210>
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 65,15,84,200 // andps %xmm8,%xmm1
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,204,101,0,0 // movaps 0x65cc(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,220,101,0,0 // movaps 0x65dc(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -52194,7 +53694,7 @@ _sk_gradient_sse41_lowp:
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 72,131,249,2 // cmp $0x2,%rcx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 114,57 // jb 34865 <_sk_gradient_sse41_lowp+0x75>
+ .byte 114,57 // jb 35df5 <_sk_gradient_sse41_lowp+0x75>
.byte 72,139,80,72 // mov 0x48(%rax),%rdx
.byte 72,255,201 // dec %rcx
.byte 72,131,194,4 // add $0x4,%rdx
@@ -52209,7 +53709,7 @@ _sk_gradient_sse41_lowp:
.byte 102,15,250,218 // psubd %xmm2,%xmm3
.byte 72,131,194,4 // add $0x4,%rdx
.byte 72,255,201 // dec %rcx
- .byte 117,219 // jne 34840 <_sk_gradient_sse41_lowp+0x50>
+ .byte 117,219 // jne 35dd0 <_sk_gradient_sse41_lowp+0x50>
.byte 102,72,15,58,22,219,1 // pextrq $0x1,%xmm3,%rbx
.byte 65,137,221 // mov %ebx,%r13d
.byte 72,193,235,32 // shr $0x20,%rbx
@@ -52288,14 +53788,14 @@ _sk_gradient_sse41_lowp:
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 15,88,223 // addps %xmm7,%xmm3
- .byte 15,40,61,79,100,0,0 // movaps 0x644f(%rip),%xmm7 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 15,40,61,95,100,0,0 // movaps 0x645f(%rip),%xmm7 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 68,15,89,239 // mulps %xmm7,%xmm13
.byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 68,15,40,61,80,99,0,0 // movaps 0x6350(%rip),%xmm15 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,61,96,99,0,0 // movaps 0x6360(%rip),%xmm15 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 65,15,88,223 // addps %xmm15,%xmm3
.byte 243,65,15,91,245 // cvttps2dq %xmm13,%xmm6
- .byte 102,68,15,111,45,74,106,0,0 // movdqa 0x6a4a(%rip),%xmm13 # 3b4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b4>
+ .byte 102,68,15,111,45,154,106,0,0 // movdqa 0x6a9a(%rip),%xmm13 # 3ca90 <_sk_srcover_bgra_8888_sse2_lowp+0x13f0>
.byte 102,65,15,56,0,245 // pshufb %xmm13,%xmm6
.byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
.byte 102,69,15,56,0,197 // pshufb %xmm13,%xmm8
@@ -52399,9 +53899,9 @@ _sk_evenly_spaced_gradient_sse41_lowp:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 34c3e <_sk_evenly_spaced_gradient_sse41_lowp+0x34>
+ .byte 120,7 // js 361ce <_sk_evenly_spaced_gradient_sse41_lowp+0x34>
.byte 243,72,15,42,211 // cvtsi2ss %rbx,%xmm2
- .byte 235,21 // jmp 34c53 <_sk_evenly_spaced_gradient_sse41_lowp+0x49>
+ .byte 235,21 // jmp 361e3 <_sk_evenly_spaced_gradient_sse41_lowp+0x49>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -52539,14 +54039,14 @@ _sk_evenly_spaced_gradient_sse41_lowp:
.byte 15,40,100,36,176 // movaps -0x50(%rsp),%xmm4
.byte 68,15,89,196 // mulps %xmm4,%xmm8
.byte 68,15,88,192 // addps %xmm0,%xmm8
- .byte 15,40,5,44,95,0,0 // movaps 0x5f2c(%rip),%xmm0 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 15,40,5,60,95,0,0 // movaps 0x5f3c(%rip),%xmm0 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 68,15,40,53,45,94,0,0 // movaps 0x5e2d(%rip),%xmm14 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,53,61,94,0,0 // movaps 0x5e3d(%rip),%xmm14 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 69,15,88,198 // addps %xmm14,%xmm8
.byte 65,15,88,222 // addps %xmm14,%xmm3
.byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
- .byte 102,15,111,5,41,101,0,0 // movdqa 0x6529(%rip),%xmm0 # 3b4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b4>
+ .byte 102,15,111,5,121,101,0,0 // movdqa 0x6579(%rip),%xmm0 # 3ca90 <_sk_srcover_bgra_8888_sse2_lowp+0x13f0>
.byte 102,15,56,0,216 // pshufb %xmm0,%xmm3
.byte 243,69,15,91,192 // cvttps2dq %xmm8,%xmm8
.byte 102,68,15,56,0,192 // pshufb %xmm0,%xmm8
@@ -52556,7 +54056,7 @@ _sk_evenly_spaced_gradient_sse41_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 68,15,89,203 // mulps %xmm3,%xmm9
.byte 68,15,88,201 // addps %xmm1,%xmm9
- .byte 15,40,13,220,94,0,0 // movaps 0x5edc(%rip),%xmm1 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 15,40,13,236,94,0,0 // movaps 0x5eec(%rip),%xmm1 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 15,40,225 // movaps %xmm1,%xmm4
@@ -52625,14 +54125,14 @@ _sk_evenly_spaced_2_stop_gradient_sse41_lowp:
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 65,15,88,216 // addps %xmm8,%xmm3
.byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 68,15,40,21,214,93,0,0 // movaps 0x5dd6(%rip),%xmm10 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,21,230,93,0,0 // movaps 0x5de6(%rip),%xmm10 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 65,15,89,210 // mulps %xmm10,%xmm2
.byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 68,15,40,37,214,92,0,0 // movaps 0x5cd6(%rip),%xmm12 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,37,230,92,0,0 // movaps 0x5ce6(%rip),%xmm12 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 65,15,88,220 // addps %xmm12,%xmm3
.byte 65,15,88,212 // addps %xmm12,%xmm2
.byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 102,68,15,111,29,209,99,0,0 // movdqa 0x63d1(%rip),%xmm11 # 3b4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b4>
+ .byte 102,68,15,111,29,33,100,0,0 // movdqa 0x6421(%rip),%xmm11 # 3ca90 <_sk_srcover_bgra_8888_sse2_lowp+0x13f0>
.byte 102,65,15,56,0,211 // pshufb %xmm11,%xmm2
.byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
.byte 102,69,15,56,0,195 // pshufb %xmm11,%xmm8
@@ -52705,7 +54205,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 15,40,251 // movaps %xmm3,%xmm7
.byte 15,40,242 // movaps %xmm2,%xmm6
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 15,40,37,199,96,0,0 // movaps 0x60c7(%rip),%xmm4 # 3b2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x11d4>
+ .byte 15,40,37,23,97,0,0 // movaps 0x6117(%rip),%xmm4 # 3c8b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1210>
.byte 68,15,40,233 // movaps %xmm1,%xmm13
.byte 68,15,84,236 // andps %xmm4,%xmm13
.byte 69,15,40,216 // movaps %xmm8,%xmm11
@@ -52730,18 +54230,18 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 69,15,94,251 // divps %xmm11,%xmm15
.byte 65,15,40,199 // movaps %xmm15,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,29,199,96,0,0 // movaps 0x60c7(%rip),%xmm11 # 3b340 <_sk_srcover_bgra_8888_sse2_lowp+0x1244>
+ .byte 68,15,40,29,23,97,0,0 // movaps 0x6117(%rip),%xmm11 # 3c920 <_sk_srcover_bgra_8888_sse2_lowp+0x1280>
.byte 68,15,40,224 // movaps %xmm0,%xmm12
.byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 68,15,88,37,199,96,0,0 // addps 0x60c7(%rip),%xmm12 # 3b350 <_sk_srcover_bgra_8888_sse2_lowp+0x1254>
+ .byte 68,15,88,37,23,97,0,0 // addps 0x6117(%rip),%xmm12 # 3c930 <_sk_srcover_bgra_8888_sse2_lowp+0x1290>
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,45,204,96,0,0 // movaps 0x60cc(%rip),%xmm5 # 3b360 <_sk_srcover_bgra_8888_sse2_lowp+0x1264>
+ .byte 15,40,45,28,97,0,0 // movaps 0x611c(%rip),%xmm5 # 3c940 <_sk_srcover_bgra_8888_sse2_lowp+0x12a0>
.byte 68,15,88,229 // addps %xmm5,%xmm12
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,37,205,96,0,0 // movaps 0x60cd(%rip),%xmm4 # 3b370 <_sk_srcover_bgra_8888_sse2_lowp+0x1274>
+ .byte 15,40,37,29,97,0,0 // movaps 0x611d(%rip),%xmm4 # 3c950 <_sk_srcover_bgra_8888_sse2_lowp+0x12b0>
.byte 68,15,88,228 // addps %xmm4,%xmm12
.byte 69,15,89,231 // mulps %xmm15,%xmm12
- .byte 15,40,21,206,96,0,0 // movaps 0x60ce(%rip),%xmm2 # 3b380 <_sk_srcover_bgra_8888_sse2_lowp+0x1284>
+ .byte 15,40,21,30,97,0,0 // movaps 0x611e(%rip),%xmm2 # 3c960 <_sk_srcover_bgra_8888_sse2_lowp+0x12c0>
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 65,15,92,212 // subps %xmm12,%xmm2
.byte 65,15,40,194 // movaps %xmm10,%xmm0
@@ -52750,7 +54250,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,88,29,118,96,0,0 // addps 0x6076(%rip),%xmm11 # 3b350 <_sk_srcover_bgra_8888_sse2_lowp+0x1254>
+ .byte 68,15,88,29,198,96,0,0 // addps 0x60c6(%rip),%xmm11 # 3c930 <_sk_srcover_bgra_8888_sse2_lowp+0x1290>
.byte 68,15,89,216 // mulps %xmm0,%xmm11
.byte 68,15,88,221 // addps %xmm5,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
@@ -52761,7 +54261,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 102,68,15,56,20,219 // blendvps %xmm0,%xmm3,%xmm11
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 69,15,194,193,1 // cmpltps %xmm9,%xmm8
- .byte 15,40,21,148,90,0,0 // movaps 0x5a94(%rip),%xmm2 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,40,21,164,90,0,0 // movaps 0x5aa4(%rip),%xmm2 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 65,15,92,212 // subps %xmm12,%xmm2
.byte 65,15,40,192 // movaps %xmm8,%xmm0
@@ -52772,7 +54272,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 102,68,15,56,20,219 // blendvps %xmm0,%xmm3,%xmm11
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 65,15,194,193,1 // cmpltps %xmm9,%xmm0
- .byte 15,40,13,114,90,0,0 // movaps 0x5a72(%rip),%xmm1 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 15,40,13,130,90,0,0 // movaps 0x5a82(%rip),%xmm1 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 65,15,92,204 // subps %xmm12,%xmm1
.byte 102,68,15,56,20,225 // blendvps %xmm0,%xmm1,%xmm12
@@ -52826,48 +54326,48 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 3540a <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
+ .byte 119,38 // ja 3699a <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,20,2,0,0 // lea 0x214(%rip),%r11 # 35604 <_sk_srcover_rgba_8888_sse41_lowp+0x245>
+ .byte 76,141,29,20,2,0,0 // lea 0x214(%rip),%r11 # 36b94 <_sk_srcover_rgba_8888_sse41_lowp+0x245>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 35463 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,89 // jmp 369f3 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 35463 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,74 // jmp 369f3 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 35463 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,37 // jmp 369f3 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,69,96,0,0 // movdqa 0x6045(%rip),%xmm4 # 3b4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b4>
+ .byte 102,15,111,37,149,96,0,0 // movdqa 0x6095(%rip),%xmm4 # 3ca90 <_sk_srcover_bgra_8888_sse2_lowp+0x13f0>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,37,197,88,0,0 // movdqa 0x58c5(%rip),%xmm12 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,37,213,88,0,0 // movdqa 0x58d5(%rip),%xmm12 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,13,30,96,0,0 // movdqa 0x601e(%rip),%xmm9 # 3b4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
+ .byte 102,68,15,111,13,110,96,0,0 // movdqa 0x606e(%rip),%xmm9 # 3caa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1400>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
.byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7
- .byte 102,68,15,111,13,11,96,0,0 // movdqa 0x600b(%rip),%xmm9 # 3b4d0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
+ .byte 102,68,15,111,13,91,96,0,0 // movdqa 0x605b(%rip),%xmm9 # 3cab0 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
.byte 102,65,15,56,0,241 // pshufb %xmm9,%xmm6
.byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -52909,19 +54409,19 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 102,65,15,235,196 // por %xmm12,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 355ad <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
- .byte 76,141,21,132,0,0,0 // lea 0x84(%rip),%r10 # 35620 <_sk_srcover_rgba_8888_sse41_lowp+0x261>
+ .byte 119,24 // ja 36b3d <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
+ .byte 76,141,21,132,0,0,0 // lea 0x84(%rip),%r10 # 36bb0 <_sk_srcover_rgba_8888_sse41_lowp+0x261>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4)
- .byte 235,63 // jmp 355ec <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,63 // jmp 36b7c <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
.byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 355ec <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,48 // jmp 36b7c <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
.byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4)
- .byte 235,31 // jmp 355ec <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,31 // jmp 36b7c <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
.byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
.byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4)
@@ -52938,7 +54438,7 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 255,38 // jmpq *(%rsi)
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,21,254,255,255,89 // callq *0x59fffffe(%rip) # 5a03560f <_sk_srcover_bgra_8888_sse2_lowp+0x59ffb513>
+ .byte 255,21,254,255,255,89 // callq *0x59fffffe(%rip) # 5a036b9f <_sk_srcover_bgra_8888_sse2_lowp+0x59ffb4ff>
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255,80,254 // callq *-0x2(%rax)
@@ -52977,48 +54477,48 @@ _sk_srcover_bgra_8888_sse41_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 35687 <_sk_srcover_bgra_8888_sse41_lowp+0x4b>
+ .byte 119,38 // ja 36c17 <_sk_srcover_bgra_8888_sse41_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 35884 <_sk_srcover_bgra_8888_sse41_lowp+0x248>
+ .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 36e14 <_sk_srcover_bgra_8888_sse41_lowp+0x248>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 356e0 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
+ .byte 235,89 // jmp 36c70 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 356e0 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
+ .byte 235,74 // jmp 36c70 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4
.byte 102,68,15,111,197 // movdqa %xmm5,%xmm8
- .byte 235,37 // jmp 356e0 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
+ .byte 235,37 // jmp 36c70 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 102,15,111,53,200,93,0,0 // movdqa 0x5dc8(%rip),%xmm6 # 3b4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b4>
+ .byte 102,15,111,53,24,94,0,0 // movdqa 0x5e18(%rip),%xmm6 # 3ca90 <_sk_srcover_bgra_8888_sse2_lowp+0x13f0>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,254 // pshufb %xmm6,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,37,72,86,0,0 // movdqa 0x5648(%rip),%xmm12 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,37,88,86,0,0 // movdqa 0x5658(%rip),%xmm12 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,244 // pand %xmm12,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,13,161,93,0,0 // movdqa 0x5da1(%rip),%xmm9 # 3b4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
+ .byte 102,68,15,111,13,241,93,0,0 // movdqa 0x5df1(%rip),%xmm9 # 3caa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1400>
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
.byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7
- .byte 102,68,15,111,13,142,93,0,0 // movdqa 0x5d8e(%rip),%xmm9 # 3b4d0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
+ .byte 102,68,15,111,13,222,93,0,0 // movdqa 0x5dde(%rip),%xmm9 # 3cab0 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
.byte 102,65,15,56,0,225 // pshufb %xmm9,%xmm4
.byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8
.byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4
@@ -53060,19 +54560,19 @@ _sk_srcover_bgra_8888_sse41_lowp:
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 102,65,15,235,196 // por %xmm12,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 3582a <_sk_srcover_bgra_8888_sse41_lowp+0x1ee>
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 358a0 <_sk_srcover_bgra_8888_sse41_lowp+0x264>
+ .byte 119,24 // ja 36dba <_sk_srcover_bgra_8888_sse41_lowp+0x1ee>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 36e30 <_sk_srcover_bgra_8888_sse41_lowp+0x264>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4)
- .byte 235,63 // jmp 35869 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
+ .byte 235,63 // jmp 36df9 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
.byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
.byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 35869 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
+ .byte 235,48 // jmp 36df9 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
.byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4)
- .byte 235,31 // jmp 35869 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
+ .byte 235,31 // jmp 36df9 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
.byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
.byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4)
@@ -53137,13 +54637,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 35972 <_sk_start_pipeline_sse2_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 36f02 <_sk_start_pipeline_sse2_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 35940 <_sk_start_pipeline_sse2_lowp+0x84>
+ .byte 119,59 // ja 36ed0 <_sk_start_pipeline_sse2_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -53162,10 +54662,10 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 35909 <_sk_start_pipeline_sse2_lowp+0x4d>
+ .byte 118,201 // jbe 36e99 <_sk_start_pipeline_sse2_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 35969 <_sk_start_pipeline_sse2_lowp+0xad>
+ .byte 116,33 // je 36ef9 <_sk_start_pipeline_sse2_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -53179,7 +54679,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 358fb <_sk_start_pipeline_sse2_lowp+0x3f>
+ .byte 117,137 // jne 36e8b <_sk_start_pipeline_sse2_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -53210,7 +54710,7 @@ _sk_seed_shader_sse2_lowp:
.byte 102,15,110,209 // movd %ecx,%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,88,21,240,83,0,0 // addps 0x53f0(%rip),%xmm2 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,88,21,0,84,0,0 // addps 0x5400(%rip),%xmm2 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 255,224 // jmpq *%rax
@@ -53387,7 +54887,7 @@ HIDDEN _sk_black_color_sse2_lowp
FUNCTION(_sk_black_color_sse2_lowp)
_sk_black_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,53,81,0,0 // movaps 0x5135(%rip),%xmm3 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 15,40,29,69,81,0,0 // movaps 0x5145(%rip),%xmm3 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -53398,7 +54898,7 @@ HIDDEN _sk_white_color_sse2_lowp
FUNCTION(_sk_white_color_sse2_lowp)
_sk_white_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,33,81,0,0 // movaps 0x5121(%rip),%xmm0 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 15,40,5,49,81,0,0 // movaps 0x5131(%rip),%xmm0 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -53409,10 +54909,10 @@ HIDDEN _sk_set_rgb_sse2_lowp
FUNCTION(_sk_set_rgb_sse2_lowp)
_sk_set_rgb_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,148,71,0,0 // movss 0x4794(%rip),%xmm2 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,15,16,21,168,71,0,0 // movss 0x47a8(%rip),%xmm2 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,83,71,0,0 // movss 0x4753(%rip),%xmm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,16,5,103,71,0,0 // movss 0x4767(%rip),%xmm8 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -53438,7 +54938,7 @@ HIDDEN _sk_clamp_a_sse2_lowp
.globl _sk_clamp_a_sse2_lowp
FUNCTION(_sk_clamp_a_sse2_lowp)
_sk_clamp_a_sse2_lowp:
- .byte 102,68,15,111,5,231,87,0,0 // movdqa 0x57e7(%rip),%xmm8 # 3b4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a4>
+ .byte 102,68,15,111,5,55,88,0,0 // movdqa 0x5837(%rip),%xmm8 # 3ca80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
.byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
.byte 102,68,15,111,211 // movdqa %xmm3,%xmm10
@@ -53467,7 +54967,7 @@ HIDDEN _sk_clamp_a_dst_sse2_lowp
.globl _sk_clamp_a_dst_sse2_lowp
FUNCTION(_sk_clamp_a_dst_sse2_lowp)
_sk_clamp_a_dst_sse2_lowp:
- .byte 102,68,15,111,5,113,87,0,0 // movdqa 0x5771(%rip),%xmm8 # 3b4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a4>
+ .byte 102,68,15,111,5,193,87,0,0 // movdqa 0x57c1(%rip),%xmm8 # 3ca80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
.byte 102,68,15,111,204 // movdqa %xmm4,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
.byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
@@ -53497,7 +54997,7 @@ HIDDEN _sk_premul_sse2_lowp
FUNCTION(_sk_premul_sse2_lowp)
_sk_premul_sse2_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,167,79,0,0 // movdqa 0x4fa7(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,183,79,0,0 // movdqa 0x4fb7(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -53514,7 +55014,7 @@ HIDDEN _sk_premul_dst_sse2_lowp
FUNCTION(_sk_premul_dst_sse2_lowp)
_sk_premul_dst_sse2_lowp:
.byte 102,15,213,231 // pmullw %xmm7,%xmm4
- .byte 102,68,15,111,5,112,79,0,0 // movdqa 0x4f70(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,128,79,0,0 // movdqa 0x4f80(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,224 // paddw %xmm8,%xmm4
.byte 102,15,113,212,8 // psrlw $0x8,%xmm4
.byte 102,15,213,239 // pmullw %xmm7,%xmm5
@@ -53526,6 +55026,22 @@ _sk_premul_dst_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
+HIDDEN _sk_force_opaque_sse2_lowp
+.globl _sk_force_opaque_sse2_lowp
+FUNCTION(_sk_force_opaque_sse2_lowp)
+_sk_force_opaque_sse2_lowp:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,29,77,79,0,0 // movaps 0x4f4d(%rip),%xmm3 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_force_opaque_dst_sse2_lowp
+.globl _sk_force_opaque_dst_sse2_lowp
+FUNCTION(_sk_force_opaque_dst_sse2_lowp)
+_sk_force_opaque_dst_sse2_lowp:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 15,40,61,66,79,0,0 // movaps 0x4f42(%rip),%xmm7 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
+ .byte 255,224 // jmpq *%rax
+
HIDDEN _sk_swap_rb_sse2_lowp
.globl _sk_swap_rb_sse2_lowp
FUNCTION(_sk_swap_rb_sse2_lowp)
@@ -53562,7 +55078,7 @@ HIDDEN _sk_invert_sse2_lowp
.globl _sk_invert_sse2_lowp
FUNCTION(_sk_invert_sse2_lowp)
_sk_invert_sse2_lowp:
- .byte 102,68,15,111,5,14,79,0,0 // movdqa 0x4f0e(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,8,79,0,0 // movdqa 0x4f08(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -53594,7 +55110,7 @@ FUNCTION(_sk_srcatop_sse2_lowp)
_sk_srcatop_sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,178,78,0,0 // movdqa 0x4eb2(%rip),%xmm3 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,15,111,29,172,78,0,0 // movdqa 0x4eac(%rip),%xmm3 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -53626,7 +55142,7 @@ FUNCTION(_sk_dstatop_sse2_lowp)
_sk_dstatop_sse2_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,50,78,0,0 // movdqa 0x4e32(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,44,78,0,0 // movdqa 0x4e2c(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -53655,7 +55171,7 @@ HIDDEN _sk_srcin_sse2_lowp
FUNCTION(_sk_srcin_sse2_lowp)
_sk_srcin_sse2_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,189,77,0,0 // movdqa 0x4dbd(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,183,77,0,0 // movdqa 0x4db7(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -53676,7 +55192,7 @@ FUNCTION(_sk_dstin_sse2_lowp)
_sk_dstin_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,116,77,0,0 // movdqa 0x4d74(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,110,77,0,0 // movdqa 0x4d6e(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -53697,7 +55213,7 @@ HIDDEN _sk_srcout_sse2_lowp
.globl _sk_srcout_sse2_lowp
FUNCTION(_sk_srcout_sse2_lowp)
_sk_srcout_sse2_lowp:
- .byte 102,68,15,111,5,43,77,0,0 // movdqa 0x4d2b(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,37,77,0,0 // movdqa 0x4d25(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -53720,7 +55236,7 @@ HIDDEN _sk_dstout_sse2_lowp
FUNCTION(_sk_dstout_sse2_lowp)
_sk_dstout_sse2_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,212,76,0,0 // movdqa 0x4cd4(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,206,76,0,0 // movdqa 0x4cce(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -53745,7 +55261,7 @@ HIDDEN _sk_srcover_sse2_lowp
.globl _sk_srcover_sse2_lowp
FUNCTION(_sk_srcover_sse2_lowp)
_sk_srcover_sse2_lowp:
- .byte 102,68,15,111,13,122,76,0,0 // movdqa 0x4c7a(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,116,76,0,0 // movdqa 0x4c74(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -53774,7 +55290,7 @@ HIDDEN _sk_dstover_sse2_lowp
.globl _sk_dstover_sse2_lowp
FUNCTION(_sk_dstover_sse2_lowp)
_sk_dstover_sse2_lowp:
- .byte 102,68,15,111,5,0,76,0,0 // movdqa 0x4c00(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,250,75,0,0 // movdqa 0x4bfa(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -53801,7 +55317,7 @@ HIDDEN _sk_modulate_sse2_lowp
FUNCTION(_sk_modulate_sse2_lowp)
_sk_modulate_sse2_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,153,75,0,0 // movdqa 0x4b99(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,147,75,0,0 // movdqa 0x4b93(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -53820,7 +55336,7 @@ HIDDEN _sk_multiply_sse2_lowp
.globl _sk_multiply_sse2_lowp
FUNCTION(_sk_multiply_sse2_lowp)
_sk_multiply_sse2_lowp:
- .byte 102,68,15,111,13,88,75,0,0 // movdqa 0x4b58(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,82,75,0,0 // movdqa 0x4b52(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -53865,12 +55381,12 @@ _sk_plus__sse2_lowp:
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,68,15,111,21,228,82,0,0 // movdqa 0x52e4(%rip),%xmm10 # 3b5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x14a4>
+ .byte 102,68,15,111,21,30,83,0,0 // movdqa 0x531e(%rip),%xmm10 # 3cb80 <_sk_srcover_bgra_8888_sse2_lowp+0x14e0>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,217,194 // psubusw %xmm10,%xmm0
.byte 102,69,15,239,228 // pxor %xmm12,%xmm12
.byte 102,65,15,117,196 // pcmpeqw %xmm12,%xmm0
- .byte 102,68,15,111,29,120,74,0,0 // movdqa 0x4a78(%rip),%xmm11 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,29,114,74,0,0 // movdqa 0x4a72(%rip),%xmm11 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 102,65,15,223,195 // pandn %xmm11,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
@@ -53909,7 +55425,7 @@ _sk_screen_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,216,73,0,0 // movdqa 0x49d8(%rip),%xmm10 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,21,210,73,0,0 // movdqa 0x49d2(%rip),%xmm10 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -53941,7 +55457,7 @@ HIDDEN _sk_xor__sse2_lowp
FUNCTION(_sk_xor__sse2_lowp)
_sk_xor__sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,86,73,0,0 // movdqa 0x4956(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,80,73,0,0 // movdqa 0x4950(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -53983,7 +55499,7 @@ _sk_darken_sse2_lowp:
.byte 102,65,15,253,194 // paddw %xmm10,%xmm0
.byte 102,68,15,213,215 // pmullw %xmm7,%xmm10
.byte 102,68,15,213,227 // pmullw %xmm3,%xmm12
- .byte 102,68,15,111,13,241,79,0,0 // movdqa 0x4ff1(%rip),%xmm9 # 3b4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a4>
+ .byte 102,68,15,111,13,43,80,0,0 // movdqa 0x502b(%rip),%xmm9 # 3ca80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
.byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,204 // movdqa %xmm12,%xmm1
@@ -53992,7 +55508,7 @@ _sk_darken_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,112,72,0,0 // movdqa 0x4870(%rip),%xmm10 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,21,106,72,0,0 // movdqa 0x486a(%rip),%xmm10 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -54048,7 +55564,7 @@ _sk_lighten_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,200,78,0,0 // movdqa 0x4ec8(%rip),%xmm9 # 3b4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a4>
+ .byte 102,68,15,111,13,2,79,0,0 // movdqa 0x4f02(%rip),%xmm9 # 3ca80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -54057,7 +55573,7 @@ _sk_lighten_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,71,71,0,0 // movdqa 0x4747(%rip),%xmm10 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,21,65,71,0,0 // movdqa 0x4741(%rip),%xmm10 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -54113,7 +55629,7 @@ _sk_difference_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,159,77,0,0 // movdqa 0x4d9f(%rip),%xmm9 # 3b4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a4>
+ .byte 102,68,15,111,13,217,77,0,0 // movdqa 0x4dd9(%rip),%xmm9 # 3ca80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -54122,10 +55638,10 @@ _sk_difference_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,30,70,0,0 // movdqa 0x461e(%rip),%xmm10 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,21,24,70,0,0 // movdqa 0x4618(%rip),%xmm10 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,29,75,77,0,0 // movdqa 0x4d4b(%rip),%xmm11 # 3b490 <_sk_srcover_bgra_8888_sse2_lowp+0x1394>
+ .byte 102,68,15,111,29,133,77,0,0 // movdqa 0x4d85(%rip),%xmm11 # 3ca70 <_sk_srcover_bgra_8888_sse2_lowp+0x13d0>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
@@ -54180,10 +55696,10 @@ _sk_exclusion_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,27,69,0,0 // movdqa 0x451b(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,21,69,0,0 // movdqa 0x4515(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,72,76,0,0 // movdqa 0x4c48(%rip),%xmm10 # 3b490 <_sk_srcover_bgra_8888_sse2_lowp+0x1394>
+ .byte 102,68,15,111,21,130,76,0,0 // movdqa 0x4c82(%rip),%xmm10 # 3ca70 <_sk_srcover_bgra_8888_sse2_lowp+0x13d0>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -54219,7 +55735,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,15,111,21,119,68,0,0 // movdqa 0x4477(%rip),%xmm2 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,15,111,21,113,68,0,0 // movdqa 0x4471(%rip),%xmm2 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,68,15,249,231 // psubw %xmm7,%xmm12
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -54232,7 +55748,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,249,241 // psubw %xmm9,%xmm14
.byte 102,69,15,253,201 // paddw %xmm9,%xmm9
- .byte 102,15,111,21,131,75,0,0 // movdqa 0x4b83(%rip),%xmm2 # 3b4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a4>
+ .byte 102,15,111,21,189,75,0,0 // movdqa 0x4bbd(%rip),%xmm2 # 3ca80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
@@ -54251,7 +55767,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,232 // pand %xmm0,%xmm13
.byte 102,65,15,223,193 // pandn %xmm9,%xmm0
.byte 102,65,15,235,197 // por %xmm13,%xmm0
- .byte 102,15,253,5,214,67,0,0 // paddw 0x43d6(%rip),%xmm0 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,15,253,5,208,67,0,0 // paddw 0x43d0(%rip),%xmm0 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,199 // paddw %xmm15,%xmm0
.byte 102,69,15,111,204 // movdqa %xmm12,%xmm9
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
@@ -54274,7 +55790,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,65,15,219,249 // pand %xmm9,%xmm7
.byte 102,68,15,223,201 // pandn %xmm1,%xmm9
.byte 102,68,15,235,207 // por %xmm7,%xmm9
- .byte 102,68,15,253,13,97,67,0,0 // paddw 0x4361(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,253,13,91,67,0,0 // paddw 0x435b(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,69,15,253,205 // paddw %xmm13,%xmm9
.byte 102,69,15,213,224 // pmullw %xmm8,%xmm12
.byte 102,69,15,111,251 // movdqa %xmm11,%xmm15
@@ -54296,7 +55812,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,65,15,223,208 // pandn %xmm8,%xmm2
.byte 102,65,15,235,210 // por %xmm10,%xmm2
- .byte 102,68,15,111,5,241,66,0,0 // movdqa 0x42f1(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,235,66,0,0 // movdqa 0x42eb(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
.byte 102,65,15,253,215 // paddw %xmm15,%xmm2
.byte 102,68,15,213,220 // pmullw %xmm4,%xmm11
@@ -54324,7 +55840,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,127,124,36,232 // movdqa %xmm7,-0x18(%rsp)
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
- .byte 102,15,111,53,130,66,0,0 // movdqa 0x4282(%rip),%xmm6 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,15,111,53,124,66,0,0 // movdqa 0x427c(%rip),%xmm6 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,69,15,249,222 // psubw %xmm14,%xmm11
.byte 102,65,15,111,203 // movdqa %xmm11,%xmm1
@@ -54346,7 +55862,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,253,201 // paddw %xmm1,%xmm1
.byte 102,69,15,111,225 // movdqa %xmm9,%xmm12
.byte 102,68,15,249,225 // psubw %xmm1,%xmm12
- .byte 102,15,111,13,102,73,0,0 // movdqa 0x4966(%rip),%xmm1 # 3b4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a4>
+ .byte 102,15,111,13,160,73,0,0 // movdqa 0x49a0(%rip),%xmm1 # 3ca80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
.byte 102,69,15,111,238 // movdqa %xmm14,%xmm13
.byte 102,68,15,239,233 // pxor %xmm1,%xmm13
.byte 102,15,239,249 // pxor %xmm1,%xmm7
@@ -54373,7 +55889,7 @@ _sk_overlay_sse2_lowp:
.byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,61,229,72,0,0 // movdqa 0x48e5(%rip),%xmm7 # 3b4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a4>
+ .byte 102,15,111,61,31,73,0,0 // movdqa 0x491f(%rip),%xmm7 # 3ca80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
.byte 102,15,239,231 // pxor %xmm7,%xmm4
.byte 102,65,15,101,229 // pcmpgtw %xmm13,%xmm4
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
@@ -54433,27 +55949,27 @@ _sk_load_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 36cd1 <_sk_load_8888_sse2_lowp+0x44>
+ .byte 119,41 // ja 38277 <_sk_load_8888_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,25,1,0,0 // lea 0x119(%rip),%r9 # 36dd0 <_sk_load_8888_sse2_lowp+0x143>
+ .byte 76,141,13,23,1,0,0 // lea 0x117(%rip),%r9 # 38374 <_sk_load_8888_sse2_lowp+0x141>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 36d37 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 382dd <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 36d37 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 382dd <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 36d37 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 382dd <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -54470,7 +55986,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,239,63,0,0 // movdqa 0x3fef(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,233,63,0,0 // movdqa 0x3fe9(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -54493,23 +56009,23 @@ _sk_load_8888_sse2_lowp:
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 244 // hlt
- .byte 254 // (bad)
+ .byte 144 // nop
+ .byte 246,254 // idiv %dh
.byte 255 // (bad)
- .byte 255,33 // jmpq *(%rcx)
+ .byte 255,35 // jmpq *(%rbx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,16 // callq *(%rax)
+ .byte 255,18 // callq *(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,97,255 // jmpq *-0x1(%rcx)
+ .byte 255,99,255 // jmpq *-0x1(%rbx)
.byte 255 // (bad)
- .byte 255,85,255 // callq *-0x1(%rbp)
+ .byte 255,87,255 // callq *-0x1(%rdi)
.byte 255 // (bad)
- .byte 255,64,255 // incl -0x1(%rax)
+ .byte 255,66,255 // incl -0x1(%rdx)
.byte 255 // (bad)
- .byte 255,51 // pushq (%rbx)
+ .byte 255 // .byte 0xff
+ .byte 53 // .byte 0x35
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -54527,27 +56043,27 @@ _sk_load_8888_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 36e30 <_sk_load_8888_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 383d4 <_sk_load_8888_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 36f2c <_sk_load_8888_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 384d0 <_sk_load_8888_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 36e96 <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 3843a <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 36e96 <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 3843a <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 36e96 <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 3843a <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -54564,7 +56080,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,144,62,0,0 // movdqa 0x3e90(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,140,62,0,0 // movdqa 0x3e8c(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -54632,21 +56148,21 @@ _sk_store_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 36fcb <_sk_store_8888_sse2_lowp+0x83>
+ .byte 119,27 // ja 3856f <_sk_store_8888_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 3701c <_sk_store_8888_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 385c0 <_sk_store_8888_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 37016 <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,75 // jmp 385ba <_sk_store_8888_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 37016 <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,60 // jmp 385ba <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 37016 <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,39 // jmp 385ba <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -54691,27 +56207,27 @@ _sk_load_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 3707c <_sk_load_bgra_sse2_lowp+0x44>
+ .byte 119,41 // ja 38620 <_sk_load_bgra_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 37178 <_sk_load_bgra_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 3871c <_sk_load_bgra_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 370e2 <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 38686 <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 370e2 <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 38686 <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 370e2 <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 38686 <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -54728,7 +56244,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,68,60,0,0 // movdqa 0x3c44(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,64,60,0,0 // movdqa 0x3c40(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -54781,27 +56297,27 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 371d8 <_sk_load_bgra_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 3877c <_sk_load_bgra_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 372d4 <_sk_load_bgra_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 38878 <_sk_load_bgra_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 3723e <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 387e2 <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 3723e <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 387e2 <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 3723e <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 387e2 <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -54818,7 +56334,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,232,58,0,0 // movdqa 0x3ae8(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,228,58,0,0 // movdqa 0x3ae4(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -54886,21 +56402,21 @@ _sk_store_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 37373 <_sk_store_bgra_sse2_lowp+0x83>
+ .byte 119,27 // ja 38917 <_sk_store_bgra_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 373c4 <_sk_store_bgra_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 38968 <_sk_store_bgra_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 373be <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,75 // jmp 38962 <_sk_store_bgra_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 373be <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,60 // jmp 38962 <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 373be <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,39 // jmp 38962 <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -55014,7 +56530,7 @@ _sk_gather_8888_sse2_lowp:
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,114,225,16 // psrad $0x10,%xmm1
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,4,56,0,0 // movdqa 0x3804(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,0,56,0,0 // movdqa 0x3800(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -55124,7 +56640,7 @@ _sk_gather_bgra_sse2_lowp:
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,114,225,16 // psrad $0x10,%xmm1
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,37,54,0,0 // movdqa 0x3625(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,33,54,0,0 // movdqa 0x3621(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -55165,23 +56681,23 @@ _sk_load_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 377da <_sk_load_565_sse2_lowp+0x3c>
+ .byte 119,34 // ja 38d7e <_sk_load_565_sse2_lowp+0x3c>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,190,0,0,0 // lea 0xbe(%rip),%r9 # 37884 <_sk_load_565_sse2_lowp+0xe6>
+ .byte 76,141,13,190,0,0,0 // lea 0xbe(%rip),%r9 # 38e28 <_sk_load_565_sse2_lowp+0xe6>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,66 // jmp 3781c <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 38dc0 <_sk_load_565_sse2_lowp+0x7e>
.byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,58 // jmp 3781c <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 38dc0 <_sk_load_565_sse2_lowp+0x7e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 243,65,15,16,12,80 // movss (%r8,%rdx,2),%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,34 // jmp 3781c <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 38dc0 <_sk_load_565_sse2_lowp+0x7e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -55189,11 +56705,11 @@ _sk_load_565_sse2_lowp:
.byte 102,65,15,18,4,80 // movlpd (%r8,%rdx,2),%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,179,60,0,0 // pand 0x3cb3(%rip),%xmm3 # 3b4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
+ .byte 102,15,219,29,239,60,0,0 // pand 0x3cef(%rip),%xmm3 # 3cac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,178,60,0,0 // pand 0x3cb2(%rip),%xmm1 # 3b4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,15,111,21,186,60,0,0 // movdqa 0x3cba(%rip),%xmm2 # 3b500 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
+ .byte 102,15,219,13,238,60,0,0 // pand 0x3cee(%rip),%xmm1 # 3cad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1430>
+ .byte 102,15,111,21,246,60,0,0 // movdqa 0x3cf6(%rip),%xmm2 # 3cae0 <_sk_srcover_bgra_8888_sse2_lowp+0x1440>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -55206,7 +56722,7 @@ _sk_load_565_sse2_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,208,52,0,0 // movaps 0x34d0(%rip),%xmm3 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 15,40,29,204,52,0,0 // movaps 0x34cc(%rip),%xmm3 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 75,255 // rex.WXB (bad)
@@ -55236,23 +56752,23 @@ _sk_load_565_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 378dc <_sk_load_565_dst_sse2_lowp+0x3c>
+ .byte 119,34 // ja 38e80 <_sk_load_565_dst_sse2_lowp+0x3c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 37984 <_sk_load_565_dst_sse2_lowp+0xe4>
+ .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 38f28 <_sk_load_565_dst_sse2_lowp+0xe4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,66 // jmp 3791e <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 38ec2 <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,58 // jmp 3791e <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 38ec2 <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
.byte 243,65,15,16,44,80 // movss (%r8,%rdx,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,34 // jmp 3791e <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 38ec2 <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
.byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
@@ -55260,11 +56776,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,65,15,18,36,80 // movlpd (%r8,%rdx,2),%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,177,59,0,0 // pand 0x3bb1(%rip),%xmm7 # 3b4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
+ .byte 102,15,219,61,237,59,0,0 // pand 0x3bed(%rip),%xmm7 # 3cac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,176,59,0,0 // pand 0x3bb0(%rip),%xmm5 # 3b4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,15,111,53,184,59,0,0 // movdqa 0x3bb8(%rip),%xmm6 # 3b500 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
+ .byte 102,15,219,45,236,59,0,0 // pand 0x3bec(%rip),%xmm5 # 3cad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1430>
+ .byte 102,15,111,53,244,59,0,0 // movdqa 0x3bf4(%rip),%xmm6 # 3cae0 <_sk_srcover_bgra_8888_sse2_lowp+0x1440>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -55277,7 +56793,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,206,51,0,0 // movaps 0x33ce(%rip),%xmm7 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 15,40,61,202,51,0,0 // movaps 0x33ca(%rip),%xmm7 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 255,224 // jmpq *%rax
.byte 77,255 // rex.WRB (bad)
.byte 255 // (bad)
@@ -55301,10 +56817,10 @@ _sk_store_565_sse2_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,76,59,0,0 // pand 0x3b4c(%rip),%xmm8 # 3b510 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
+ .byte 102,68,15,219,5,136,59,0,0 // pand 0x3b88(%rip),%xmm8 # 3caf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1450>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,72,59,0,0 // pand 0x3b48(%rip),%xmm9 # 3b520 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
+ .byte 102,68,15,219,13,132,59,0,0 // pand 0x3b84(%rip),%xmm9 # 3cb00 <_sk_srcover_bgra_8888_sse2_lowp+0x1460>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -55313,21 +56829,21 @@ _sk_store_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,31 // ja 37a16 <_sk_store_565_sse2_lowp+0x76>
+ .byte 119,31 // ja 38fba <_sk_store_565_sse2_lowp+0x76>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 37a60 <_sk_store_565_sse2_lowp+0xc0>
+ .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 39004 <_sk_store_565_sse2_lowp+0xc0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,70 // jmp 37a5c <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,70 // jmp 39000 <_sk_store_565_sse2_lowp+0xbc>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,62 // jmp 37a5c <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,62 // jmp 39000 <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax
.byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,42 // jmp 37a5c <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,42 // jmp 39000 <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax
.byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2)
.byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax
@@ -55446,11 +56962,11 @@ _sk_gather_565_sse2_lowp:
.byte 102,15,108,193 // punpcklqdq %xmm1,%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,245,56,0,0 // pand 0x38f5(%rip),%xmm3 # 3b4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
+ .byte 102,15,219,29,49,57,0,0 // pand 0x3931(%rip),%xmm3 # 3cac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,244,56,0,0 // pand 0x38f4(%rip),%xmm1 # 3b4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,15,111,21,252,56,0,0 // movdqa 0x38fc(%rip),%xmm2 # 3b500 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
+ .byte 102,15,219,13,48,57,0,0 // pand 0x3930(%rip),%xmm1 # 3cad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1430>
+ .byte 102,15,111,21,56,57,0,0 // movdqa 0x3938(%rip),%xmm2 # 3cae0 <_sk_srcover_bgra_8888_sse2_lowp+0x1440>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -55463,7 +56979,7 @@ _sk_gather_565_sse2_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,18,49,0,0 // movaps 0x3112(%rip),%xmm3 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 15,40,29,14,49,0,0 // movaps 0x310e(%rip),%xmm3 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -55484,23 +57000,23 @@ _sk_load_4444_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 37c86 <_sk_load_4444_sse2_lowp+0x3e>
+ .byte 119,36 // ja 3922a <_sk_load_4444_sse2_lowp+0x3e>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 37d38 <_sk_load_4444_sse2_lowp+0xf0>
+ .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 392dc <_sk_load_4444_sse2_lowp+0xf0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,69 // jmp 37ccb <_sk_load_4444_sse2_lowp+0x83>
+ .byte 235,69 // jmp 3926f <_sk_load_4444_sse2_lowp+0x83>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,61 // jmp 37ccb <_sk_load_4444_sse2_lowp+0x83>
+ .byte 235,61 // jmp 3926f <_sk_load_4444_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm8
.byte 243,65,15,16,4,80 // movss (%r8,%rdx,2),%xmm0
.byte 243,68,15,16,192 // movss %xmm0,%xmm8
- .byte 235,35 // jmp 37ccb <_sk_load_4444_sse2_lowp+0x83>
+ .byte 235,35 // jmp 3926f <_sk_load_4444_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm8
.byte 102,69,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm8
@@ -55510,7 +57026,7 @@ _sk_load_4444_sse2_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,73,56,0,0 // movdqa 0x3849(%rip),%xmm0 # 3b530 <_sk_srcover_bgra_8888_sse2_lowp+0x1434>
+ .byte 102,15,111,5,133,56,0,0 // movdqa 0x3885(%rip),%xmm0 # 3cb10 <_sk_srcover_bgra_8888_sse2_lowp+0x1470>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -55540,7 +57056,7 @@ _sk_load_4444_sse2_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 37d4d <_sk_load_4444_sse2_lowp+0x105>
+ .byte 125,255 // jge 392f1 <_sk_load_4444_sse2_lowp+0x105>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -55559,23 +57075,23 @@ _sk_load_4444_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 37d92 <_sk_load_4444_dst_sse2_lowp+0x3e>
+ .byte 119,36 // ja 39336 <_sk_load_4444_dst_sse2_lowp+0x3e>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 37e44 <_sk_load_4444_dst_sse2_lowp+0xf0>
+ .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 393e8 <_sk_load_4444_dst_sse2_lowp+0xf0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,69 // jmp 37dd7 <_sk_load_4444_dst_sse2_lowp+0x83>
+ .byte 235,69 // jmp 3937b <_sk_load_4444_dst_sse2_lowp+0x83>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,61 // jmp 37dd7 <_sk_load_4444_dst_sse2_lowp+0x83>
+ .byte 235,61 // jmp 3937b <_sk_load_4444_dst_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm8
.byte 243,65,15,16,36,80 // movss (%r8,%rdx,2),%xmm4
.byte 243,68,15,16,196 // movss %xmm4,%xmm8
- .byte 235,35 // jmp 37dd7 <_sk_load_4444_dst_sse2_lowp+0x83>
+ .byte 235,35 // jmp 3937b <_sk_load_4444_dst_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm8
.byte 102,69,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm8
@@ -55585,7 +57101,7 @@ _sk_load_4444_dst_sse2_lowp:
.byte 102,15,113,213,12 // psrlw $0xc,%xmm5
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,111,37,61,55,0,0 // movdqa 0x373d(%rip),%xmm4 # 3b530 <_sk_srcover_bgra_8888_sse2_lowp+0x1434>
+ .byte 102,15,111,37,121,55,0,0 // movdqa 0x3779(%rip),%xmm4 # 3cb10 <_sk_srcover_bgra_8888_sse2_lowp+0x1470>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,113,215,4 // psrlw $0x4,%xmm7
@@ -55615,7 +57131,7 @@ _sk_load_4444_dst_sse2_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 37e59 <_sk_load_4444_dst_sse2_lowp+0x105>
+ .byte 125,255 // jge 393fd <_sk_load_4444_dst_sse2_lowp+0x105>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -55632,12 +57148,12 @@ _sk_store_4444_sse2_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,188,54,0,0 // pand 0x36bc(%rip),%xmm8 # 3b540 <_sk_srcover_bgra_8888_sse2_lowp+0x1444>
+ .byte 102,68,15,219,5,248,54,0,0 // pand 0x36f8(%rip),%xmm8 # 3cb20 <_sk_srcover_bgra_8888_sse2_lowp+0x1480>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,4 // psllw $0x4,%xmm9
- .byte 102,68,15,219,13,184,54,0,0 // pand 0x36b8(%rip),%xmm9 # 3b550 <_sk_srcover_bgra_8888_sse2_lowp+0x1454>
+ .byte 102,68,15,219,13,244,54,0,0 // pand 0x36f4(%rip),%xmm9 # 3cb30 <_sk_srcover_bgra_8888_sse2_lowp+0x1490>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
- .byte 102,68,15,111,21,186,54,0,0 // movdqa 0x36ba(%rip),%xmm10 # 3b560 <_sk_srcover_bgra_8888_sse2_lowp+0x1464>
+ .byte 102,68,15,111,21,246,54,0,0 // movdqa 0x36f6(%rip),%xmm10 # 3cb40 <_sk_srcover_bgra_8888_sse2_lowp+0x14a0>
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,65,15,113,208,4 // psrlw $0x4,%xmm8
@@ -55647,21 +57163,21 @@ _sk_store_4444_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,31 // ja 37ee9 <_sk_store_4444_sse2_lowp+0x89>
+ .byte 119,31 // ja 3948d <_sk_store_4444_sse2_lowp+0x89>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,96,0,0,0 // lea 0x60(%rip),%r9 # 37f34 <_sk_store_4444_sse2_lowp+0xd4>
+ .byte 76,141,13,96,0,0,0 // lea 0x60(%rip),%r9 # 394d8 <_sk_store_4444_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,70 // jmp 37f2f <_sk_store_4444_sse2_lowp+0xcf>
+ .byte 235,70 // jmp 394d3 <_sk_store_4444_sse2_lowp+0xcf>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,62 // jmp 37f2f <_sk_store_4444_sse2_lowp+0xcf>
+ .byte 235,62 // jmp 394d3 <_sk_store_4444_sse2_lowp+0xcf>
.byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax
.byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,42 // jmp 37f2f <_sk_store_4444_sse2_lowp+0xcf>
+ .byte 235,42 // jmp 394d3 <_sk_store_4444_sse2_lowp+0xcf>
.byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax
.byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2)
.byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax
@@ -55680,7 +57196,7 @@ _sk_store_4444_sse2_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,221 // jmpq ffffffffde037f48 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddffde4c>
+ .byte 233,255,255,255,221 // jmpq ffffffffde0394ec <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddffde4c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,209 // callq *%rcx
@@ -55777,7 +57293,7 @@ _sk_gather_4444_sse2_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,98,52,0,0 // movdqa 0x3462(%rip),%xmm0 # 3b530 <_sk_srcover_bgra_8888_sse2_lowp+0x1434>
+ .byte 102,15,111,5,158,52,0,0 // movdqa 0x349e(%rip),%xmm0 # 3cb10 <_sk_srcover_bgra_8888_sse2_lowp+0x1470>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -55815,19 +57331,19 @@ _sk_load_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 38160 <_sk_load_a8_sse2_lowp+0x39>
+ .byte 119,34 // ja 39704 <_sk_load_a8_sse2_lowp+0x39>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,140,0,0,0 // lea 0x8c(%rip),%r9 # 381d8 <_sk_load_a8_sse2_lowp+0xb1>
+ .byte 76,141,13,140,0,0,0 // lea 0x8c(%rip),%r9 # 3977c <_sk_load_a8_sse2_lowp+0xb1>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,97 // jmp 381c1 <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 39765 <_sk_load_a8_sse2_lowp+0x9a>
.byte 243,65,15,126,28,16 // movq (%r8,%rdx,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,85 // jmp 381c1 <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 39765 <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,2 // pinsrw $0x2,%eax,%xmm3
@@ -55835,7 +57351,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 243,15,16,216 // movss %xmm0,%xmm3
- .byte 235,51 // jmp 381c1 <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 39765 <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,6 // pinsrw $0x6,%eax,%xmm3
@@ -55846,14 +57362,14 @@ _sk_load_a8_sse2_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 102,15,219,29,135,43,0,0 // pand 0x2b87(%rip),%xmm3 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,15,219,29,131,43,0,0 // pand 0x2b83(%rip),%xmm3 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
- .byte 125,255 // jge 381d9 <_sk_load_a8_sse2_lowp+0xb2>
+ .byte 125,255 // jge 3977d <_sk_load_a8_sse2_lowp+0xb2>
.byte 255 // (bad)
.byte 255,163,255,255,255,148 // jmpq *-0x6b000001(%rbx)
.byte 255 // (bad)
@@ -55884,19 +57400,19 @@ _sk_load_a8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3822d <_sk_load_a8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 397d1 <_sk_load_a8_dst_sse2_lowp+0x39>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 382a4 <_sk_load_a8_dst_sse2_lowp+0xb0>
+ .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 39848 <_sk_load_a8_dst_sse2_lowp+0xb0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,97 // jmp 3828e <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 39832 <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,60,16 // movq (%r8,%rdx,1),%xmm7
.byte 102,15,96,248 // punpcklbw %xmm0,%xmm7
- .byte 235,85 // jmp 3828e <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 39832 <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,2 // pinsrw $0x2,%eax,%xmm7
@@ -55904,7 +57420,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,252 // movss %xmm4,%xmm7
- .byte 235,51 // jmp 3828e <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 39832 <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,6 // pinsrw $0x6,%eax,%xmm7
@@ -55915,14 +57431,14 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 102,15,219,61,186,42,0,0 // pand 0x2aba(%rip),%xmm7 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,15,219,61,182,42,0,0 // pand 0x2ab6(%rip),%xmm7 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 126,255 // jle 382a5 <_sk_load_a8_dst_sse2_lowp+0xb1>
+ .byte 126,255 // jle 39849 <_sk_load_a8_dst_sse2_lowp+0xb1>
.byte 255 // (bad)
.byte 255,164,255,255,255,149,255 // jmpq *-0x6a0001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -55952,42 +57468,42 @@ _sk_store_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 382f4 <_sk_store_a8_sse2_lowp+0x34>
+ .byte 119,29 // ja 39898 <_sk_store_a8_sse2_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 38374 <_sk_store_a8_sse2_lowp+0xb4>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 39918 <_sk_store_a8_sse2_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 65,136,4,16 // mov %al,(%r8,%rdx,1)
- .byte 235,123 // jmp 3836f <_sk_store_a8_sse2_lowp+0xaf>
- .byte 102,68,15,111,5,83,42,0,0 // movdqa 0x2a53(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 235,123 // jmp 39913 <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 102,68,15,111,5,79,42,0,0 // movdqa 0x2a4f(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 3836f <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,96 // jmp 39913 <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,2 // pextrw $0x2,%xmm3,%eax
.byte 65,136,68,16,2 // mov %al,0x2(%r8,%rdx,1)
- .byte 102,68,15,111,5,46,42,0,0 // movdqa 0x2a2e(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,42,42,0,0 // movdqa 0x2a2a(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,16 // mov %ax,(%r8,%rdx,1)
- .byte 235,55 // jmp 3836f <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,55 // jmp 39913 <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,6 // pextrw $0x6,%xmm3,%eax
.byte 65,136,68,16,6 // mov %al,0x6(%r8,%rdx,1)
.byte 102,15,197,195,5 // pextrw $0x5,%xmm3,%eax
.byte 65,136,68,16,5 // mov %al,0x5(%r8,%rdx,1)
.byte 102,15,197,195,4 // pextrw $0x4,%xmm3,%eax
.byte 65,136,68,16,4 // mov %al,0x4(%r8,%rdx,1)
- .byte 102,68,15,111,5,241,41,0,0 // movdqa 0x29f1(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,237,41,0,0 // movdqa 0x29ed(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 118,255 // jbe 38375 <_sk_store_a8_sse2_lowp+0xb5>
+ .byte 118,255 // jbe 39919 <_sk_store_a8_sse2_lowp+0xb5>
.byte 255 // (bad)
.byte 255,165,255,255,255,155 // jmpq *-0x64000001(%rbp)
.byte 255 // (bad)
@@ -56112,19 +57628,19 @@ _sk_load_g8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 38531 <_sk_load_g8_sse2_lowp+0x39>
+ .byte 119,34 // ja 39ad5 <_sk_load_g8_sse2_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 385b0 <_sk_load_g8_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 39b54 <_sk_load_g8_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,97 // jmp 38592 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 39b36 <_sk_load_g8_sse2_lowp+0x9a>
.byte 243,65,15,126,4,16 // movq (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,85 // jmp 38592 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 39b36 <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -56132,7 +57648,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,51 // jmp 38592 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 39b36 <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -56143,14 +57659,14 @@ _sk_load_g8_sse2_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 102,15,219,5,182,39,0,0 // pand 0x27b6(%rip),%xmm0 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,15,219,5,178,39,0,0 // pand 0x27b2(%rip),%xmm0 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,173,39,0,0 // movaps 0x27ad(%rip),%xmm3 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 15,40,29,169,39,0,0 // movaps 0x27a9(%rip),%xmm3 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 385b1 <_sk_load_g8_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 39b55 <_sk_load_g8_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -56178,19 +57694,19 @@ _sk_load_g8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 38605 <_sk_load_g8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 39ba9 <_sk_load_g8_dst_sse2_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 38684 <_sk_load_g8_dst_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 39c28 <_sk_load_g8_dst_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,97 // jmp 38666 <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 39c0a <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,36,16 // movq (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,85 // jmp 38666 <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 39c0a <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -56198,7 +57714,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,51 // jmp 38666 <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 39c0a <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -56209,14 +57725,14 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,37,226,38,0,0 // pand 0x26e2(%rip),%xmm4 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,15,219,37,222,38,0,0 // pand 0x26de(%rip),%xmm4 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,217,38,0,0 // movaps 0x26d9(%rip),%xmm7 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 15,40,61,213,38,0,0 // movaps 0x26d5(%rip),%xmm7 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 38685 <_sk_load_g8_dst_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 39c29 <_sk_load_g8_dst_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -56237,10 +57753,10 @@ HIDDEN _sk_luminance_to_alpha_sse2_lowp
FUNCTION(_sk_luminance_to_alpha_sse2_lowp)
_sk_luminance_to_alpha_sse2_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,196,46,0,0 // pmullw 0x2ec4(%rip),%xmm0 # 3b570 <_sk_srcover_bgra_8888_sse2_lowp+0x1474>
- .byte 102,15,213,13,204,46,0,0 // pmullw 0x2ecc(%rip),%xmm1 # 3b580 <_sk_srcover_bgra_8888_sse2_lowp+0x1484>
+ .byte 102,15,213,5,0,47,0,0 // pmullw 0x2f00(%rip),%xmm0 # 3cb50 <_sk_srcover_bgra_8888_sse2_lowp+0x14b0>
+ .byte 102,15,213,13,8,47,0,0 // pmullw 0x2f08(%rip),%xmm1 # 3cb60 <_sk_srcover_bgra_8888_sse2_lowp+0x14c0>
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,208,46,0,0 // pmullw 0x2ed0(%rip),%xmm3 # 3b590 <_sk_srcover_bgra_8888_sse2_lowp+0x1494>
+ .byte 102,15,213,29,12,47,0,0 // pmullw 0x2f0c(%rip),%xmm3 # 3cb70 <_sk_srcover_bgra_8888_sse2_lowp+0x14d0>
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -56333,7 +57849,7 @@ _sk_gather_g8_sse2_lowp:
.byte 102,15,196,197,3 // pinsrw $0x3,%ebp,%xmm0
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,30,37,0,0 // movaps 0x251e(%rip),%xmm3 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 15,40,29,26,37,0,0 // movaps 0x251a(%rip),%xmm3 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 91 // pop %rbx
@@ -56349,14 +57865,14 @@ FUNCTION(_sk_scale_1_float_sse2_lowp)
_sk_scale_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,132,27,0,0 // mulss 0x1b84(%rip),%xmm8 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,75,27,0,0 // addss 0x1b4b(%rip),%xmm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,132,27,0,0 // mulss 0x1b84(%rip),%xmm8 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,75,27,0,0 // addss 0x1b4b(%rip),%xmm8 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,207,36,0,0 // movdqa 0x24cf(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,203,36,0,0 // movdqa 0x24cb(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -56377,13 +57893,13 @@ FUNCTION(_sk_lerp_1_float_sse2_lowp)
_sk_lerp_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,12,27,0,0 // mulss 0x1b0c(%rip),%xmm8 # 3a3d8 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,211,26,0,0 // addss 0x1ad3(%rip),%xmm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,12,27,0,0 // mulss 0x1b0c(%rip),%xmm8 # 3b97c <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,211,26,0,0 // addss 0x1ad3(%rip),%xmm8 # 3b94c <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,92,36,0,0 // movdqa 0x245c(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,88,36,0,0 // movdqa 0x2458(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -56423,19 +57939,19 @@ _sk_scale_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 389ab <_sk_scale_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 39f4f <_sk_scale_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,218,0,0,0 // lea 0xda(%rip),%r9 # 38a70 <_sk_scale_u8_sse2_lowp+0x100>
+ .byte 76,141,13,218,0,0,0 // lea 0xda(%rip),%r9 # 3a014 <_sk_scale_u8_sse2_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 38a18 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 39fbc <_sk_scale_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 38a18 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 39fbc <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -56443,7 +57959,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 38a18 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 39fbc <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -56454,9 +57970,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,47,35,0,0 // pand 0x232f(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,219,5,43,35,0,0 // pand 0x232b(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,33,35,0,0 // movdqa 0x2321(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,29,35,0,0 // movdqa 0x231d(%rip),%xmm9 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -56498,19 +58014,19 @@ _sk_lerp_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 38ac7 <_sk_lerp_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 3a06b <_sk_lerp_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 38bd0 <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 3a174 <_sk_lerp_u8_sse2_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 38b34 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 3a0d8 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 38b34 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 3a0d8 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -56518,7 +58034,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 38b34 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 3a0d8 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -56529,8 +58045,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,19,34,0,0 // pand 0x2213(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
- .byte 102,68,15,111,21,10,34,0,0 // movdqa 0x220a(%rip),%xmm10 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,219,5,15,34,0,0 // pand 0x220f(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
+ .byte 102,68,15,111,21,6,34,0,0 // movdqa 0x2206(%rip),%xmm10 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -56560,9 +58076,9 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 235,254 // jmp 38bd0 <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 235,254 // jmp 3a174 <_sk_lerp_u8_sse2_lowp+0x144>
.byte 255 // (bad)
- .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 5038bd8 <_sk_srcover_bgra_8888_sse2_lowp+0x4ffeadc>
+ .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 503a17c <_sk_srcover_bgra_8888_sse2_lowp+0x4ffeadc>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,84,255,255 // callq *-0x1(%rdi,%rdi,8)
@@ -56592,23 +58108,23 @@ _sk_scale_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 38c37 <_sk_scale_565_sse2_lowp+0x4b>
+ .byte 119,34 // ja 3a1db <_sk_scale_565_sse2_lowp+0x4b>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 38e08 <_sk_scale_565_sse2_lowp+0x21c>
+ .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 3a3ac <_sk_scale_565_sse2_lowp+0x21c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 235,67 // jmp 38c7a <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,67 // jmp 3a21e <_sk_scale_565_sse2_lowp+0x8e>
.byte 243,65,15,111,52,80 // movdqu (%r8,%rdx,2),%xmm6
- .byte 235,59 // jmp 38c7a <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,59 // jmp 3a21e <_sk_scale_565_sse2_lowp+0x8e>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,65,15,196,116,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm6
.byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
.byte 243,65,15,16,241 // movss %xmm9,%xmm6
- .byte 235,34 // jmp 38c7a <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,34 // jmp 3a21e <_sk_scale_565_sse2_lowp+0x8e>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,65,15,196,116,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm6
.byte 102,65,15,196,116,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm6
@@ -56616,11 +58132,11 @@ _sk_scale_565_sse2_lowp:
.byte 102,65,15,18,52,80 // movlpd (%r8,%rdx,2),%xmm6
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,82,40,0,0 // pand 0x2852(%rip),%xmm11 # 3b4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
+ .byte 102,68,15,219,29,142,40,0,0 // pand 0x288e(%rip),%xmm11 # 3cac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
.byte 102,68,15,111,206 // movdqa %xmm6,%xmm9
.byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,78,40,0,0 // pand 0x284e(%rip),%xmm9 # 3b4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,68,15,111,21,85,40,0,0 // movdqa 0x2855(%rip),%xmm10 # 3b500 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
+ .byte 102,68,15,219,13,138,40,0,0 // pand 0x288a(%rip),%xmm9 # 3cad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1430>
+ .byte 102,68,15,111,21,145,40,0,0 // movdqa 0x2891(%rip),%xmm10 # 3cae0 <_sk_srcover_bgra_8888_sse2_lowp+0x1440>
.byte 102,68,15,219,214 // pand %xmm6,%xmm10
.byte 102,15,113,214,13 // psrlw $0xd,%xmm6
.byte 102,65,15,235,243 // por %xmm11,%xmm6
@@ -56632,7 +58148,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
.byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,177,39,0,0 // movdqa 0x27b1(%rip),%xmm12 # 3b4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a4>
+ .byte 102,68,15,111,37,237,39,0,0 // movdqa 0x27ed(%rip),%xmm12 # 3ca80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
.byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
.byte 102,69,15,239,236 // pxor %xmm12,%xmm13
.byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
@@ -56673,7 +58189,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
.byte 102,68,15,213,210 // pmullw %xmm2,%xmm10
.byte 102,68,15,213,219 // pmullw %xmm3,%xmm11
- .byte 102,15,111,5,147,31,0,0 // movdqa 0x1f93(%rip),%xmm0 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,15,111,5,143,31,0,0 // movdqa 0x1f8f(%rip),%xmm0 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,253,240 // paddw %xmm0,%xmm6
.byte 102,68,15,253,200 // paddw %xmm0,%xmm9
.byte 102,68,15,253,208 // paddw %xmm0,%xmm10
@@ -56720,23 +58236,23 @@ _sk_lerp_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 38e6f <_sk_lerp_565_sse2_lowp+0x4b>
+ .byte 119,34 // ja 3a413 <_sk_lerp_565_sse2_lowp+0x4b>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 39088 <_sk_lerp_565_sse2_lowp+0x264>
+ .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 3a62c <_sk_lerp_565_sse2_lowp+0x264>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 235,67 // jmp 38eb2 <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,67 // jmp 3a456 <_sk_lerp_565_sse2_lowp+0x8e>
.byte 243,65,15,111,20,80 // movdqu (%r8,%rdx,2),%xmm2
- .byte 235,59 // jmp 38eb2 <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,59 // jmp 3a456 <_sk_lerp_565_sse2_lowp+0x8e>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,65,15,196,84,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm2
.byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
.byte 243,65,15,16,209 // movss %xmm9,%xmm2
- .byte 235,34 // jmp 38eb2 <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,34 // jmp 3a456 <_sk_lerp_565_sse2_lowp+0x8e>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,65,15,196,84,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm2
.byte 102,65,15,196,84,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm2
@@ -56744,11 +58260,11 @@ _sk_lerp_565_sse2_lowp:
.byte 102,65,15,18,20,80 // movlpd (%r8,%rdx,2),%xmm2
.byte 102,68,15,111,218 // movdqa %xmm2,%xmm11
.byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,26,38,0,0 // pand 0x261a(%rip),%xmm11 # 3b4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
+ .byte 102,68,15,219,29,86,38,0,0 // pand 0x2656(%rip),%xmm11 # 3cac0 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
.byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
.byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,22,38,0,0 // pand 0x2616(%rip),%xmm9 # 3b4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,68,15,111,21,29,38,0,0 // movdqa 0x261d(%rip),%xmm10 # 3b500 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
+ .byte 102,68,15,219,13,82,38,0,0 // pand 0x2652(%rip),%xmm9 # 3cad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1430>
+ .byte 102,68,15,111,21,89,38,0,0 // movdqa 0x2659(%rip),%xmm10 # 3cae0 <_sk_srcover_bgra_8888_sse2_lowp+0x1440>
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,15,113,210,13 // psrlw $0xd,%xmm2
.byte 102,65,15,235,211 // por %xmm11,%xmm2
@@ -56760,7 +58276,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
.byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,121,37,0,0 // movdqa 0x2579(%rip),%xmm12 # 3b4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a4>
+ .byte 102,68,15,111,37,181,37,0,0 // movdqa 0x25b5(%rip),%xmm12 # 3ca80 <_sk_srcover_bgra_8888_sse2_lowp+0x13e0>
.byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
.byte 102,69,15,239,236 // pxor %xmm12,%xmm13
.byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
@@ -56799,7 +58315,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,69,15,235,222 // por %xmm14,%xmm11
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,213,209 // pmullw %xmm1,%xmm2
- .byte 102,68,15,111,5,101,29,0,0 // movdqa 0x1d65(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,5,97,29,0,0 // movdqa 0x1d61(%rip),%xmm8 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,65,15,239,192 // pxor %xmm8,%xmm0
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
@@ -56861,7 +58377,7 @@ _sk_clamp_x_1_sse2_lowp:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,248,28,0,0 // movaps 0x1cf8(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,5,244,28,0,0 // movaps 0x1cf4(%rip),%xmm8 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -56879,7 +58395,7 @@ _sk_repeat_x_1_sse2_lowp:
.byte 69,15,194,208,1 // cmpltps %xmm8,%xmm10
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 69,15,194,217,1 // cmpltps %xmm9,%xmm11
- .byte 68,15,40,37,192,28,0,0 // movaps 0x1cc0(%rip),%xmm12 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,37,188,28,0,0 // movaps 0x1cbc(%rip),%xmm12 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,84,212 // andps %xmm12,%xmm10
.byte 69,15,87,237 // xorps %xmm13,%xmm13
@@ -56898,10 +58414,10 @@ HIDDEN _sk_mirror_x_1_sse2_lowp
.globl _sk_mirror_x_1_sse2_lowp
FUNCTION(_sk_mirror_x_1_sse2_lowp)
_sk_mirror_x_1_sse2_lowp:
- .byte 68,15,40,5,232,28,0,0 // movaps 0x1ce8(%rip),%xmm8 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xd14>
+ .byte 68,15,40,5,228,28,0,0 // movaps 0x1ce4(%rip),%xmm8 # 3c3b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd10>
.byte 65,15,88,192 // addps %xmm8,%xmm0
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,104,28,0,0 // movaps 0x1c68(%rip),%xmm10 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,21,100,28,0,0 // movaps 0x1c64(%rip),%xmm10 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 68,15,40,217 // movaps %xmm1,%xmm11
.byte 69,15,89,218 // mulps %xmm10,%xmm11
.byte 68,15,89,208 // mulps %xmm0,%xmm10
@@ -56911,7 +58427,7 @@ _sk_mirror_x_1_sse2_lowp:
.byte 69,15,91,233 // cvtdq2ps %xmm9,%xmm13
.byte 69,15,194,213,1 // cmpltps %xmm13,%xmm10
.byte 69,15,194,220,1 // cmpltps %xmm12,%xmm11
- .byte 68,15,40,13,72,28,0,0 // movaps 0x1c48(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,13,68,28,0,0 // movaps 0x1c44(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,84,217 // andps %xmm9,%xmm11
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,87,246 // xorps %xmm14,%xmm14
@@ -56923,7 +58439,7 @@ _sk_mirror_x_1_sse2_lowp:
.byte 65,15,92,204 // subps %xmm12,%xmm1
.byte 65,15,88,200 // addps %xmm8,%xmm1
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,5,52,33,0,0 // movaps 0x2134(%rip),%xmm8 # 3b2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x11d4>
+ .byte 68,15,40,5,112,33,0,0 // movaps 0x2170(%rip),%xmm8 # 3c8b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1210>
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 65,15,84,200 // andps %xmm8,%xmm1
.byte 65,15,95,206 // maxps %xmm14,%xmm1
@@ -56952,7 +58468,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 73,131,248,2 // cmp $0x2,%r8
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 114,56 // jb 39224 <_sk_gradient_sse2_lowp+0x6c>
+ .byte 114,56 // jb 3a7c8 <_sk_gradient_sse2_lowp+0x6c>
.byte 72,139,88,72 // mov 0x48(%rax),%rbx
.byte 73,255,200 // dec %r8
.byte 72,131,195,4 // add $0x4,%rbx
@@ -56967,7 +58483,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,250,220 // psubd %xmm4,%xmm3
.byte 72,131,195,4 // add $0x4,%rbx
.byte 73,255,200 // dec %r8
- .byte 117,219 // jne 391ff <_sk_gradient_sse2_lowp+0x47>
+ .byte 117,219 // jne 3a7a3 <_sk_gradient_sse2_lowp+0x47>
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
.byte 102,73,15,126,225 // movq %xmm4,%r9
.byte 69,137,200 // mov %r9d,%r8d
@@ -57110,10 +58626,10 @@ _sk_gradient_sse2_lowp:
.byte 15,88,221 // addps %xmm5,%xmm3
.byte 69,15,89,207 // mulps %xmm15,%xmm9
.byte 68,15,88,204 // addps %xmm4,%xmm9
- .byte 15,40,53,175,25,0,0 // movaps 0x19af(%rip),%xmm6 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 15,40,53,171,25,0,0 // movaps 0x19ab(%rip),%xmm6 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 15,89,222 // mulps %xmm6,%xmm3
.byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 15,40,37,177,24,0,0 // movaps 0x18b1(%rip),%xmm4 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,40,37,173,24,0,0 // movaps 0x18ad(%rip),%xmm4 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 68,15,88,204 // addps %xmm4,%xmm9
.byte 15,88,220 // addps %xmm4,%xmm3
.byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
@@ -57209,9 +58725,9 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 39668 <_sk_evenly_spaced_gradient_sse2_lowp+0x34>
+ .byte 120,7 // js 3ac0c <_sk_evenly_spaced_gradient_sse2_lowp+0x34>
.byte 243,72,15,42,211 // cvtsi2ss %rbx,%xmm2
- .byte 235,21 // jmp 3967d <_sk_evenly_spaced_gradient_sse2_lowp+0x49>
+ .byte 235,21 // jmp 3ac21 <_sk_evenly_spaced_gradient_sse2_lowp+0x49>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -57366,10 +58882,10 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 15,40,68,36,176 // movaps -0x50(%rsp),%xmm0
.byte 68,15,89,192 // mulps %xmm0,%xmm8
.byte 68,15,88,193 // addps %xmm1,%xmm8
- .byte 15,40,13,59,21,0,0 // movaps 0x153b(%rip),%xmm1 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 15,40,13,55,21,0,0 // movaps 0x1537(%rip),%xmm1 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 15,89,217 // mulps %xmm1,%xmm3
.byte 68,15,89,193 // mulps %xmm1,%xmm8
- .byte 15,40,13,61,20,0,0 // movaps 0x143d(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,40,13,57,20,0,0 // movaps 0x1439(%rip),%xmm1 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 68,15,88,193 // addps %xmm1,%xmm8
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
@@ -57386,7 +58902,7 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 68,15,88,204 // addps %xmm4,%xmm9
- .byte 15,40,5,223,20,0,0 // movaps 0x14df(%rip),%xmm0 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 15,40,5,219,20,0,0 // movaps 0x14db(%rip),%xmm0 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 68,15,88,201 // addps %xmm1,%xmm9
@@ -57465,10 +58981,10 @@ _sk_evenly_spaced_2_stop_gradient_sse2_lowp:
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 65,15,88,216 // addps %xmm8,%xmm3
.byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 68,15,40,21,164,19,0,0 // movaps 0x13a4(%rip),%xmm10 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,21,160,19,0,0 // movaps 0x13a0(%rip),%xmm10 # 3c430 <_sk_srcover_bgra_8888_sse2_lowp+0xd90>
.byte 65,15,89,210 // mulps %xmm10,%xmm2
.byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 68,15,40,29,164,18,0,0 // movaps 0x12a4(%rip),%xmm11 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,29,160,18,0,0 // movaps 0x12a0(%rip),%xmm11 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 65,15,88,219 // addps %xmm11,%xmm3
.byte 65,15,88,211 // addps %xmm11,%xmm2
.byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
@@ -57561,7 +59077,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 68,15,40,37,88,22,0,0 // movaps 0x1658(%rip),%xmm12 # 3b2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x11d4>
+ .byte 68,15,40,37,148,22,0,0 // movaps 0x1694(%rip),%xmm12 # 3c8b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1210>
.byte 68,15,40,194 // movaps %xmm2,%xmm8
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,40,217 // movaps %xmm1,%xmm11
@@ -57595,26 +59111,26 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 69,15,89,246 // mulps %xmm14,%xmm14
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,37,59,22,0,0 // movaps 0x163b(%rip),%xmm12 # 3b340 <_sk_srcover_bgra_8888_sse2_lowp+0x1244>
+ .byte 68,15,40,37,119,22,0,0 // movaps 0x1677(%rip),%xmm12 # 3c920 <_sk_srcover_bgra_8888_sse2_lowp+0x1280>
.byte 68,15,40,232 // movaps %xmm0,%xmm13
.byte 69,15,89,236 // mulps %xmm12,%xmm13
.byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 68,15,40,61,55,22,0,0 // movaps 0x1637(%rip),%xmm15 # 3b350 <_sk_srcover_bgra_8888_sse2_lowp+0x1254>
+ .byte 68,15,40,61,115,22,0,0 // movaps 0x1673(%rip),%xmm15 # 3c930 <_sk_srcover_bgra_8888_sse2_lowp+0x1290>
.byte 69,15,88,231 // addps %xmm15,%xmm12
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 68,15,89,232 // mulps %xmm0,%xmm13
.byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 68,15,40,61,47,22,0,0 // movaps 0x162f(%rip),%xmm15 # 3b360 <_sk_srcover_bgra_8888_sse2_lowp+0x1264>
+ .byte 68,15,40,61,107,22,0,0 // movaps 0x166b(%rip),%xmm15 # 3c940 <_sk_srcover_bgra_8888_sse2_lowp+0x12a0>
.byte 69,15,88,231 // addps %xmm15,%xmm12
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 68,15,89,232 // mulps %xmm0,%xmm13
.byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 15,40,5,40,22,0,0 // movaps 0x1628(%rip),%xmm0 # 3b370 <_sk_srcover_bgra_8888_sse2_lowp+0x1274>
+ .byte 15,40,5,100,22,0,0 // movaps 0x1664(%rip),%xmm0 # 3c950 <_sk_srcover_bgra_8888_sse2_lowp+0x12b0>
.byte 68,15,88,224 // addps %xmm0,%xmm12
.byte 68,15,88,232 // addps %xmm0,%xmm13
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 69,15,89,224 // mulps %xmm8,%xmm12
- .byte 15,40,5,33,22,0,0 // movaps 0x1621(%rip),%xmm0 # 3b380 <_sk_srcover_bgra_8888_sse2_lowp+0x1284>
+ .byte 15,40,5,93,22,0,0 // movaps 0x165d(%rip),%xmm0 # 3c960 <_sk_srcover_bgra_8888_sse2_lowp+0x12c0>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 65,15,92,197 // subps %xmm13,%xmm0
.byte 65,15,84,194 // andps %xmm10,%xmm0
@@ -57626,7 +59142,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 69,15,86,200 // orps %xmm8,%xmm9
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,194,200,1 // cmpltps %xmm8,%xmm1
- .byte 15,40,5,13,16,0,0 // movaps 0x100d(%rip),%xmm0 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
+ .byte 15,40,5,9,16,0,0 // movaps 0x1009(%rip),%xmm0 # 3c340 <_sk_srcover_bgra_8888_sse2_lowp+0xca0>
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 15,84,193 // andps %xmm1,%xmm0
@@ -57639,7 +59155,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 65,15,86,211 // orps %xmm11,%xmm2
.byte 68,15,40,219 // movaps %xmm3,%xmm11
.byte 69,15,194,216,1 // cmpltps %xmm8,%xmm11
- .byte 68,15,40,13,229,15,0,0 // movaps 0xfe5(%rip),%xmm9 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
+ .byte 68,15,40,13,225,15,0,0 // movaps 0xfe1(%rip),%xmm9 # 3c350 <_sk_srcover_bgra_8888_sse2_lowp+0xcb0>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -57697,26 +59213,26 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 39e9b <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
+ .byte 119,38 // ja 3b43f <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 3a0c4 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
+ .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 3b668 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 39f01 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,102 // jmp 3b4a5 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 39f01 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,87 // jmp 3b4a5 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 39f01 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,52 // jmp 3b4a5 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -57733,7 +59249,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,37,37,14,0,0 // movdqa 0xe25(%rip),%xmm12 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,37,33,14,0,0 // movdqa 0xe21(%rip),%xmm12 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -57791,20 +59307,20 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 3a063 <_sk_srcover_rgba_8888_sse2_lowp+0x213>
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 3a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0x290>
+ .byte 119,24 // ja 3b607 <_sk_srcover_rgba_8888_sse2_lowp+0x213>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 3b684 <_sk_srcover_rgba_8888_sse2_lowp+0x290>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4)
- .byte 235,73 // jmp 3a0ac <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,73 // jmp 3b650 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
.byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4)
- .byte 235,58 // jmp 3a0ac <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,58 // jmp 3b650 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0
.byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4)
.byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4)
- .byte 235,37 // jmp 3a0ac <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,37 // jmp 3b650 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4)
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
@@ -57837,7 +59353,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 3a0e1 <_sk_srcover_rgba_8888_sse2_lowp+0x291>
+ .byte 123,255 // jnp 3b685 <_sk_srcover_rgba_8888_sse2_lowp+0x291>
.byte 255 // (bad)
.byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi)
.byte 255 // (bad)
@@ -57869,26 +59385,26 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 3a147 <_sk_srcover_bgra_8888_sse2_lowp+0x4b>
+ .byte 119,38 // ja 3b6eb <_sk_srcover_bgra_8888_sse2_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x274>
+ .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 3b914 <_sk_srcover_bgra_8888_sse2_lowp+0x274>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 3a1ad <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
+ .byte 235,102 // jmp 3b751 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 3a1ad <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
+ .byte 235,87 // jmp 3b751 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 3a1ad <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
+ .byte 235,52 // jmp 3b751 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -57905,7 +59421,7 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,37,121,11,0,0 // movdqa 0xb79(%rip),%xmm12 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,37,117,11,0,0 // movdqa 0xb75(%rip),%xmm12 # 3c2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc50>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,244 // pand %xmm12,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -57963,20 +59479,20 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 3a30f <_sk_srcover_bgra_8888_sse2_lowp+0x213>
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 3a38c <_sk_srcover_bgra_8888_sse2_lowp+0x290>
+ .byte 119,24 // ja 3b8b3 <_sk_srcover_bgra_8888_sse2_lowp+0x213>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 3b930 <_sk_srcover_bgra_8888_sse2_lowp+0x290>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4)
- .byte 235,73 // jmp 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
+ .byte 235,73 // jmp 3b8fc <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
.byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
.byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4)
- .byte 235,58 // jmp 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
+ .byte 235,58 // jmp 3b8fc <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
.byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0
.byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4)
.byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4)
- .byte 235,37 // jmp 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
+ .byte 235,37 // jmp 3b8fc <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4)
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
@@ -58009,7 +59525,7 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 3a38d <_sk_srcover_bgra_8888_sse2_lowp+0x291>
+ .byte 123,255 // jnp 3b931 <_sk_srcover_bgra_8888_sse2_lowp+0x291>
.byte 255 // (bad)
.byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi)
.byte 255 // (bad)
@@ -58042,14 +59558,14 @@ BALIGN4
.byte 252 // cld
.byte 190,0,0,128,191 // mov $0xbf800000,%esi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3a40c <.literal4+0x64>
+ .byte 224,64 // loopne 3b9b0 <.literal4+0x64>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
.byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope 3a415 <.literal4+0x6d>
+ .byte 71,225,61 // rex.RXB loope 3b9b9 <.literal4+0x6d>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3a41f <.literal4+0x77>
+ .byte 127,67 // jg 3b9c3 <.literal4+0x77>
.byte 0,0 // add %al,(%rax)
.byte 128,127,145,131 // cmpb $0x83,-0x6f(%rdi)
.byte 158 // sahf
@@ -58086,7 +59602,7 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 3a439 <.literal4+0x91>
+ .byte 224,7 // loopne 3b9dd <.literal4+0x91>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -58097,8 +59613,8 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 0,52,255 // add %dh,(%rdi,%rdi,8)
.byte 255 // (bad)
- .byte 127,0 // jg 3a44c <.literal4+0xa4>
- .byte 119,115 // ja 3a4c1 <.literal4+0x119>
+ .byte 127,0 // jg 3b9f0 <.literal4+0xa4>
+ .byte 119,115 // ja 3ba65 <.literal4+0x119>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -58121,12 +59637,12 @@ BALIGN4
.byte 190,80,128,3,62 // mov $0x3e038050,%esi
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3a4d7 <.literal4+0x12f>
+ .byte 118,63 // jbe 3ba7b <.literal4+0x12f>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 3a4e6 <.literal4+0x13e>
+ .byte 124,66 // jl 3ba8a <.literal4+0x13e>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax)
@@ -58136,19 +59652,25 @@ BALIGN4
.byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax)
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax)
- .byte 112,65 // jo 3a509 <.literal4+0x161>
+ .byte 112,65 // jo 3baad <.literal4+0x161>
+ .byte 255,3 // incl (%rbx)
+ .byte 0,0 // add %al,(%rax)
+ .byte 8,32 // or %ah,(%rax)
+ .byte 128,58,0 // cmpb $0x0,(%rdx)
+ .byte 192,127,68,0 // sarb $0x0,0x44(%rdi)
+ .byte 0,64,64 // add %al,0x40(%rax)
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3a513 <.literal4+0x16b>
+ .byte 127,71 // jg 3bac7 <.literal4+0x17b>
.byte 89 // pop %rcx
.byte 23 // (bad)
.byte 55 // (bad)
.byte 63 // (bad)
- .byte 208 // (bad)
- .byte 179,89 // mov $0x59,%bl
- .byte 62,152 // ds cwtl
- .byte 221,147,61,111,43,231 // fstl -0x18d490c3(%rbx)
- .byte 187,159,215,202,60 // mov $0x3ccad79f,%ebx
- .byte 212 // (bad)
+ .byte 208,179,89,62,152,221 // shlb -0x2267c1a7(%rbx)
+ .byte 147 // xchg %eax,%ebx
+ .byte 61,111,43,231,187 // cmp $0xbbe72b6f,%eax
+ .byte 159 // lahf
+ .byte 215 // xlat %ds:(%rbx)
+ .byte 202,60,212 // lret $0xd43c
.byte 100,84 // fs push %rsp
.byte 189,169,240,34,62 // mov $0x3e22f0a9,%ebp
.byte 0,0 // add %al,(%rax)
@@ -58156,18 +59678,18 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0,191,0,0,192,191 // add %bh,-0x40400000(%rdi)
- .byte 114,28 // jb 3a516 <.literal4+0x16e>
+ .byte 114,28 // jb 3baca <.literal4+0x17e>
.byte 199 // (bad)
.byte 62,85 // ds push %rbp
.byte 85 // push %rbp
.byte 149 // xchg %eax,%ebp
.byte 191,0,0,192,63 // mov $0x3fc00000,%edi
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 3a54b <_sk_srcover_bgra_8888_sse2_lowp+0x44f>
+ .byte 127,63 // jg 3baff <_sk_srcover_bgra_8888_sse2_lowp+0x45f>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 45,16,17,192,18 // sub $0x12c01110,%eax
- .byte 120,57 // js 3a550 <_sk_srcover_bgra_8888_sse2_lowp+0x454>
+ .byte 120,57 // js 3bb04 <_sk_srcover_bgra_8888_sse2_lowp+0x464>
.byte 64,32,148,90,62,4,157,30 // and %dl,0x1e9d043e(%rdx,%rbx,2)
.byte 62,0,24 // add %bl,%ds:(%rax)
.byte 161,57,109,165,144,63,252,191,16 // movabs 0x10bffc3f90a56d39,%eax
@@ -58179,7 +59701,7 @@ BALIGN4
.byte 56,255 // cmp %bh,%bh
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3a53d <.literal4+0x195>
+ .byte 127,0 // jg 3baf1 <.literal4+0x1a5>
.byte 0,128,56,0,64,254 // add %al,-0x1bfffc8(%rax)
.byte 255 // .byte 0xff
@@ -58231,16 +59753,16 @@ BALIGN32
.byte 0,1 // add %al,(%rcx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a5c8 <_sk_srcover_bgra_8888_sse2_lowp+0xa0004cc>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03bb68 <_sk_srcover_bgra_8888_sse2_lowp+0xa0004c8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x120004d4>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203bb70 <_sk_srcover_bgra_8888_sse2_lowp+0x120004d0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a5d8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0004dc>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03bb78 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0004d8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x30004e4>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303bb80 <_sk_srcover_bgra_8888_sse2_lowp+0x30004e0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58283,16 +59805,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a628 <_sk_srcover_bgra_8888_sse2_lowp+0xa00052c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03bbc8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000528>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a630 <_sk_srcover_bgra_8888_sse2_lowp+0x12000534>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203bbd0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000530>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a638 <_sk_srcover_bgra_8888_sse2_lowp+0x1a00053c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03bbd8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000538>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a640 <_sk_srcover_bgra_8888_sse2_lowp+0x3000544>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303bbe0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000540>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58335,16 +59857,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a688 <_sk_srcover_bgra_8888_sse2_lowp+0xa00058c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03bc28 <_sk_srcover_bgra_8888_sse2_lowp+0xa000588>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a690 <_sk_srcover_bgra_8888_sse2_lowp+0x12000594>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203bc30 <_sk_srcover_bgra_8888_sse2_lowp+0x12000590>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a698 <_sk_srcover_bgra_8888_sse2_lowp+0x1a00059c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03bc38 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000598>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x30005a4>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303bc40 <_sk_srcover_bgra_8888_sse2_lowp+0x30005a0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58387,16 +59909,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a6e8 <_sk_srcover_bgra_8888_sse2_lowp+0xa0005ec>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03bc88 <_sk_srcover_bgra_8888_sse2_lowp+0xa0005e8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a6f0 <_sk_srcover_bgra_8888_sse2_lowp+0x120005f4>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203bc90 <_sk_srcover_bgra_8888_sse2_lowp+0x120005f0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a6f8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0005fc>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03bc98 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0005f8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a700 <_sk_srcover_bgra_8888_sse2_lowp+0x3000604>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303bca0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000600>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58439,16 +59961,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a748 <_sk_srcover_bgra_8888_sse2_lowp+0xa00064c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03bce8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000648>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a750 <_sk_srcover_bgra_8888_sse2_lowp+0x12000654>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203bcf0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000650>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a758 <_sk_srcover_bgra_8888_sse2_lowp+0x1a00065c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03bcf8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000658>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a760 <_sk_srcover_bgra_8888_sse2_lowp+0x3000664>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303bd00 <_sk_srcover_bgra_8888_sse2_lowp+0x3000660>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58491,16 +60013,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a7a8 <_sk_srcover_bgra_8888_sse2_lowp+0xa0006ac>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03bd48 <_sk_srcover_bgra_8888_sse2_lowp+0xa0006a8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x120006b4>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203bd50 <_sk_srcover_bgra_8888_sse2_lowp+0x120006b0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a7b8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0006bc>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03bd58 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0006b8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a7c0 <_sk_srcover_bgra_8888_sse2_lowp+0x30006c4>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303bd60 <_sk_srcover_bgra_8888_sse2_lowp+0x30006c0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58543,16 +60065,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a808 <_sk_srcover_bgra_8888_sse2_lowp+0xa00070c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03bda8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000708>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a810 <_sk_srcover_bgra_8888_sse2_lowp+0x12000714>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203bdb0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000710>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a818 <_sk_srcover_bgra_8888_sse2_lowp+0x1a00071c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03bdb8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000718>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a820 <_sk_srcover_bgra_8888_sse2_lowp+0x3000724>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303bdc0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000720>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58595,16 +60117,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a868 <_sk_srcover_bgra_8888_sse2_lowp+0xa00076c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03be08 <_sk_srcover_bgra_8888_sse2_lowp+0xa000768>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a870 <_sk_srcover_bgra_8888_sse2_lowp+0x12000774>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203be10 <_sk_srcover_bgra_8888_sse2_lowp+0x12000770>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a878 <_sk_srcover_bgra_8888_sse2_lowp+0x1a00077c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03be18 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000778>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a880 <_sk_srcover_bgra_8888_sse2_lowp+0x3000784>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303be20 <_sk_srcover_bgra_8888_sse2_lowp+0x3000780>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58647,16 +60169,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a8c8 <_sk_srcover_bgra_8888_sse2_lowp+0xa0007cc>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03be68 <_sk_srcover_bgra_8888_sse2_lowp+0xa0007c8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a8d0 <_sk_srcover_bgra_8888_sse2_lowp+0x120007d4>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203be70 <_sk_srcover_bgra_8888_sse2_lowp+0x120007d0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a8d8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0007dc>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03be78 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0007d8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a8e0 <_sk_srcover_bgra_8888_sse2_lowp+0x30007e4>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303be80 <_sk_srcover_bgra_8888_sse2_lowp+0x30007e0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58699,16 +60221,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a928 <_sk_srcover_bgra_8888_sse2_lowp+0xa00082c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03bec8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000828>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a930 <_sk_srcover_bgra_8888_sse2_lowp+0x12000834>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203bed0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000830>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a938 <_sk_srcover_bgra_8888_sse2_lowp+0x1a00083c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03bed8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000838>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a940 <_sk_srcover_bgra_8888_sse2_lowp+0x3000844>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303bee0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000840>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58945,6 +60467,8 @@ BALIGN32
.byte 0,255 // add %bh,%bh
.byte 0,255 // add %bh,%bh
.byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
.byte 0,254 // add %bh,%dh
.byte 1,255 // add %edi,%edi
.byte 0,254 // add %bh,%dh
@@ -58952,8 +60476,6 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 128,255,0 // cmp $0x0,%bh
.byte 0,128,0,0,0,0 // add %al,0x0(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
.byte 255,0 // incl (%rax)
.byte 255,0 // incl (%rax)
@@ -59060,7 +60582,7 @@ BALIGN32
.byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
- .byte 224,255 // loopne 3abf3 <.const+0x693>
+ .byte 224,255 // loopne 3c193 <.const+0x693>
.byte 248 // clc
.byte 0,63 // add %bh,(%rdi)
.byte 0,31 // add %bl,(%rdi)
@@ -59321,11 +60843,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%rax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3ae68 <.literal16+0x118>
+ .byte 224,64 // loopne 3c408 <.literal16+0x118>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3ae6c <.literal16+0x11c>
+ .byte 224,64 // loopne 3c40c <.literal16+0x11c>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3ae70 <.literal16+0x120>
+ .byte 224,64 // loopne 3c410 <.literal16+0x120>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
@@ -59345,13 +60867,13 @@ BALIGN16
.byte 10,23 // or (%rdi),%dl
.byte 63 // (bad)
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3ae91 <.literal16+0x141>
+ .byte 71,225,61 // rex.RXB loope 3c431 <.literal16+0x141>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3ae95 <.literal16+0x145>
+ .byte 71,225,61 // rex.RXB loope 3c435 <.literal16+0x145>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3ae99 <.literal16+0x149>
+ .byte 71,225,61 // rex.RXB loope 3c439 <.literal16+0x149>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3ae9d <.literal16+0x14d>
+ .byte 71,225,61 // rex.RXB loope 3c43d <.literal16+0x14d>
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
@@ -59362,10 +60884,10 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03ae78 <_sk_srcover_bgra_8888_sse2_lowp+0xa000d7c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03c418 <_sk_srcover_bgra_8888_sse2_lowp+0xa000d78>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 303ae80 <_sk_srcover_bgra_8888_sse2_lowp+0x3000d84>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 303c420 <_sk_srcover_bgra_8888_sse2_lowp+0x3000d80>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59380,11 +60902,11 @@ BALIGN16
.byte 255,0 // incl (%rax)
.byte 0,127,67 // add %bh,0x43(%rdi)
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3aedb <.literal16+0x18b>
+ .byte 127,67 // jg 3c47b <.literal16+0x18b>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3aedf <.literal16+0x18f>
+ .byte 127,67 // jg 3c47f <.literal16+0x18f>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3aee3 <.literal16+0x193>
+ .byte 127,67 // jg 3c483 <.literal16+0x193>
.byte 0,0 // add %al,(%rax)
.byte 128,127,0,0 // cmpb $0x0,0x0(%rdi)
.byte 128,127,0,0 // cmpb $0x0,0x0(%rdi)
@@ -59540,13 +61062,13 @@ BALIGN16
.byte 132,55 // test %dh,(%rdi)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 3aff9 <.literal16+0x2a9>
+ .byte 224,7 // loopne 3c599 <.literal16+0x2a9>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 3affd <.literal16+0x2ad>
+ .byte 224,7 // loopne 3c59d <.literal16+0x2ad>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 3b001 <.literal16+0x2b1>
+ .byte 224,7 // loopne 3c5a1 <.literal16+0x2b1>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 3b005 <.literal16+0x2b5>
+ .byte 224,7 // loopne 3c5a5 <.literal16+0x2b5>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -59600,17 +61122,17 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 3b074 <.literal16+0x324>
+ .byte 127,0 // jg 3c614 <.literal16+0x324>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3b078 <.literal16+0x328>
+ .byte 127,0 // jg 3c618 <.literal16+0x328>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3b07c <.literal16+0x32c>
+ .byte 127,0 // jg 3c61c <.literal16+0x32c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3b080 <.literal16+0x330>
- .byte 119,115 // ja 3b0f5 <.literal16+0x3a5>
+ .byte 127,0 // jg 3c620 <.literal16+0x330>
+ .byte 119,115 // ja 3c695 <.literal16+0x3a5>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -59621,7 +61143,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 3b059 <.literal16+0x309>
+ .byte 117,191 // jne 3c5f9 <.literal16+0x309>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -59633,7 +61155,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a6f09a <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe9a34f9e>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a7063a <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe9a34f9a>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -59723,16 +61245,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%rbx)
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3b1e3 <.literal16+0x493>
+ .byte 118,63 // jbe 3c783 <.literal16+0x493>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3b1e7 <.literal16+0x497>
+ .byte 118,63 // jbe 3c787 <.literal16+0x497>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3b1eb <.literal16+0x49b>
+ .byte 118,63 // jbe 3c78b <.literal16+0x49b>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3b1ef <.literal16+0x49f>
+ .byte 118,63 // jbe 3c78f <.literal16+0x49f>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
@@ -59753,13 +61275,13 @@ BALIGN16
.byte 65,0,0 // add %al,(%r8)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 3b226 <.literal16+0x4d6>
+ .byte 124,66 // jl 3c7c6 <.literal16+0x4d6>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3b22a <.literal16+0x4da>
+ .byte 124,66 // jl 3c7ca <.literal16+0x4da>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3b22e <.literal16+0x4de>
+ .byte 124,66 // jl 3c7ce <.literal16+0x4de>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3b232 <.literal16+0x4e2>
+ .byte 124,66 // jl 3c7d2 <.literal16+0x4e2>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 0,240 // add %dh,%al
@@ -59805,25 +61327,52 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3b2b5 <.literal16+0x565>
+ .byte 112,65 // jo 3c855 <.literal16+0x565>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3b2b9 <.literal16+0x569>
+ .byte 112,65 // jo 3c859 <.literal16+0x569>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3b2bd <.literal16+0x56d>
+ .byte 112,65 // jo 3c85d <.literal16+0x56d>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3b2c1 <.literal16+0x571>
- .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
+ .byte 112,65 // jo 3c861 <.literal16+0x571>
+ .byte 255,3 // incl (%rbx)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,3 // incl (%rbx)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,3 // incl (%rbx)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,3 // incl (%rbx)
+ .byte 0,0 // add %al,(%rax)
+ .byte 8,32 // or %ah,(%rax)
+ .byte 128,58,8 // cmpb $0x8,(%rdx)
+ .byte 32,128,58,8,32,128 // and %al,-0x7fdff7c6(%rax)
+ .byte 58,8 // cmp (%rax),%cl
+ .byte 32,128,58,0,192,127 // and %al,0x7fc0003a(%rax)
+ .byte 68,0,192 // add %r8b,%al
+ .byte 127,68 // jg 3c88c <.literal16+0x59c>
+ .byte 0,192 // add %al,%al
+ .byte 127,68 // jg 3c890 <.literal16+0x5a0>
+ .byte 0,192 // add %al,%al
+ .byte 127,68 // jg 3c894 <.literal16+0x5a4>
+ .byte 0,0 // add %al,(%rax)
+ .byte 64 // rex
+ .byte 64,0,0 // add %al,(%rax)
+ .byte 64 // rex
+ .byte 64,0,0 // add %al,(%rax)
+ .byte 64 // rex
+ .byte 64,0,0 // add %al,(%rax)
+ .byte 64 // rex
+ .byte 64,0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 3b293 <.literal16+0x543>
+ .byte 127,0 // jg 3c873 <.literal16+0x583>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3b297 <.literal16+0x547>
+ .byte 127,0 // jg 3c877 <.literal16+0x587>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3b29b <.literal16+0x54b>
+ .byte 127,0 // jg 3c87b <.literal16+0x58b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3b29f <.literal16+0x54f>
+ .byte 127,0 // jg 3c87f <.literal16+0x58f>
.byte 0,0 // add %al,(%rax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
@@ -59849,13 +61398,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 3b2d8 <.literal16+0x588>
+ .byte 127,255 // jg 3c8b8 <.literal16+0x5c8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 3b2dc <.literal16+0x58c>
+ .byte 127,255 // jg 3c8bc <.literal16+0x5cc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3b2e1 <.literal16+0x591>
+ .byte 127,0 // jg 3c8c1 <.literal16+0x5d1>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
.byte 56,0 // cmp %al,(%rax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
@@ -59869,21 +61418,17 @@ BALIGN16
.byte 64,254 // rex (bad)
.byte 255,0 // incl (%rax)
.byte 255 // (bad)
- .byte 127,71 // jg 3b34b <.literal16+0x5fb>
+ .byte 127,71 // jg 3c92b <.literal16+0x63b>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3b34f <.literal16+0x5ff>
+ .byte 127,71 // jg 3c92f <.literal16+0x63f>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3b353 <.literal16+0x603>
+ .byte 127,71 // jg 3c933 <.literal16+0x643>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3b357 <.literal16+0x607>
- .byte 208 // (bad)
- .byte 179,89 // mov $0x59,%bl
- .byte 62,208 // ds (bad)
- .byte 179,89 // mov $0x59,%bl
- .byte 62,208 // ds (bad)
- .byte 179,89 // mov $0x59,%bl
- .byte 62,208 // ds (bad)
- .byte 179,89 // mov $0x59,%bl
+ .byte 127,71 // jg 3c937 <.literal16+0x647>
+ .byte 208,179,89,62,208,179 // shlb -0x4c2fc1a7(%rbx)
+ .byte 89 // pop %rcx
+ .byte 62,208,179,89,62,208,179 // shlb %ds:-0x4c2fc1a7(%rbx)
+ .byte 89 // pop %rcx
.byte 62,89 // ds pop %rcx
.byte 23 // (bad)
.byte 55 // (bad)
@@ -59940,13 +61485,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb 3b3ce <.literal16+0x67e>
+ .byte 114,28 // jb 3c9ae <.literal16+0x6be>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 3b3d2 <.literal16+0x682>
+ .byte 62,114,28 // jb,pt 3c9b2 <.literal16+0x6c2>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 3b3d6 <.literal16+0x686>
+ .byte 62,114,28 // jb,pt 3c9b6 <.literal16+0x6c6>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 3b3da <.literal16+0x68a>
+ .byte 62,114,28 // jb,pt 3c9ba <.literal16+0x6ca>
.byte 199 // (bad)
.byte 62,85 // ds push %rbp
.byte 85 // push %rbp
@@ -59965,15 +61510,15 @@ BALIGN16
.byte 0,192 // add %al,%al
.byte 63 // (bad)
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d674225 <_sk_srcover_bgra_8888_sse2_lowp+0x3d63a129>
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d675805 <_sk_srcover_bgra_8888_sse2_lowp+0x3d63a165>
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 3b433 <.literal16+0x6e3>
- .byte 114,249 // jb 3b3ef <.literal16+0x69f>
- .byte 127,63 // jg 3b437 <.literal16+0x6e7>
- .byte 114,249 // jb 3b3f3 <.literal16+0x6a3>
- .byte 127,63 // jg 3b43b <.literal16+0x6eb>
- .byte 114,249 // jb 3b3f7 <.literal16+0x6a7>
- .byte 127,63 // jg 3b43f <.literal16+0x6ef>
+ .byte 127,63 // jg 3ca13 <.literal16+0x723>
+ .byte 114,249 // jb 3c9cf <.literal16+0x6df>
+ .byte 127,63 // jg 3ca17 <.literal16+0x727>
+ .byte 114,249 // jb 3c9d3 <.literal16+0x6e3>
+ .byte 127,63 // jg 3ca1b <.literal16+0x72b>
+ .byte 114,249 // jb 3c9d7 <.literal16+0x6e7>
+ .byte 127,63 // jg 3ca1f <.literal16+0x72f>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 3,0 // add (%rax),%eax
@@ -59997,9 +61542,9 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,45,16,17,192,45 // ljmp *0x2dc01110(%rip) # 2dc3c535 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc02439>
+ .byte 255,45,16,17,192,45 // ljmp *0x2dc01110(%rip) # 2dc3db15 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc02475>
.byte 16,17 // adc %dl,(%rcx)
- .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc3c53e <_sk_srcover_bgra_8888_sse2_lowp+0x2dc02442>
+ .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc3db1e <_sk_srcover_bgra_8888_sse2_lowp+0x2dc0247e>
.byte 17,192 // adc %eax,%eax
.byte 18,120,57 // adc 0x39(%rax),%bh
.byte 64,18,120,57 // adc 0x39(%rax),%dil
@@ -60068,8 +61613,7 @@ BALIGN16
.byte 15,10 // (bad)
.byte 11,14 // or (%rsi),%ecx
.byte 15,14 // femms
- .byte 15,255 // (bad)
- .byte 255 // (bad)
+ .byte 15,255,255 // ud0 %edi,%edi
.byte 248 // clc
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
@@ -60103,14 +61647,14 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne 3b521 <.literal16+0x7d1>
- .byte 224,255 // loopne 3b523 <.literal16+0x7d3>
- .byte 224,255 // loopne 3b525 <.literal16+0x7d5>
- .byte 224,255 // loopne 3b527 <.literal16+0x7d7>
- .byte 224,255 // loopne 3b529 <.literal16+0x7d9>
- .byte 224,255 // loopne 3b52b <.literal16+0x7db>
- .byte 224,255 // loopne 3b52d <.literal16+0x7dd>
- .byte 224,255 // loopne 3b52f <.literal16+0x7df>
+ .byte 224,255 // loopne 3cb01 <.literal16+0x811>
+ .byte 224,255 // loopne 3cb03 <.literal16+0x813>
+ .byte 224,255 // loopne 3cb05 <.literal16+0x815>
+ .byte 224,255 // loopne 3cb07 <.literal16+0x817>
+ .byte 224,255 // loopne 3cb09 <.literal16+0x819>
+ .byte 224,255 // loopne 3cb0b <.literal16+0x81b>
+ .byte 224,255 // loopne 3cb0d <.literal16+0x81d>
+ .byte 224,255 // loopne 3cb0f <.literal16+0x81f>
.byte 15,0,15 // str (%rdi)
.byte 0,15 // add %cl,(%rdi)
.byte 0,15 // add %cl,(%rdi)
@@ -60183,9 +61727,9 @@ BALIGN8
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 3b5cb <.literal8+0x1b>
+ .byte 127,0 // jg 3cbab <.literal8+0x1b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3b5cf <.literal8+0x1f>
+ .byte 127,0 // jg 3cbaf <.literal8+0x1f>
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0 // .byte 0x0
@@ -60297,7 +61841,7 @@ _sk_seed_shader_sse2:
.byte 102,15,110,73,4 // movd 0x4(%ecx),%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,136,87,253,0,0 // addps 0xfd57(%eax),%xmm1
+ .byte 15,88,136,7,2,1,0 // addps 0x10207(%eax),%xmm1
.byte 141,114,8 // lea 0x8(%edx),%esi
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 15,41,81,64 // movaps %xmm2,0x40(%ecx)
@@ -60305,7 +61849,7 @@ _sk_seed_shader_sse2:
.byte 15,41,81,32 // movaps %xmm2,0x20(%ecx)
.byte 15,41,81,16 // movaps %xmm2,0x10(%ecx)
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,144,103,253,0,0 // movaps 0xfd67(%eax),%xmm2
+ .byte 15,40,144,23,2,1,0 // movaps 0x10217(%eax),%xmm2
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
@@ -60332,15 +61876,15 @@ _sk_dither_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 102,15,110,32 // movd (%eax),%xmm4
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 102,15,254,161,0,253,0,0 // paddd 0xfd00(%ecx),%xmm4
+ .byte 102,15,254,161,176,1,1,0 // paddd 0x101b0(%ecx),%xmm4
.byte 102,15,110,104,4 // movd 0x4(%eax),%xmm5
.byte 102,15,112,253,0 // pshufd $0x0,%xmm5,%xmm7
.byte 102,15,239,252 // pxor %xmm4,%xmm7
- .byte 102,15,111,177,16,253,0,0 // movdqa 0xfd10(%ecx),%xmm6
+ .byte 102,15,111,177,192,1,1,0 // movdqa 0x101c0(%ecx),%xmm6
.byte 102,15,111,207 // movdqa %xmm7,%xmm1
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,114,241,5 // pslld $0x5,%xmm1
- .byte 102,15,111,129,48,253,0,0 // movdqa 0xfd30(%ecx),%xmm0
+ .byte 102,15,111,129,224,1,1,0 // movdqa 0x101e0(%ecx),%xmm0
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
.byte 102,15,219,232 // pand %xmm0,%xmm5
.byte 102,15,114,245,2 // pslld $0x2,%xmm5
@@ -60350,7 +61894,7 @@ _sk_dither_sse2:
.byte 102,15,219,196 // pand %xmm4,%xmm0
.byte 102,15,254,192 // paddd %xmm0,%xmm0
.byte 102,15,235,198 // por %xmm6,%xmm0
- .byte 102,15,111,137,32,253,0,0 // movdqa 0xfd20(%ecx),%xmm1
+ .byte 102,15,111,137,208,1,1,0 // movdqa 0x101d0(%ecx),%xmm1
.byte 102,15,219,249 // pand %xmm1,%xmm7
.byte 102,15,219,225 // pand %xmm1,%xmm4
.byte 102,15,114,212,2 // psrld $0x2,%xmm4
@@ -60361,8 +61905,8 @@ _sk_dither_sse2:
.byte 102,15,114,215,1 // psrld $0x1,%xmm7
.byte 102,15,235,231 // por %xmm7,%xmm4
.byte 15,91,196 // cvtdq2ps %xmm4,%xmm0
- .byte 15,89,129,64,253,0,0 // mulps 0xfd40(%ecx),%xmm0
- .byte 15,88,129,80,253,0,0 // addps 0xfd50(%ecx),%xmm0
+ .byte 15,89,129,240,1,1,0 // mulps 0x101f0(%ecx),%xmm0
+ .byte 15,88,129,0,2,1,0 // addps 0x10200(%ecx),%xmm0
.byte 243,15,16,14 // movss (%esi),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -60430,7 +61974,7 @@ _sk_black_color_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,152,180,251,0,0 // movaps 0xfbb4(%eax),%xmm3
+ .byte 15,40,152,100,0,1,0 // movaps 0x10064(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -60453,7 +61997,7 @@ _sk_white_color_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,128,132,251,0,0 // movaps 0xfb84(%eax),%xmm0
+ .byte 15,40,128,52,0,1,0 // movaps 0x10034(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -60543,7 +62087,7 @@ _sk_srcatop_sse2:
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,170,213,250,0,0 // movaps 0xfad5(%edx),%xmm5
+ .byte 15,40,170,133,255,0,0 // movaps 0xff85(%edx),%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
@@ -60582,7 +62126,7 @@ _sk_dstatop_sse2:
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,40,162,118,250,0,0 // movaps 0xfa76(%edx),%xmm4
+ .byte 15,40,162,38,255,0,0 // movaps 0xff26(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
@@ -60666,7 +62210,7 @@ _sk_srcout_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,181,249,0,0 // movaps 0xf9b5(%eax),%xmm4
+ .byte 15,40,160,101,254,0,0 // movaps 0xfe65(%eax),%xmm4
.byte 15,92,98,64 // subps 0x40(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
@@ -60692,7 +62236,7 @@ _sk_dstout_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,125,249,0,0 // movaps 0xf97d(%eax),%xmm4
+ .byte 15,40,160,45,254,0,0 // movaps 0xfe2d(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,66,16 // movaps 0x10(%edx),%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -60722,7 +62266,7 @@ _sk_srcover_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,54,249,0,0 // movaps 0xf936(%eax),%xmm4
+ .byte 15,40,160,230,253,0,0 // movaps 0xfde6(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -60756,7 +62300,7 @@ _sk_dstover_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,106,64 // movaps 0x40(%edx),%xmm5
- .byte 15,40,160,230,248,0,0 // movaps 0xf8e6(%eax),%xmm4
+ .byte 15,40,160,150,253,0,0 // movaps 0xfd96(%eax),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,66,16 // addps 0x10(%edx),%xmm0
@@ -60812,7 +62356,7 @@ _sk_multiply_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,40,129,103,248,0,0 // movaps 0xf867(%ecx),%xmm0
+ .byte 15,40,129,23,253,0,0 // movaps 0xfd17(%ecx),%xmm0
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
@@ -60872,7 +62416,7 @@ _sk_plus__sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,88,66,16 // addps 0x10(%edx),%xmm0
- .byte 15,40,160,193,247,0,0 // movaps 0xf7c1(%eax),%xmm4
+ .byte 15,40,160,113,252,0,0 // movaps 0xfc71(%eax),%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
.byte 15,88,74,32 // addps 0x20(%edx),%xmm1
.byte 15,93,204 // minps %xmm4,%xmm1
@@ -60944,7 +62488,7 @@ _sk_xor__sse2:
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
- .byte 15,40,154,19,247,0,0 // movaps 0xf713(%edx),%xmm3
+ .byte 15,40,154,195,251,0,0 // movaps 0xfbc3(%edx),%xmm3
.byte 15,40,243 // movaps %xmm3,%xmm6
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,89,198 // mulps %xmm6,%xmm0
@@ -61006,7 +62550,7 @@ _sk_darken_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,95,209 // maxps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,171,246,0,0 // movaps 0xf6ab(%edx),%xmm1
+ .byte 15,40,138,91,251,0,0 // movaps 0xfb5b(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -61055,7 +62599,7 @@ _sk_lighten_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,93,209 // minps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,43,246,0,0 // movaps 0xf62b(%edx),%xmm1
+ .byte 15,40,138,219,250,0,0 // movaps 0xfadb(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -61108,7 +62652,7 @@ _sk_difference_sse2:
.byte 15,93,214 // minps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,146,168,245,0,0 // movaps 0xf5a8(%edx),%xmm2
+ .byte 15,40,146,88,250,0,0 // movaps 0xfa58(%edx),%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -61152,7 +62696,7 @@ _sk_exclusion_sse2:
.byte 15,89,202 // mulps %xmm2,%xmm1
.byte 15,88,201 // addps %xmm1,%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,40,138,34,245,0,0 // movaps 0xf522(%edx),%xmm1
+ .byte 15,40,138,210,249,0,0 // movaps 0xf9d2(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,73,64 // mulps 0x40(%ecx),%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -61193,7 +62737,7 @@ _sk_colorburn_sse2:
.byte 15,93,198 // minps %xmm6,%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,92,232 // subps %xmm0,%xmm5
- .byte 15,40,177,163,244,0,0 // movaps 0xf4a3(%ecx),%xmm6
+ .byte 15,40,177,83,249,0,0 // movaps 0xf953(%ecx),%xmm6
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
@@ -61310,7 +62854,7 @@ _sk_colordodge_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
- .byte 15,40,145,26,243,0,0 // movaps 0xf31a(%ecx),%xmm2
+ .byte 15,40,145,202,247,0,0 // movaps 0xf7ca(%ecx),%xmm2
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,40,250 // movaps %xmm2,%xmm7
@@ -61427,7 +62971,7 @@ _sk_hardlight_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
- .byte 15,40,145,185,241,0,0 // movaps 0xf1b9(%ecx),%xmm2
+ .byte 15,40,145,105,246,0,0 // movaps 0xf669(%ecx),%xmm2
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,40,225 // movaps %xmm1,%xmm4
@@ -61537,7 +63081,7 @@ _sk_overlay_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
- .byte 15,40,161,110,240,0,0 // movaps 0xf06e(%ecx),%xmm4
+ .byte 15,40,161,30,245,0,0 // movaps 0xf51e(%ecx),%xmm4
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
@@ -61665,17 +63209,17 @@ _sk_softlight_sse2:
.byte 232,0,0,0,0 // call f52 <_sk_softlight_sse2+0x52>
.byte 89 // pop %ecx
.byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,137,78,239,0,0 // movaps 0xef4e(%ecx),%xmm1
+ .byte 15,40,137,254,243,0,0 // movaps 0xf3fe(%ecx),%xmm1
.byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
.byte 15,88,193 // addps %xmm1,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,185,222,238,0,0 // movaps 0xeede(%ecx),%xmm7
+ .byte 15,40,185,142,243,0,0 // movaps 0xf38e(%ecx),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,82,242 // rsqrtps %xmm2,%xmm6
.byte 15,83,206 // rcpps %xmm6,%xmm1
.byte 15,92,202 // subps %xmm2,%xmm1
- .byte 15,40,161,94,239,0,0 // movaps 0xef5e(%ecx),%xmm4
+ .byte 15,40,161,14,244,0,0 // movaps 0xf40e(%ecx),%xmm4
.byte 15,41,101,152 // movaps %xmm4,-0x68(%ebp)
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
@@ -61881,7 +63425,7 @@ _sk_hue_sse2:
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 15,40,169,29,236,0,0 // movaps 0xec1d(%ecx),%xmm5
+ .byte 15,40,169,205,240,0,0 // movaps 0xf0cd(%ecx),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
@@ -61914,17 +63458,17 @@ _sk_hue_sse2:
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp)
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,153,173,236,0,0 // movaps 0xecad(%ecx),%xmm3
+ .byte 15,40,153,93,241,0,0 // movaps 0xf15d(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,117,152 // movaps -0x68(%ebp),%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,153,189,236,0,0 // movaps 0xecbd(%ecx),%xmm3
+ .byte 15,40,153,109,241,0,0 // movaps 0xf16d(%ecx),%xmm3
.byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,89,251 // mulps %xmm3,%xmm7
.byte 15,88,249 // addps %xmm1,%xmm7
- .byte 15,40,137,29,236,0,0 // movaps 0xec1d(%ecx),%xmm1
+ .byte 15,40,137,205,240,0,0 // movaps 0xf0cd(%ecx),%xmm1
.byte 15,92,77,184 // subps -0x48(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,152 // movaps %xmm6,-0x68(%ebp)
@@ -61934,7 +63478,7 @@ _sk_hue_sse2:
.byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,168 // movaps %xmm6,-0x58(%ebp)
- .byte 15,40,169,205,236,0,0 // movaps 0xeccd(%ecx),%xmm5
+ .byte 15,40,169,125,241,0,0 // movaps 0xf17d(%ecx),%xmm5
.byte 15,89,205 // mulps %xmm5,%xmm1
.byte 15,88,207 // addps %xmm7,%xmm1
.byte 15,94,212 // divps %xmm4,%xmm2
@@ -62127,17 +63671,17 @@ _sk_saturation_sse2:
.byte 15,89,253 // mulps %xmm5,%xmm7
.byte 232,0,0,0,0 // call 1567 <_sk_saturation_sse2+0xb0>
.byte 89 // pop %ecx
- .byte 15,40,153,89,233,0,0 // movaps 0xe959(%ecx),%xmm3
+ .byte 15,40,153,9,238,0,0 // movaps 0xee09(%ecx),%xmm3
.byte 15,41,157,88,255,255,255 // movaps %xmm3,-0xa8(%ebp)
.byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,153,105,233,0,0 // movaps 0xe969(%ecx),%xmm3
+ .byte 15,40,153,25,238,0,0 // movaps 0xee19(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,238 // movaps %xmm6,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,129,201,232,0,0 // movaps 0xe8c9(%ecx),%xmm0
+ .byte 15,40,129,121,237,0,0 // movaps 0xed79(%ecx),%xmm0
.byte 15,41,133,104,255,255,255 // movaps %xmm0,-0x98(%ebp)
.byte 15,92,69,216 // subps -0x28(%ebp),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -62149,7 +63693,7 @@ _sk_saturation_sse2:
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,129,121,233,0,0 // movaps 0xe979(%ecx),%xmm0
+ .byte 15,40,129,41,238,0,0 // movaps 0xee29(%ecx),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5
@@ -62308,16 +63852,16 @@ _sk_color_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,16 // movaps 0x10(%eax),%xmm2
.byte 15,40,72,32 // movaps 0x20(%eax),%xmm1
- .byte 15,40,177,254,230,0,0 // movaps 0xe6fe(%ecx),%xmm6
+ .byte 15,40,177,174,235,0,0 // movaps 0xebae(%ecx),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,153,14,231,0,0 // movaps 0xe70e(%ecx),%xmm3
+ .byte 15,40,153,190,235,0,0 // movaps 0xebbe(%ecx),%xmm3
.byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 15,40,129,110,230,0,0 // movaps 0xe66e(%ecx),%xmm0
+ .byte 15,40,129,30,235,0,0 // movaps 0xeb1e(%ecx),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,69,200 // subps -0x38(%ebp),%xmm0
.byte 15,89,208 // mulps %xmm0,%xmm2
@@ -62327,7 +63871,7 @@ _sk_color_sse2:
.byte 15,40,80,48 // movaps 0x30(%eax),%xmm2
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
- .byte 15,40,137,30,231,0,0 // movaps 0xe71e(%ecx),%xmm1
+ .byte 15,40,137,206,235,0,0 // movaps 0xebce(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,214 // addps %xmm6,%xmm2
.byte 15,40,88,64 // movaps 0x40(%eax),%xmm3
@@ -62486,18 +64030,18 @@ _sk_luminosity_sse2:
.byte 232,0,0,0,0 // call 1a25 <_sk_luminosity_sse2+0x11>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,161,155,228,0,0 // movaps 0xe49b(%ecx),%xmm4
+ .byte 15,40,161,75,233,0,0 // movaps 0xe94b(%ecx),%xmm4
.byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,40,161,171,228,0,0 // movaps 0xe4ab(%ecx),%xmm4
+ .byte 15,40,161,91,233,0,0 // movaps 0xe95b(%ecx),%xmm4
.byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,40,161,11,228,0,0 // movaps 0xe40b(%ecx),%xmm4
+ .byte 15,40,161,187,232,0,0 // movaps 0xe8bb(%ecx),%xmm4
.byte 15,40,252 // movaps %xmm4,%xmm7
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,89,199 // mulps %xmm7,%xmm0
@@ -62507,7 +64051,7 @@ _sk_luminosity_sse2:
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,41,189,104,255,255,255 // movaps %xmm7,-0x98(%ebp)
.byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,137,187,228,0,0 // movaps 0xe4bb(%ecx),%xmm1
+ .byte 15,40,137,107,233,0,0 // movaps 0xe96b(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,213 // addps %xmm5,%xmm2
.byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
@@ -62684,7 +64228,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 139,49 // mov (%ecx),%esi
.byte 15,133,2,1,0,0 // jne 1db8 <_sk_srcover_rgba_8888_sse2+0x13f>
.byte 243,15,111,12,178 // movdqu (%edx,%esi,4),%xmm1
- .byte 102,15,111,135,92,226,0,0 // movdqa 0xe25c(%edi),%xmm0
+ .byte 102,15,111,135,12,231,0,0 // movdqa 0xe70c(%edi),%xmm0
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -62695,9 +64239,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,219,248 // pand %xmm0,%xmm7
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
.byte 15,41,65,16 // movaps %xmm0,0x10(%ecx)
- .byte 15,40,167,156,225,0,0 // movaps 0xe19c(%edi),%xmm4
+ .byte 15,40,167,76,230,0,0 // movaps 0xe64c(%edi),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,40,151,108,226,0,0 // movaps 0xe26c(%edi),%xmm2
+ .byte 15,40,151,28,231,0,0 // movaps 0xe71c(%edi),%xmm2
.byte 15,89,234 // mulps %xmm2,%xmm5
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
@@ -62817,7 +64361,7 @@ _sk_srcover_bgra_8888_sse2:
.byte 139,49 // mov (%ecx),%esi
.byte 15,133,252,0,0,0 // jne 1f66 <_sk_srcover_bgra_8888_sse2+0x138>
.byte 243,15,111,36,178 // movdqu (%edx,%esi,4),%xmm4
- .byte 102,15,111,135,168,224,0,0 // movdqa 0xe0a8(%edi),%xmm0
+ .byte 102,15,111,135,88,229,0,0 // movdqa 0xe558(%edi),%xmm0
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
@@ -62832,9 +64376,9 @@ _sk_srcover_bgra_8888_sse2:
.byte 15,41,73,32 // movaps %xmm1,0x20(%ecx)
.byte 15,91,198 // cvtdq2ps %xmm6,%xmm0
.byte 15,41,65,16 // movaps %xmm0,0x10(%ecx)
- .byte 15,40,175,232,223,0,0 // movaps 0xdfe8(%edi),%xmm5
+ .byte 15,40,175,152,228,0,0 // movaps 0xe498(%edi),%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,40,183,184,224,0,0 // movaps 0xe0b8(%edi),%xmm6
+ .byte 15,40,183,104,229,0,0 // movaps 0xe568(%edi),%xmm6
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,88,199 // addps %xmm7,%xmm0
@@ -62953,7 +64497,7 @@ _sk_clamp_1_sse2:
.byte 232,0,0,0,0 // call 2010 <_sk_clamp_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,32,222,0,0 // movaps 0xde20(%eax),%xmm4
+ .byte 15,40,160,208,226,0,0 // movaps 0xe2d0(%eax),%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
.byte 15,93,204 // minps %xmm4,%xmm1
.byte 15,93,212 // minps %xmm4,%xmm2
@@ -62977,7 +64521,7 @@ _sk_clamp_a_sse2:
.byte 232,0,0,0,0 // call 2043 <_sk_clamp_a_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,93,152,237,221,0,0 // minps 0xdded(%eax),%xmm3
+ .byte 15,93,152,157,226,0,0 // minps 0xe29d(%eax),%xmm3
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -63002,7 +64546,7 @@ _sk_clamp_a_dst_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,98,64 // movaps 0x40(%edx),%xmm4
- .byte 15,93,160,189,221,0,0 // minps 0xddbd(%eax),%xmm4
+ .byte 15,93,160,109,226,0,0 // minps 0xe26d(%eax),%xmm4
.byte 15,41,98,64 // movaps %xmm4,0x40(%edx)
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,40,114,32 // movaps 0x20(%edx),%xmm6
@@ -63076,7 +64620,7 @@ _sk_invert_sse2:
.byte 232,0,0,0,0 // call 211e <_sk_invert_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,18,221,0,0 // movaps 0xdd12(%eax),%xmm4
+ .byte 15,40,160,194,225,0,0 // movaps 0xe1c2(%eax),%xmm4
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,92,232 // subps %xmm0,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
@@ -63198,10 +64742,10 @@ _sk_unpremul_sse2:
.byte 232,0,0,0,0 // call 221c <_sk_unpremul_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,20,220,0,0 // movaps 0xdc14(%eax),%xmm4
+ .byte 15,40,160,196,224,0,0 // movaps 0xe0c4(%eax),%xmm4
.byte 15,94,227 // divps %xmm3,%xmm4
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,194,168,244,220,0,0,1 // cmpltps 0xdcf4(%eax),%xmm5
+ .byte 15,194,168,164,225,0,0,1 // cmpltps 0xe1a4(%eax),%xmm5
.byte 15,84,236 // andps %xmm4,%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,89,205 // mulps %xmm5,%xmm1
@@ -63215,6 +64759,48 @@ _sk_unpremul_sse2:
.byte 93 // pop %ebp
.byte 195 // ret
+HIDDEN _sk_force_opaque_sse2
+.globl _sk_force_opaque_sse2
+FUNCTION(_sk_force_opaque_sse2)
+_sk_force_opaque_sse2:
+ .byte 85 // push %ebp
+ .byte 137,229 // mov %esp,%ebp
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 225d <_sk_force_opaque_sse2+0xb>
+ .byte 88 // pop %eax
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 141,81,4 // lea 0x4(%ecx),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,152,131,224,0,0 // movaps 0xe083(%eax),%xmm3
+ .byte 82 // push %edx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,24 // add $0x18,%esp
+ .byte 93 // pop %ebp
+ .byte 195 // ret
+
+HIDDEN _sk_force_opaque_dst_sse2
+.globl _sk_force_opaque_dst_sse2
+FUNCTION(_sk_force_opaque_dst_sse2)
+_sk_force_opaque_dst_sse2:
+ .byte 85 // push %ebp
+ .byte 137,229 // mov %esp,%ebp
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 2284 <_sk_force_opaque_dst_sse2+0xb>
+ .byte 88 // pop %eax
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 139,85,8 // mov 0x8(%ebp),%edx
+ .byte 15,40,160,92,224,0,0 // movaps 0xe05c(%eax),%xmm4
+ .byte 15,41,98,64 // movaps %xmm4,0x40(%edx)
+ .byte 141,65,4 // lea 0x4(%ecx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 82 // push %edx
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,24 // add $0x18,%esp
+ .byte 93 // pop %ebp
+ .byte 195 // ret
+
HIDDEN _sk_from_srgb_sse2
.globl _sk_from_srgb_sse2
FUNCTION(_sk_from_srgb_sse2)
@@ -63226,23 +64812,23 @@ _sk_from_srgb_sse2:
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,40,217 // movaps %xmm1,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 226a <_sk_from_srgb_sse2+0x18>
+ .byte 232,0,0,0,0 // call 22bd <_sk_from_srgb_sse2+0x18>
.byte 88 // pop %eax
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,201 // mulps %xmm1,%xmm1
- .byte 15,40,160,86,220,0,0 // movaps 0xdc56(%eax),%xmm4
+ .byte 15,40,160,179,224,0,0 // movaps 0xe0b3(%eax),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,176,198,220,0,0 // movaps 0xdcc6(%eax),%xmm6
+ .byte 15,40,176,35,225,0,0 // movaps 0xe123(%eax),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,176,182,220,0,0 // movaps 0xdcb6(%eax),%xmm6
+ .byte 15,40,176,19,225,0,0 // movaps 0xe113(%eax),%xmm6
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,184,214,220,0,0 // movaps 0xdcd6(%eax),%xmm7
+ .byte 15,40,184,51,225,0,0 // movaps 0xe133(%eax),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,184,230,220,0,0 // movaps 0xdce6(%eax),%xmm7
+ .byte 15,40,184,67,225,0,0 // movaps 0xe143(%eax),%xmm7
.byte 15,194,215,1 // cmpltps %xmm7,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -63296,24 +64882,24 @@ _sk_from_srgb_dst_sse2:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
.byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
- .byte 232,0,0,0,0 // call 2345 <_sk_from_srgb_dst_sse2+0x1b>
+ .byte 232,0,0,0,0 // call 2398 <_sk_from_srgb_dst_sse2+0x1b>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,40,161,123,219,0,0 // movaps 0xdb7b(%ecx),%xmm4
+ .byte 15,40,161,216,223,0,0 // movaps 0xdfd8(%ecx),%xmm4
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,177,235,219,0,0 // movaps 0xdbeb(%ecx),%xmm6
+ .byte 15,40,177,72,224,0,0 // movaps 0xe048(%ecx),%xmm6
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,169,219,219,0,0 // movaps 0xdbdb(%ecx),%xmm5
+ .byte 15,40,169,56,224,0,0 // movaps 0xe038(%ecx),%xmm5
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,40,185,251,219,0,0 // movaps 0xdbfb(%ecx),%xmm7
+ .byte 15,40,185,88,224,0,0 // movaps 0xe058(%ecx),%xmm7
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,153,11,220,0,0 // movaps 0xdc0b(%ecx),%xmm3
+ .byte 15,40,153,104,224,0,0 // movaps 0xe068(%ecx),%xmm3
.byte 15,194,203,1 // cmpltps %xmm3,%xmm1
.byte 15,84,209 // andps %xmm1,%xmm2
.byte 15,85,200 // andnps %xmm0,%xmm1
@@ -63372,28 +64958,28 @@ _sk_to_srgb_sse2:
.byte 15,40,250 // movaps %xmm2,%xmm7
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 2430 <_sk_to_srgb_sse2+0x18>
+ .byte 232,0,0,0,0 // call 2483 <_sk_to_srgb_sse2+0x18>
.byte 88 // pop %eax
.byte 15,82,218 // rsqrtps %xmm2,%xmm3
- .byte 15,40,160,64,219,0,0 // movaps 0xdb40(%eax),%xmm4
+ .byte 15,40,160,157,223,0,0 // movaps 0xdf9d(%eax),%xmm4
.byte 15,40,235 // movaps %xmm3,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,40,128,80,219,0,0 // movaps 0xdb50(%eax),%xmm0
+ .byte 15,40,128,173,223,0,0 // movaps 0xdfad(%eax),%xmm0
.byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,40,128,96,219,0,0 // movaps 0xdb60(%eax),%xmm0
+ .byte 15,40,128,189,223,0,0 // movaps 0xdfbd(%eax),%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,128,112,219,0,0 // movaps 0xdb70(%eax),%xmm0
+ .byte 15,40,128,205,223,0,0 // movaps 0xdfcd(%eax),%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
.byte 15,88,216 // addps %xmm0,%xmm3
.byte 15,83,195 // rcpps %xmm3,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,168,48,219,0,0 // movaps 0xdb30(%eax),%xmm5
+ .byte 15,40,168,141,223,0,0 // movaps 0xdf8d(%eax),%xmm5
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,152,128,219,0,0 // movaps 0xdb80(%eax),%xmm3
+ .byte 15,40,152,221,223,0,0 // movaps 0xdfdd(%eax),%xmm3
.byte 15,194,211,1 // cmpltps %xmm3,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -63450,7 +65036,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,249 // movaps %xmm1,%xmm7
.byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 2527 <_sk_rgb_to_hsl_sse2+0x15>
+ .byte 232,0,0,0,0 // call 257a <_sk_rgb_to_hsl_sse2+0x15>
.byte 88 // pop %eax
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,95,194 // maxps %xmm2,%xmm0
@@ -63464,14 +65050,14 @@ _sk_rgb_to_hsl_sse2:
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 15,40,136,9,217,0,0 // movaps 0xd909(%eax),%xmm1
+ .byte 15,40,136,102,221,0,0 // movaps 0xdd66(%eax),%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,92,194 // subps %xmm2,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,194,234,1 // cmpltps %xmm2,%xmm5
- .byte 15,84,168,153,218,0,0 // andps 0xda99(%eax),%xmm5
+ .byte 15,84,168,246,222,0,0 // andps 0xdef6(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,196,0 // cmpeqps %xmm4,%xmm0
@@ -63481,9 +65067,9 @@ _sk_rgb_to_hsl_sse2:
.byte 15,92,231 // subps %xmm7,%xmm4
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,40,136,169,218,0,0 // movaps 0xdaa9(%eax),%xmm1
+ .byte 15,40,136,6,223,0,0 // movaps 0xdf06(%eax),%xmm1
.byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,88,160,185,218,0,0 // addps 0xdab9(%eax),%xmm4
+ .byte 15,88,160,22,223,0,0 // addps 0xdf16(%eax),%xmm4
.byte 15,84,214 // andps %xmm6,%xmm2
.byte 15,85,244 // andnps %xmm4,%xmm6
.byte 15,86,242 // orps %xmm2,%xmm6
@@ -63495,7 +65081,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,194,226,4 // cmpneqps %xmm2,%xmm4
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,40,168,249,216,0,0 // movaps 0xd8f9(%eax),%xmm5
+ .byte 15,40,168,86,221,0,0 // movaps 0xdd56(%eax),%xmm5
.byte 15,92,202 // subps %xmm2,%xmm1
.byte 15,40,211 // movaps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
@@ -63505,7 +65091,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,86,233 // orps %xmm1,%xmm5
.byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
.byte 15,94,205 // divps %xmm5,%xmm1
- .byte 15,89,128,201,218,0,0 // mulps 0xdac9(%eax),%xmm0
+ .byte 15,89,128,38,223,0,0 // mulps 0xdf26(%eax),%xmm0
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,84,204 // andps %xmm4,%xmm1
.byte 139,69,12 // mov 0xc(%ebp),%eax
@@ -63528,9 +65114,9 @@ _sk_hsl_to_rgb_sse2:
.byte 129,236,200,0,0,0 // sub $0xc8,%esp
.byte 15,41,157,56,255,255,255 // movaps %xmm3,-0xc8(%ebp)
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 2622 <_sk_hsl_to_rgb_sse2+0x19>
+ .byte 232,0,0,0,0 // call 2675 <_sk_hsl_to_rgb_sse2+0x19>
.byte 88 // pop %eax
- .byte 15,40,160,254,215,0,0 // movaps 0xd7fe(%eax),%xmm4
+ .byte 15,40,160,91,220,0,0 // movaps 0xdc5b(%eax),%xmm4
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp)
.byte 15,194,218,2 // cmpleps %xmm2,%xmm3
@@ -63543,13 +65129,13 @@ _sk_hsl_to_rgb_sse2:
.byte 15,84,243 // andps %xmm3,%xmm6
.byte 15,85,217 // andnps %xmm1,%xmm3
.byte 15,86,222 // orps %xmm6,%xmm3
- .byte 15,40,168,222,217,0,0 // movaps 0xd9de(%eax),%xmm5
+ .byte 15,40,168,59,222,0,0 // movaps 0xde3b(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 243,15,91,205 // cvttps2dq %xmm5,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,193,1 // cmpltps %xmm1,%xmm0
- .byte 15,40,176,14,216,0,0 // movaps 0xd80e(%eax),%xmm6
+ .byte 15,40,176,107,220,0,0 // movaps 0xdc6b(%eax),%xmm6
.byte 15,41,117,136 // movaps %xmm6,-0x78(%ebp)
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,200 // subps %xmm0,%xmm1
@@ -63559,19 +65145,19 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,40,184,238,217,0,0 // movaps 0xd9ee(%eax),%xmm7
+ .byte 15,40,184,75,222,0,0 // movaps 0xde4b(%eax),%xmm7
.byte 15,41,189,88,255,255,255 // movaps %xmm7,-0xa8(%ebp)
.byte 15,194,253,2 // cmpleps %xmm5,%xmm7
.byte 15,92,218 // subps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,204 // movaps %xmm4,%xmm1
.byte 15,194,205,2 // cmpleps %xmm5,%xmm1
- .byte 15,40,160,206,217,0,0 // movaps 0xd9ce(%eax),%xmm4
+ .byte 15,40,160,43,222,0,0 // movaps 0xde2b(%eax),%xmm4
.byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp)
.byte 15,194,229,2 // cmpleps %xmm5,%xmm4
- .byte 15,40,176,158,217,0,0 // movaps 0xd99e(%eax),%xmm6
+ .byte 15,40,176,251,221,0,0 // movaps 0xddfb(%eax),%xmm6
.byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,40,128,190,217,0,0 // movaps 0xd9be(%eax),%xmm0
+ .byte 15,40,128,27,222,0,0 // movaps 0xde1b(%eax),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
@@ -63597,18 +65183,18 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,136,14,216,0,0 // andps 0xd80e(%eax),%xmm1
+ .byte 15,84,136,107,220,0,0 // andps 0xdc6b(%eax),%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,40,128,238,217,0,0 // movaps 0xd9ee(%eax),%xmm0
+ .byte 15,40,128,75,222,0,0 // movaps 0xde4b(%eax),%xmm0
.byte 15,194,193,2 // cmpleps %xmm1,%xmm0
- .byte 15,40,152,254,215,0,0 // movaps 0xd7fe(%eax),%xmm3
+ .byte 15,40,152,91,220,0,0 // movaps 0xdc5b(%eax),%xmm3
.byte 15,194,217,2 // cmpleps %xmm1,%xmm3
- .byte 15,40,160,206,217,0,0 // movaps 0xd9ce(%eax),%xmm4
+ .byte 15,40,160,43,222,0,0 // movaps 0xde2b(%eax),%xmm4
.byte 15,194,225,2 // cmpleps %xmm1,%xmm4
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,168,190,217,0,0 // movaps 0xd9be(%eax),%xmm5
+ .byte 15,40,168,27,222,0,0 // movaps 0xde1b(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,239 // mulps %xmm7,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
@@ -63628,7 +65214,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
.byte 15,85,252 // andnps %xmm4,%xmm7
.byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 15,88,152,254,217,0,0 // addps 0xd9fe(%eax),%xmm3
+ .byte 15,88,152,91,222,0,0 // addps 0xde5b(%eax),%xmm3
.byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
@@ -63715,7 +65301,7 @@ _sk_scale_u8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 289c <_sk_scale_u8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 28ef <_sk_scale_u8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -63726,13 +65312,13 @@ _sk_scale_u8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,65 // jne 28f8 <_sk_scale_u8_sse2+0x6a>
+ .byte 117,65 // jne 294b <_sk_scale_u8_sse2+0x6a>
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,84,214,0,0 // pand 0xd654(%edx),%xmm4
+ .byte 102,15,219,162,177,218,0,0 // pand 0xdab1(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,148,215,0,0 // mulps 0xd794(%edx),%xmm4
+ .byte 15,89,162,241,219,0,0 // mulps 0xdbf1(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,89,212 // mulps %xmm4,%xmm2
@@ -63751,12 +65337,12 @@ _sk_scale_u8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 2932 <_sk_scale_u8_sse2+0xa4>
+ .byte 116,50 // je 2985 <_sk_scale_u8_sse2+0xa4>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 291c <_sk_scale_u8_sse2+0x8e>
+ .byte 116,19 // je 296f <_sk_scale_u8_sse2+0x8e>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,182 // jne 28c4 <_sk_scale_u8_sse2+0x36>
+ .byte 117,182 // jne 2917 <_sk_scale_u8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -63765,10 +65351,10 @@ _sk_scale_u8_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,146 // jmp 28c4 <_sk_scale_u8_sse2+0x36>
+ .byte 235,146 // jmp 2917 <_sk_scale_u8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,136 // jmp 28c4 <_sk_scale_u8_sse2+0x36>
+ .byte 235,136 // jmp 2917 <_sk_scale_u8_sse2+0x36>
HIDDEN _sk_scale_565_sse2
.globl _sk_scale_565_sse2
@@ -63783,7 +65369,7 @@ _sk_scale_565_sse2:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 2956 <_sk_scale_565_sse2+0x1a>
+ .byte 232,0,0,0,0 // call 29a9 <_sk_scale_565_sse2+0x1a>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -63795,20 +65381,20 @@ _sk_scale_565_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,157,0,0,0 // jne 2a14 <_sk_scale_565_sse2+0xd8>
+ .byte 15,133,157,0,0,0 // jne 2a67 <_sk_scale_565_sse2+0xd8>
.byte 243,15,126,52,126 // movq (%esi,%edi,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,162,234,214,0,0 // movdqa 0xd6ea(%edx),%xmm4
+ .byte 102,15,111,162,71,219,0,0 // movdqa 0xdb47(%edx),%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,212 // cvtdq2ps %xmm4,%xmm2
- .byte 15,89,146,250,214,0,0 // mulps 0xd6fa(%edx),%xmm2
- .byte 102,15,111,170,10,215,0,0 // movdqa 0xd70a(%edx),%xmm5
+ .byte 15,89,146,87,219,0,0 // mulps 0xdb57(%edx),%xmm2
+ .byte 102,15,111,170,103,219,0,0 // movdqa 0xdb67(%edx),%xmm5
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,26,215,0,0 // mulps 0xd71a(%edx),%xmm5
- .byte 102,15,219,178,42,215,0,0 // pand 0xd72a(%edx),%xmm6
+ .byte 15,89,170,119,219,0,0 // mulps 0xdb77(%edx),%xmm5
+ .byte 102,15,219,178,135,219,0,0 // pand 0xdb87(%edx),%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,58,215,0,0 // mulps 0xd73a(%edx),%xmm6
+ .byte 15,89,178,151,219,0,0 // mulps 0xdb97(%edx),%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,93,254 // minps %xmm6,%xmm7
.byte 15,40,226 // movaps %xmm2,%xmm4
@@ -63843,22 +65429,22 @@ _sk_scale_565_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,51 // je 2a4f <_sk_scale_565_sse2+0x113>
+ .byte 116,51 // je 2aa2 <_sk_scale_565_sse2+0x113>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,23 // je 2a3c <_sk_scale_565_sse2+0x100>
+ .byte 116,23 // je 2a8f <_sk_scale_565_sse2+0x100>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,82,255,255,255 // jne 2980 <_sk_scale_565_sse2+0x44>
+ .byte 15,133,82,255,255,255 // jne 29d3 <_sk_scale_565_sse2+0x44>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,15,110,36,126 // movd (%esi,%edi,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,244 // movsd %xmm4,%xmm6
- .byte 233,49,255,255,255 // jmp 2980 <_sk_scale_565_sse2+0x44>
+ .byte 233,49,255,255,255 // jmp 29d3 <_sk_scale_565_sse2+0x44>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,246 // movd %esi,%xmm6
- .byte 233,36,255,255,255 // jmp 2980 <_sk_scale_565_sse2+0x44>
+ .byte 233,36,255,255,255 // jmp 29d3 <_sk_scale_565_sse2+0x44>
HIDDEN _sk_lerp_1_float_sse2
.globl _sk_lerp_1_float_sse2
@@ -63907,7 +65493,7 @@ _sk_lerp_u8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 2ac4 <_sk_lerp_u8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 2b17 <_sk_lerp_u8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -63918,13 +65504,13 @@ _sk_lerp_u8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 2b45 <_sk_lerp_u8_sse2+0x8f>
+ .byte 117,102 // jne 2b98 <_sk_lerp_u8_sse2+0x8f>
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,44,212,0,0 // pand 0xd42c(%edx),%xmm4
+ .byte 102,15,219,162,137,216,0,0 // pand 0xd889(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,108,213,0,0 // mulps 0xd56c(%edx),%xmm4
+ .byte 15,89,162,201,217,0,0 // mulps 0xd9c9(%edx),%xmm4
.byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
.byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
.byte 15,92,197 // subps %xmm5,%xmm0
@@ -63954,12 +65540,12 @@ _sk_lerp_u8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,53 // je 2b82 <_sk_lerp_u8_sse2+0xcc>
+ .byte 116,53 // je 2bd5 <_sk_lerp_u8_sse2+0xcc>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 2b69 <_sk_lerp_u8_sse2+0xb3>
+ .byte 116,19 // je 2bbc <_sk_lerp_u8_sse2+0xb3>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,145 // jne 2aec <_sk_lerp_u8_sse2+0x36>
+ .byte 117,145 // jne 2b3f <_sk_lerp_u8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -63968,10 +65554,10 @@ _sk_lerp_u8_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,106,255,255,255 // jmp 2aec <_sk_lerp_u8_sse2+0x36>
+ .byte 233,106,255,255,255 // jmp 2b3f <_sk_lerp_u8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,93,255,255,255 // jmp 2aec <_sk_lerp_u8_sse2+0x36>
+ .byte 233,93,255,255,255 // jmp 2b3f <_sk_lerp_u8_sse2+0x36>
HIDDEN _sk_lerp_565_sse2
.globl _sk_lerp_565_sse2
@@ -63987,7 +65573,7 @@ _sk_lerp_565_sse2:
.byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp)
.byte 15,41,77,152 // movaps %xmm1,-0x68(%ebp)
.byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 2bae <_sk_lerp_565_sse2+0x1f>
+ .byte 232,0,0,0,0 // call 2c01 <_sk_lerp_565_sse2+0x1f>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -63999,20 +65585,20 @@ _sk_lerp_565_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,211,0,0,0 // jne 2ca2 <_sk_lerp_565_sse2+0x113>
+ .byte 15,133,211,0,0,0 // jne 2cf5 <_sk_lerp_565_sse2+0x113>
.byte 243,15,126,44,126 // movq (%esi,%edi,2),%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
- .byte 102,15,111,162,146,212,0,0 // movdqa 0xd492(%edx),%xmm4
+ .byte 102,15,111,162,239,216,0,0 // movdqa 0xd8ef(%edx),%xmm4
.byte 102,15,219,229 // pand %xmm5,%xmm4
.byte 15,91,204 // cvtdq2ps %xmm4,%xmm1
- .byte 15,89,138,162,212,0,0 // mulps 0xd4a2(%edx),%xmm1
- .byte 102,15,111,178,178,212,0,0 // movdqa 0xd4b2(%edx),%xmm6
+ .byte 15,89,138,255,216,0,0 // mulps 0xd8ff(%edx),%xmm1
+ .byte 102,15,111,178,15,217,0,0 // movdqa 0xd90f(%edx),%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,194,212,0,0 // mulps 0xd4c2(%edx),%xmm6
- .byte 102,15,219,170,210,212,0,0 // pand 0xd4d2(%edx),%xmm5
+ .byte 15,89,178,31,217,0,0 // mulps 0xd91f(%edx),%xmm6
+ .byte 102,15,219,170,47,217,0,0 // pand 0xd92f(%edx),%xmm5
.byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
- .byte 15,89,146,226,212,0,0 // mulps 0xd4e2(%edx),%xmm2
+ .byte 15,89,146,63,217,0,0 // mulps 0xd93f(%edx),%xmm2
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,254 // movaps %xmm6,%xmm7
@@ -64062,22 +65648,22 @@ _sk_lerp_565_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,51 // je 2cdd <_sk_lerp_565_sse2+0x14e>
+ .byte 116,51 // je 2d30 <_sk_lerp_565_sse2+0x14e>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,23 // je 2cca <_sk_lerp_565_sse2+0x13b>
+ .byte 116,23 // je 2d1d <_sk_lerp_565_sse2+0x13b>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,28,255,255,255 // jne 2bd8 <_sk_lerp_565_sse2+0x49>
+ .byte 15,133,28,255,255,255 // jne 2c2b <_sk_lerp_565_sse2+0x49>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,236,69 // pshufd $0x45,%xmm4,%xmm5
.byte 102,15,110,36,126 // movd (%esi,%edi,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,236 // movsd %xmm4,%xmm5
- .byte 233,251,254,255,255 // jmp 2bd8 <_sk_lerp_565_sse2+0x49>
+ .byte 233,251,254,255,255 // jmp 2c2b <_sk_lerp_565_sse2+0x49>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,238 // movd %esi,%xmm5
- .byte 233,238,254,255,255 // jmp 2bd8 <_sk_lerp_565_sse2+0x49>
+ .byte 233,238,254,255,255 // jmp 2c2b <_sk_lerp_565_sse2+0x49>
HIDDEN _sk_load_tables_sse2
.globl _sk_load_tables_sse2
@@ -64089,7 +65675,7 @@ _sk_load_tables_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 2cf8 <_sk_load_tables_sse2+0xe>
+ .byte 232,0,0,0,0 // call 2d4b <_sk_load_tables_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64098,9 +65684,9 @@ _sk_load_tables_sse2:
.byte 133,192 // test %eax,%eax
.byte 139,57 // mov (%ecx),%edi
.byte 139,30 // mov (%esi),%ebx
- .byte 15,133,22,1,0,0 // jne 2e26 <_sk_load_tables_sse2+0x13c>
+ .byte 15,133,22,1,0,0 // jne 2e79 <_sk_load_tables_sse2+0x13c>
.byte 243,15,111,28,187 // movdqu (%ebx,%edi,4),%xmm3
- .byte 102,15,111,146,248,209,0,0 // movdqa 0xd1f8(%edx),%xmm2
+ .byte 102,15,111,146,85,214,0,0 // movdqa 0xd655(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -64156,7 +65742,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,56,211,0,0 // mulps 0xd338(%edx),%xmm3
+ .byte 15,89,154,149,215,0,0 // mulps 0xd795(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,194 // mov %eax,%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -64172,18 +65758,18 @@ _sk_load_tables_sse2:
.byte 195 // ret
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,37 // je 2e51 <_sk_load_tables_sse2+0x167>
+ .byte 116,37 // je 2ea4 <_sk_load_tables_sse2+0x167>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 2e47 <_sk_load_tables_sse2+0x15d>
+ .byte 116,19 // je 2e9a <_sk_load_tables_sse2+0x15d>
.byte 60,3 // cmp $0x3,%al
- .byte 15,133,217,254,255,255 // jne 2d15 <_sk_load_tables_sse2+0x2b>
+ .byte 15,133,217,254,255,255 // jne 2d68 <_sk_load_tables_sse2+0x2b>
.byte 102,15,110,68,187,8 // movd 0x8(%ebx,%edi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,187 // movlpd (%ebx,%edi,4),%xmm3
- .byte 233,196,254,255,255 // jmp 2d15 <_sk_load_tables_sse2+0x2b>
+ .byte 233,196,254,255,255 // jmp 2d68 <_sk_load_tables_sse2+0x2b>
.byte 102,15,110,28,187 // movd (%ebx,%edi,4),%xmm3
- .byte 233,186,254,255,255 // jmp 2d15 <_sk_load_tables_sse2+0x2b>
+ .byte 233,186,254,255,255 // jmp 2d68 <_sk_load_tables_sse2+0x2b>
HIDDEN _sk_load_tables_u16_be_sse2
.globl _sk_load_tables_u16_be_sse2
@@ -64195,7 +65781,7 @@ _sk_load_tables_u16_be_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,44 // sub $0x2c,%esp
- .byte 232,0,0,0,0 // call 2e69 <_sk_load_tables_u16_be_sse2+0xe>
+ .byte 232,0,0,0,0 // call 2ebc <_sk_load_tables_u16_be_sse2+0xe>
.byte 90 // pop %edx
.byte 139,117,12 // mov 0xc(%ebp),%esi
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64205,7 +65791,7 @@ _sk_load_tables_u16_be_sse2:
.byte 133,192 // test %eax,%eax
.byte 139,54 // mov (%esi),%esi
.byte 139,30 // mov (%esi),%ebx
- .byte 15,133,210,1,0,0 // jne 3056 <_sk_load_tables_u16_be_sse2+0x1fb>
+ .byte 15,133,210,1,0,0 // jne 30a9 <_sk_load_tables_u16_be_sse2+0x1fb>
.byte 102,15,16,4,123 // movupd (%ebx,%edi,2),%xmm0
.byte 243,15,111,76,123,16 // movdqu 0x10(%ebx,%edi,2),%xmm1
.byte 102,15,40,216 // movapd %xmm0,%xmm3
@@ -64231,7 +65817,7 @@ _sk_load_tables_u16_be_sse2:
.byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
.byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,55,210,0,0 // movdqa 0xd237(%edx),%xmm2
+ .byte 102,15,111,146,148,214,0,0 // movdqa 0xd694(%edx),%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,97,196 // punpcklwd %xmm4,%xmm0
@@ -64303,7 +65889,7 @@ _sk_load_tables_u16_be_sse2:
.byte 243,15,126,93,232 // movq -0x18(%ebp),%xmm3
.byte 102,15,97,220 // punpcklwd %xmm4,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,71,210,0,0 // mulps 0xd247(%edx),%xmm3
+ .byte 15,89,154,164,214,0,0 // mulps 0xd6a4(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,194 // mov %eax,%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -64320,12 +65906,12 @@ _sk_load_tables_u16_be_sse2:
.byte 242,15,16,4,123 // movsd (%ebx,%edi,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,248,1 // cmp $0x1,%eax
- .byte 15,132,39,254,255,255 // je 2e8f <_sk_load_tables_u16_be_sse2+0x34>
+ .byte 15,132,39,254,255,255 // je 2ee2 <_sk_load_tables_u16_be_sse2+0x34>
.byte 102,15,22,68,123,8 // movhpd 0x8(%ebx,%edi,2),%xmm0
.byte 131,248,3 // cmp $0x3,%eax
- .byte 15,130,24,254,255,255 // jb 2e8f <_sk_load_tables_u16_be_sse2+0x34>
+ .byte 15,130,24,254,255,255 // jb 2ee2 <_sk_load_tables_u16_be_sse2+0x34>
.byte 243,15,126,76,123,16 // movq 0x10(%ebx,%edi,2),%xmm1
- .byte 233,13,254,255,255 // jmp 2e8f <_sk_load_tables_u16_be_sse2+0x34>
+ .byte 233,13,254,255,255 // jmp 2ee2 <_sk_load_tables_u16_be_sse2+0x34>
HIDDEN _sk_load_tables_rgb_u16_be_sse2
.globl _sk_load_tables_rgb_u16_be_sse2
@@ -64337,7 +65923,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,28 // sub $0x1c,%esp
- .byte 232,0,0,0,0 // call 3090 <_sk_load_tables_rgb_u16_be_sse2+0xe>
+ .byte 232,0,0,0,0 // call 30e3 <_sk_load_tables_rgb_u16_be_sse2+0xe>
.byte 90 // pop %edx
.byte 139,117,12 // mov 0xc(%ebp),%esi
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64346,7 +65932,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 133,192 // test %eax,%eax
.byte 139,54 // mov (%esi),%esi
.byte 139,30 // mov (%esi),%ebx
- .byte 15,133,179,1,0,0 // jne 325c <_sk_load_tables_rgb_u16_be_sse2+0x1da>
+ .byte 15,133,179,1,0,0 // jne 32af <_sk_load_tables_rgb_u16_be_sse2+0x1da>
.byte 243,15,111,4,123 // movdqu (%ebx,%edi,2),%xmm0
.byte 243,15,111,92,123,8 // movdqu 0x8(%ebx,%edi,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -64376,7 +65962,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 242,15,112,194,232 // pshuflw $0xe8,%xmm2,%xmm0
.byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,16,208,0,0 // movdqa 0xd010(%edx),%xmm2
+ .byte 102,15,111,146,109,212,0,0 // movdqa 0xd46d(%edx),%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
@@ -64441,7 +66027,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 137,198 // mov %eax,%esi
.byte 141,70,8 // lea 0x8(%esi),%eax
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,160,205,0,0 // movaps 0xcda0(%edx),%xmm3
+ .byte 15,40,154,253,209,0,0 // movaps 0xd1fd(%edx),%xmm3
.byte 80 // push %eax
.byte 81 // push %ecx
.byte 255,86,4 // call *0x4(%esi)
@@ -64455,20 +66041,20 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,196,68,123,4,2 // pinsrw $0x2,0x4(%ebx,%edi,2),%xmm0
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 131,248,1 // cmp $0x1,%eax
- .byte 117,13 // jne 327e <_sk_load_tables_rgb_u16_be_sse2+0x1fc>
+ .byte 117,13 // jne 32d1 <_sk_load_tables_rgb_u16_be_sse2+0x1fc>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,77,254,255,255 // jmp 30cb <_sk_load_tables_rgb_u16_be_sse2+0x49>
+ .byte 233,77,254,255,255 // jmp 311e <_sk_load_tables_rgb_u16_be_sse2+0x49>
.byte 102,15,110,76,123,6 // movd 0x6(%ebx,%edi,2),%xmm1
.byte 102,15,196,76,123,10,2 // pinsrw $0x2,0xa(%ebx,%edi,2),%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 131,248,3 // cmp $0x3,%eax
- .byte 114,18 // jb 32a6 <_sk_load_tables_rgb_u16_be_sse2+0x224>
+ .byte 114,18 // jb 32f9 <_sk_load_tables_rgb_u16_be_sse2+0x224>
.byte 102,15,110,92,123,12 // movd 0xc(%ebx,%edi,2),%xmm3
.byte 102,15,196,92,123,16,2 // pinsrw $0x2,0x10(%ebx,%edi,2),%xmm3
- .byte 233,37,254,255,255 // jmp 30cb <_sk_load_tables_rgb_u16_be_sse2+0x49>
+ .byte 233,37,254,255,255 // jmp 311e <_sk_load_tables_rgb_u16_be_sse2+0x49>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,28,254,255,255 // jmp 30cb <_sk_load_tables_rgb_u16_be_sse2+0x49>
+ .byte 233,28,254,255,255 // jmp 311e <_sk_load_tables_rgb_u16_be_sse2+0x49>
HIDDEN _sk_byte_tables_sse2
.globl _sk_byte_tables_sse2
@@ -64480,15 +66066,15 @@ _sk_byte_tables_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 32bd <_sk_byte_tables_sse2+0xe>
+ .byte 232,0,0,0,0 // call 3310 <_sk_byte_tables_sse2+0xe>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,40,129,115,203,0,0 // movaps 0xcb73(%ecx),%xmm0
+ .byte 15,40,129,208,207,0,0 // movaps 0xcfd0(%ecx),%xmm0
.byte 15,93,232 // minps %xmm0,%xmm5
- .byte 15,40,161,67,204,0,0 // movaps 0xcc43(%ecx),%xmm4
+ .byte 15,40,161,160,208,0,0 // movaps 0xd0a0(%ecx),%xmm4
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
.byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
@@ -64588,7 +66174,7 @@ _sk_byte_tables_sse2:
.byte 102,15,97,218 // punpcklwd %xmm2,%xmm3
.byte 102,15,96,226 // punpcklbw %xmm2,%xmm4
.byte 102,15,97,226 // punpcklwd %xmm2,%xmm4
- .byte 15,40,169,115,205,0,0 // movaps 0xcd73(%ecx),%xmm5
+ .byte 15,40,169,208,209,0,0 // movaps 0xd1d0(%ecx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
@@ -64619,7 +66205,7 @@ _sk_byte_tables_rgb_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 3490 <_sk_byte_tables_rgb_sse2+0xe>
+ .byte 232,0,0,0,0 // call 34e3 <_sk_byte_tables_rgb_sse2+0xe>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -64630,7 +66216,7 @@ _sk_byte_tables_rgb_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,40,129,160,201,0,0 // movaps 0xc9a0(%ecx),%xmm0
+ .byte 15,40,129,253,205,0,0 // movaps 0xcdfd(%ecx),%xmm0
.byte 15,93,232 // minps %xmm0,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
@@ -64706,7 +66292,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
.byte 102,15,96,225 // punpcklbw %xmm1,%xmm4
.byte 102,15,97,225 // punpcklwd %xmm1,%xmm4
- .byte 15,40,169,160,203,0,0 // movaps 0xcba0(%ecx),%xmm5
+ .byte 15,40,169,253,207,0,0 // movaps 0xcffd(%ecx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,91,202 // cvtdq2ps %xmm2,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
@@ -64737,14 +66323,14 @@ _sk_table_r_sse2:
.byte 139,81,4 // mov 0x4(%ecx),%edx
.byte 74 // dec %edx
.byte 102,15,110,226 // movd %edx,%xmm4
- .byte 232,0,0,0,0 // call 3612 <_sk_table_r_sse2+0x18>
+ .byte 232,0,0,0,0 // call 3665 <_sk_table_r_sse2+0x18>
.byte 90 // pop %edx
.byte 139,9 // mov (%ecx),%ecx
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,93,170,30,200,0,0 // minps 0xc81e(%edx),%xmm5
+ .byte 15,93,170,123,204,0,0 // minps 0xcc7b(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,197 // cvtps2dq %xmm5,%xmm0
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
@@ -64782,14 +66368,14 @@ _sk_table_g_sse2:
.byte 139,81,4 // mov 0x4(%ecx),%edx
.byte 74 // dec %edx
.byte 102,15,110,226 // movd %edx,%xmm4
- .byte 232,0,0,0,0 // call 3698 <_sk_table_g_sse2+0x18>
+ .byte 232,0,0,0,0 // call 36eb <_sk_table_g_sse2+0x18>
.byte 90 // pop %edx
.byte 139,9 // mov (%ecx),%ecx
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,233 // maxps %xmm1,%xmm5
- .byte 15,93,170,152,199,0,0 // minps 0xc798(%edx),%xmm5
+ .byte 15,93,170,245,203,0,0 // minps 0xcbf5(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,205 // cvtps2dq %xmm5,%xmm1
.byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
@@ -64827,14 +66413,14 @@ _sk_table_b_sse2:
.byte 139,81,4 // mov 0x4(%ecx),%edx
.byte 74 // dec %edx
.byte 102,15,110,226 // movd %edx,%xmm4
- .byte 232,0,0,0,0 // call 371e <_sk_table_b_sse2+0x18>
+ .byte 232,0,0,0,0 // call 3771 <_sk_table_b_sse2+0x18>
.byte 90 // pop %edx
.byte 139,9 // mov (%ecx),%ecx
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,234 // maxps %xmm2,%xmm5
- .byte 15,93,170,18,199,0,0 // minps 0xc712(%edx),%xmm5
+ .byte 15,93,170,111,203,0,0 // minps 0xcb6f(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,213 // cvtps2dq %xmm5,%xmm2
.byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
@@ -64872,14 +66458,14 @@ _sk_table_a_sse2:
.byte 139,81,4 // mov 0x4(%ecx),%edx
.byte 74 // dec %edx
.byte 102,15,110,226 // movd %edx,%xmm4
- .byte 232,0,0,0,0 // call 37a4 <_sk_table_a_sse2+0x18>
+ .byte 232,0,0,0,0 // call 37f7 <_sk_table_a_sse2+0x18>
.byte 90 // pop %edx
.byte 139,9 // mov (%ecx),%ecx
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,235 // maxps %xmm3,%xmm5
- .byte 15,93,170,140,198,0,0 // minps 0xc68c(%edx),%xmm5
+ .byte 15,93,170,233,202,0,0 // minps 0xcae9(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,221 // cvtps2dq %xmm5,%xmm3
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
@@ -64916,7 +66502,7 @@ _sk_parametric_r_sse2:
.byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
.byte 15,40,217 // movaps %xmm1,%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 382b <_sk_parametric_r_sse2+0x19>
+ .byte 232,0,0,0,0 // call 387e <_sk_parametric_r_sse2+0x19>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -64936,16 +66522,16 @@ _sk_parametric_r_sse2:
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,88,238 // addps %xmm6,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,149,200,0,0 // mulps 0xc895(%edx),%xmm6
- .byte 15,40,186,165,200,0,0 // movaps 0xc8a5(%edx),%xmm7
+ .byte 15,89,178,242,204,0,0 // mulps 0xccf2(%edx),%xmm6
+ .byte 15,40,186,2,205,0,0 // movaps 0xcd02(%edx),%xmm7
.byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,245,197,0,0 // orps 0xc5f5(%edx),%xmm7
- .byte 15,88,178,181,200,0,0 // addps 0xc8b5(%edx),%xmm6
- .byte 15,40,162,197,200,0,0 // movaps 0xc8c5(%edx),%xmm4
+ .byte 15,86,186,82,202,0,0 // orps 0xca52(%edx),%xmm7
+ .byte 15,88,178,18,205,0,0 // addps 0xcd12(%edx),%xmm6
+ .byte 15,40,162,34,205,0,0 // movaps 0xcd22(%edx),%xmm4
.byte 15,89,231 // mulps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,213,200,0,0 // addps 0xc8d5(%edx),%xmm7
- .byte 15,40,162,229,200,0,0 // movaps 0xc8e5(%edx),%xmm4
+ .byte 15,88,186,50,205,0,0 // addps 0xcd32(%edx),%xmm7
+ .byte 15,40,162,66,205,0,0 // movaps 0xcd42(%edx),%xmm4
.byte 15,94,231 // divps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
.byte 243,15,16,33 // movss (%ecx),%xmm4
@@ -64955,21 +66541,21 @@ _sk_parametric_r_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,5,198,0,0 // movaps 0xc605(%edx),%xmm7
+ .byte 15,40,186,98,202,0,0 // movaps 0xca62(%edx),%xmm7
.byte 15,84,199 // andps %xmm7,%xmm0
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,245,200,0,0 // addps 0xc8f5(%edx),%xmm6
- .byte 15,40,162,5,201,0,0 // movaps 0xc905(%edx),%xmm4
+ .byte 15,88,178,82,205,0,0 // addps 0xcd52(%edx),%xmm6
+ .byte 15,40,162,98,205,0,0 // movaps 0xcd62(%edx),%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,21,201,0,0 // movaps 0xc915(%edx),%xmm4
+ .byte 15,40,162,114,205,0,0 // movaps 0xcd72(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,37,201,0,0 // movaps 0xc925(%edx),%xmm0
+ .byte 15,40,130,130,205,0,0 // movaps 0xcd82(%edx),%xmm0
.byte 15,94,196 // divps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,53,201,0,0 // mulps 0xc935(%edx),%xmm0
+ .byte 15,89,130,146,205,0,0 // mulps 0xcd92(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
@@ -65005,7 +66591,7 @@ _sk_parametric_g_sse2:
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
.byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
.byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 232,0,0,0,0 // call 396e <_sk_parametric_g_sse2+0x16>
+ .byte 232,0,0,0,0 // call 39c1 <_sk_parametric_g_sse2+0x16>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -65025,16 +66611,16 @@ _sk_parametric_g_sse2:
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,88,238 // addps %xmm6,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,82,199,0,0 // mulps 0xc752(%edx),%xmm6
- .byte 15,40,186,98,199,0,0 // movaps 0xc762(%edx),%xmm7
+ .byte 15,89,178,175,203,0,0 // mulps 0xcbaf(%edx),%xmm6
+ .byte 15,40,186,191,203,0,0 // movaps 0xcbbf(%edx),%xmm7
.byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,178,196,0,0 // orps 0xc4b2(%edx),%xmm7
- .byte 15,88,178,114,199,0,0 // addps 0xc772(%edx),%xmm6
- .byte 15,40,162,130,199,0,0 // movaps 0xc782(%edx),%xmm4
+ .byte 15,86,186,15,201,0,0 // orps 0xc90f(%edx),%xmm7
+ .byte 15,88,178,207,203,0,0 // addps 0xcbcf(%edx),%xmm6
+ .byte 15,40,162,223,203,0,0 // movaps 0xcbdf(%edx),%xmm4
.byte 15,89,231 // mulps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,146,199,0,0 // addps 0xc792(%edx),%xmm7
- .byte 15,40,162,162,199,0,0 // movaps 0xc7a2(%edx),%xmm4
+ .byte 15,88,186,239,203,0,0 // addps 0xcbef(%edx),%xmm7
+ .byte 15,40,162,255,203,0,0 // movaps 0xcbff(%edx),%xmm4
.byte 15,94,231 // divps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
.byte 243,15,16,33 // movss (%ecx),%xmm4
@@ -65044,21 +66630,21 @@ _sk_parametric_g_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,194,196,0,0 // movaps 0xc4c2(%edx),%xmm7
+ .byte 15,40,186,31,201,0,0 // movaps 0xc91f(%edx),%xmm7
.byte 15,84,199 // andps %xmm7,%xmm0
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,178,199,0,0 // addps 0xc7b2(%edx),%xmm6
- .byte 15,40,162,194,199,0,0 // movaps 0xc7c2(%edx),%xmm4
+ .byte 15,88,178,15,204,0,0 // addps 0xcc0f(%edx),%xmm6
+ .byte 15,40,162,31,204,0,0 // movaps 0xcc1f(%edx),%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,210,199,0,0 // movaps 0xc7d2(%edx),%xmm4
+ .byte 15,40,162,47,204,0,0 // movaps 0xcc2f(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,226,199,0,0 // movaps 0xc7e2(%edx),%xmm0
+ .byte 15,40,130,63,204,0,0 // movaps 0xcc3f(%edx),%xmm0
.byte 15,94,196 // divps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,242,199,0,0 // mulps 0xc7f2(%edx),%xmm0
+ .byte 15,89,130,79,204,0,0 // mulps 0xcc4f(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
@@ -65093,7 +66679,7 @@ _sk_parametric_b_sse2:
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
.byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
.byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 232,0,0,0,0 // call 3aae <_sk_parametric_b_sse2+0x16>
+ .byte 232,0,0,0,0 // call 3b01 <_sk_parametric_b_sse2+0x16>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -65113,16 +66699,16 @@ _sk_parametric_b_sse2:
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,88,238 // addps %xmm6,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,18,198,0,0 // mulps 0xc612(%edx),%xmm6
- .byte 15,40,186,34,198,0,0 // movaps 0xc622(%edx),%xmm7
+ .byte 15,89,178,111,202,0,0 // mulps 0xca6f(%edx),%xmm6
+ .byte 15,40,186,127,202,0,0 // movaps 0xca7f(%edx),%xmm7
.byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,114,195,0,0 // orps 0xc372(%edx),%xmm7
- .byte 15,88,178,50,198,0,0 // addps 0xc632(%edx),%xmm6
- .byte 15,40,162,66,198,0,0 // movaps 0xc642(%edx),%xmm4
+ .byte 15,86,186,207,199,0,0 // orps 0xc7cf(%edx),%xmm7
+ .byte 15,88,178,143,202,0,0 // addps 0xca8f(%edx),%xmm6
+ .byte 15,40,162,159,202,0,0 // movaps 0xca9f(%edx),%xmm4
.byte 15,89,231 // mulps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,82,198,0,0 // addps 0xc652(%edx),%xmm7
- .byte 15,40,162,98,198,0,0 // movaps 0xc662(%edx),%xmm4
+ .byte 15,88,186,175,202,0,0 // addps 0xcaaf(%edx),%xmm7
+ .byte 15,40,162,191,202,0,0 // movaps 0xcabf(%edx),%xmm4
.byte 15,94,231 // divps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
.byte 243,15,16,33 // movss (%ecx),%xmm4
@@ -65132,21 +66718,21 @@ _sk_parametric_b_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,130,195,0,0 // movaps 0xc382(%edx),%xmm7
+ .byte 15,40,186,223,199,0,0 // movaps 0xc7df(%edx),%xmm7
.byte 15,84,199 // andps %xmm7,%xmm0
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,114,198,0,0 // addps 0xc672(%edx),%xmm6
- .byte 15,40,162,130,198,0,0 // movaps 0xc682(%edx),%xmm4
+ .byte 15,88,178,207,202,0,0 // addps 0xcacf(%edx),%xmm6
+ .byte 15,40,162,223,202,0,0 // movaps 0xcadf(%edx),%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,146,198,0,0 // movaps 0xc692(%edx),%xmm4
+ .byte 15,40,162,239,202,0,0 // movaps 0xcaef(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,162,198,0,0 // movaps 0xc6a2(%edx),%xmm0
+ .byte 15,40,130,255,202,0,0 // movaps 0xcaff(%edx),%xmm0
.byte 15,94,196 // divps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,178,198,0,0 // mulps 0xc6b2(%edx),%xmm0
+ .byte 15,89,130,15,203,0,0 // mulps 0xcb0f(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
@@ -65181,7 +66767,7 @@ _sk_parametric_a_sse2:
.byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
.byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 3bee <_sk_parametric_a_sse2+0x16>
+ .byte 232,0,0,0,0 // call 3c41 <_sk_parametric_a_sse2+0x16>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -65201,16 +66787,16 @@ _sk_parametric_a_sse2:
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,88,238 // addps %xmm6,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,210,196,0,0 // mulps 0xc4d2(%edx),%xmm6
- .byte 15,40,186,226,196,0,0 // movaps 0xc4e2(%edx),%xmm7
+ .byte 15,89,178,47,201,0,0 // mulps 0xc92f(%edx),%xmm6
+ .byte 15,40,186,63,201,0,0 // movaps 0xc93f(%edx),%xmm7
.byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,50,194,0,0 // orps 0xc232(%edx),%xmm7
- .byte 15,88,178,242,196,0,0 // addps 0xc4f2(%edx),%xmm6
- .byte 15,40,162,2,197,0,0 // movaps 0xc502(%edx),%xmm4
+ .byte 15,86,186,143,198,0,0 // orps 0xc68f(%edx),%xmm7
+ .byte 15,88,178,79,201,0,0 // addps 0xc94f(%edx),%xmm6
+ .byte 15,40,162,95,201,0,0 // movaps 0xc95f(%edx),%xmm4
.byte 15,89,231 // mulps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,18,197,0,0 // addps 0xc512(%edx),%xmm7
- .byte 15,40,162,34,197,0,0 // movaps 0xc522(%edx),%xmm4
+ .byte 15,88,186,111,201,0,0 // addps 0xc96f(%edx),%xmm7
+ .byte 15,40,162,127,201,0,0 // movaps 0xc97f(%edx),%xmm4
.byte 15,94,231 // divps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
.byte 243,15,16,33 // movss (%ecx),%xmm4
@@ -65220,21 +66806,21 @@ _sk_parametric_a_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,66,194,0,0 // movaps 0xc242(%edx),%xmm7
+ .byte 15,40,186,159,198,0,0 // movaps 0xc69f(%edx),%xmm7
.byte 15,84,199 // andps %xmm7,%xmm0
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,50,197,0,0 // addps 0xc532(%edx),%xmm6
- .byte 15,40,162,66,197,0,0 // movaps 0xc542(%edx),%xmm4
+ .byte 15,88,178,143,201,0,0 // addps 0xc98f(%edx),%xmm6
+ .byte 15,40,162,159,201,0,0 // movaps 0xc99f(%edx),%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,82,197,0,0 // movaps 0xc552(%edx),%xmm4
+ .byte 15,40,162,175,201,0,0 // movaps 0xc9af(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,98,197,0,0 // movaps 0xc562(%edx),%xmm0
+ .byte 15,40,130,191,201,0,0 // movaps 0xc9bf(%edx),%xmm0
.byte 15,94,196 // divps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,114,197,0,0 // mulps 0xc572(%edx),%xmm0
+ .byte 15,89,130,207,201,0,0 // mulps 0xc9cf(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
@@ -65270,20 +66856,20 @@ _sk_gamma_sse2:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 3d33 <_sk_gamma_sse2+0x1b>
+ .byte 232,0,0,0,0 // call 3d86 <_sk_gamma_sse2+0x1b>
.byte 88 // pop %eax
.byte 15,91,232 // cvtdq2ps %xmm0,%xmm5
- .byte 15,89,168,141,195,0,0 // mulps 0xc38d(%eax),%xmm5
- .byte 15,40,160,157,195,0,0 // movaps 0xc39d(%eax),%xmm4
+ .byte 15,89,168,234,199,0,0 // mulps 0xc7ea(%eax),%xmm5
+ .byte 15,40,160,250,199,0,0 // movaps 0xc7fa(%eax),%xmm4
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,84,212 // andps %xmm4,%xmm2
- .byte 15,86,144,237,192,0,0 // orps 0xc0ed(%eax),%xmm2
- .byte 15,88,168,173,195,0,0 // addps 0xc3ad(%eax),%xmm5
+ .byte 15,86,144,74,197,0,0 // orps 0xc54a(%eax),%xmm2
+ .byte 15,88,168,10,200,0,0 // addps 0xc80a(%eax),%xmm5
.byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,89,136,189,195,0,0 // mulps 0xc3bd(%eax),%xmm1
+ .byte 15,89,136,26,200,0,0 // mulps 0xc81a(%eax),%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,88,144,205,195,0,0 // addps 0xc3cd(%eax),%xmm2
- .byte 15,40,136,221,195,0,0 // movaps 0xc3dd(%eax),%xmm1
+ .byte 15,88,144,42,200,0,0 // addps 0xc82a(%eax),%xmm2
+ .byte 15,40,136,58,200,0,0 // movaps 0xc83a(%eax),%xmm1
.byte 15,94,202 // divps %xmm2,%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -65296,32 +66882,32 @@ _sk_gamma_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,205 // movaps %xmm5,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,136,253,192,0,0 // andps 0xc0fd(%eax),%xmm1
+ .byte 15,84,136,90,197,0,0 // andps 0xc55a(%eax),%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,205 // movaps %xmm5,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,168,237,195,0,0 // addps 0xc3ed(%eax),%xmm5
- .byte 15,40,184,13,196,0,0 // movaps 0xc40d(%eax),%xmm7
+ .byte 15,88,168,74,200,0,0 // addps 0xc84a(%eax),%xmm5
+ .byte 15,40,184,106,200,0,0 // movaps 0xc86a(%eax),%xmm7
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,40,176,253,195,0,0 // movaps 0xc3fd(%eax),%xmm6
+ .byte 15,40,176,90,200,0,0 // movaps 0xc85a(%eax),%xmm6
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,40,144,29,196,0,0 // movaps 0xc41d(%eax),%xmm2
+ .byte 15,40,144,122,200,0,0 // movaps 0xc87a(%eax),%xmm2
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,94,216 // divps %xmm0,%xmm3
.byte 15,88,221 // addps %xmm5,%xmm3
.byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,128,141,195,0,0 // mulps 0xc38d(%eax),%xmm0
+ .byte 15,89,128,234,199,0,0 // mulps 0xc7ea(%eax),%xmm0
.byte 15,84,204 // andps %xmm4,%xmm1
- .byte 15,86,136,237,192,0,0 // orps 0xc0ed(%eax),%xmm1
- .byte 15,88,128,173,195,0,0 // addps 0xc3ad(%eax),%xmm0
+ .byte 15,86,136,74,197,0,0 // orps 0xc54a(%eax),%xmm1
+ .byte 15,88,128,10,200,0,0 // addps 0xc80a(%eax),%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,89,168,189,195,0,0 // mulps 0xc3bd(%eax),%xmm5
+ .byte 15,89,168,26,200,0,0 // mulps 0xc81a(%eax),%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,88,136,205,195,0,0 // addps 0xc3cd(%eax),%xmm1
- .byte 15,40,168,221,195,0,0 // movaps 0xc3dd(%eax),%xmm5
+ .byte 15,88,136,42,200,0,0 // addps 0xc82a(%eax),%xmm1
+ .byte 15,40,168,58,200,0,0 // movaps 0xc83a(%eax),%xmm5
.byte 15,94,233 // divps %xmm1,%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,89,69,216 // mulps -0x28(%ebp),%xmm0
@@ -65329,11 +66915,11 @@ _sk_gamma_sse2:
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,194,233,1 // cmpltps %xmm1,%xmm5
- .byte 15,84,168,253,192,0,0 // andps 0xc0fd(%eax),%xmm5
+ .byte 15,84,168,90,197,0,0 // andps 0xc55a(%eax),%xmm5
.byte 15,92,205 // subps %xmm5,%xmm1
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,88,128,237,195,0,0 // addps 0xc3ed(%eax),%xmm0
+ .byte 15,88,128,74,200,0,0 // addps 0xc84a(%eax),%xmm0
.byte 15,40,207 // movaps %xmm7,%xmm1
.byte 15,92,205 // subps %xmm5,%xmm1
.byte 15,89,238 // mulps %xmm6,%xmm5
@@ -65343,15 +66929,15 @@ _sk_gamma_sse2:
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,128,141,195,0,0 // mulps 0xc38d(%eax),%xmm0
+ .byte 15,89,128,234,199,0,0 // mulps 0xc7ea(%eax),%xmm0
.byte 15,84,225 // andps %xmm1,%xmm4
- .byte 15,86,160,237,192,0,0 // orps 0xc0ed(%eax),%xmm4
- .byte 15,88,128,173,195,0,0 // addps 0xc3ad(%eax),%xmm0
- .byte 15,40,136,189,195,0,0 // movaps 0xc3bd(%eax),%xmm1
+ .byte 15,86,160,74,197,0,0 // orps 0xc54a(%eax),%xmm4
+ .byte 15,88,128,10,200,0,0 // addps 0xc80a(%eax),%xmm0
+ .byte 15,40,136,26,200,0,0 // movaps 0xc81a(%eax),%xmm1
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,88,160,205,195,0,0 // addps 0xc3cd(%eax),%xmm4
- .byte 15,40,136,221,195,0,0 // movaps 0xc3dd(%eax),%xmm1
+ .byte 15,88,160,42,200,0,0 // addps 0xc82a(%eax),%xmm4
+ .byte 15,40,136,58,200,0,0 // movaps 0xc83a(%eax),%xmm1
.byte 15,94,204 // divps %xmm4,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,89,69,216 // mulps -0x28(%ebp),%xmm0
@@ -65359,17 +66945,17 @@ _sk_gamma_sse2:
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,194,225,1 // cmpltps %xmm1,%xmm4
- .byte 15,84,160,253,192,0,0 // andps 0xc0fd(%eax),%xmm4
+ .byte 15,84,160,90,197,0,0 // andps 0xc55a(%eax),%xmm4
.byte 15,92,204 // subps %xmm4,%xmm1
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,225 // subps %xmm1,%xmm4
- .byte 15,88,128,237,195,0,0 // addps 0xc3ed(%eax),%xmm0
+ .byte 15,88,128,74,200,0,0 // addps 0xc84a(%eax),%xmm0
.byte 15,89,244 // mulps %xmm4,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 15,92,252 // subps %xmm4,%xmm7
.byte 15,94,215 // divps %xmm7,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,40,128,45,196,0,0 // movaps 0xc42d(%eax),%xmm0
+ .byte 15,40,128,138,200,0,0 // movaps 0xc88a(%eax),%xmm0
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 15,89,208 // mulps %xmm0,%xmm2
@@ -65410,32 +66996,32 @@ _sk_gamma_dst_sse2:
.byte 15,41,149,56,255,255,255 // movaps %xmm2,-0xc8(%ebp)
.byte 15,41,141,72,255,255,255 // movaps %xmm1,-0xb8(%ebp)
.byte 15,41,133,88,255,255,255 // movaps %xmm0,-0xa8(%ebp)
- .byte 232,0,0,0,0 // call 3f5a <_sk_gamma_dst_sse2+0x2b>
+ .byte 232,0,0,0,0 // call 3fad <_sk_gamma_dst_sse2+0x2b>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,40,150,102,193,0,0 // movaps 0xc166(%esi),%xmm2
+ .byte 15,40,150,195,197,0,0 // movaps 0xc5c3(%esi),%xmm2
.byte 15,41,149,104,255,255,255 // movaps %xmm2,-0x98(%ebp)
.byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,40,166,118,193,0,0 // movaps 0xc176(%esi),%xmm4
+ .byte 15,40,166,211,197,0,0 // movaps 0xc5d3(%esi),%xmm4
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,84,212 // andps %xmm4,%xmm2
- .byte 15,40,158,198,190,0,0 // movaps 0xbec6(%esi),%xmm3
+ .byte 15,40,158,35,195,0,0 // movaps 0xc323(%esi),%xmm3
.byte 15,41,157,120,255,255,255 // movaps %xmm3,-0x88(%ebp)
.byte 15,86,211 // orps %xmm3,%xmm2
- .byte 15,40,158,134,193,0,0 // movaps 0xc186(%esi),%xmm3
+ .byte 15,40,158,227,197,0,0 // movaps 0xc5e3(%esi),%xmm3
.byte 15,41,93,136 // movaps %xmm3,-0x78(%ebp)
.byte 15,88,195 // addps %xmm3,%xmm0
- .byte 15,40,174,150,193,0,0 // movaps 0xc196(%esi),%xmm5
+ .byte 15,40,174,243,197,0,0 // movaps 0xc5f3(%esi),%xmm5
.byte 15,41,109,152 // movaps %xmm5,-0x68(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,89,221 // mulps %xmm5,%xmm3
.byte 15,92,195 // subps %xmm3,%xmm0
- .byte 15,40,158,166,193,0,0 // movaps 0xc1a6(%esi),%xmm3
+ .byte 15,40,158,3,198,0,0 // movaps 0xc603(%esi),%xmm3
.byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp)
.byte 15,88,211 // addps %xmm3,%xmm2
- .byte 15,40,158,182,193,0,0 // movaps 0xc1b6(%esi),%xmm3
+ .byte 15,40,158,19,198,0,0 // movaps 0xc613(%esi),%xmm3
.byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,94,218 // divps %xmm2,%xmm3
.byte 15,92,195 // subps %xmm3,%xmm0
@@ -65448,27 +67034,27 @@ _sk_gamma_dst_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,194,218,1 // cmpltps %xmm2,%xmm3
- .byte 15,40,174,214,190,0,0 // movaps 0xbed6(%esi),%xmm5
+ .byte 15,40,174,51,195,0,0 // movaps 0xc333(%esi),%xmm5
.byte 15,41,109,200 // movaps %xmm5,-0x38(%ebp)
.byte 15,84,221 // andps %xmm5,%xmm3
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,92,218 // subps %xmm2,%xmm3
- .byte 15,40,150,198,193,0,0 // movaps 0xc1c6(%esi),%xmm2
+ .byte 15,40,150,35,198,0,0 // movaps 0xc623(%esi),%xmm2
.byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
.byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,40,190,230,193,0,0 // movaps 0xc1e6(%esi),%xmm7
+ .byte 15,40,190,67,198,0,0 // movaps 0xc643(%esi),%xmm7
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,40,182,214,193,0,0 // movaps 0xc1d6(%esi),%xmm6
+ .byte 15,40,182,51,198,0,0 // movaps 0xc633(%esi),%xmm6
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 15,40,158,246,193,0,0 // movaps 0xc1f6(%esi),%xmm3
+ .byte 15,40,158,83,198,0,0 // movaps 0xc653(%esi),%xmm3
.byte 15,40,211 // movaps %xmm3,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,40,134,6,194,0,0 // movaps 0xc206(%esi),%xmm0
+ .byte 15,40,134,99,198,0,0 // movaps 0xc663(%esi),%xmm0
.byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 102,15,91,194 // cvtps2dq %xmm2,%xmm0
@@ -65574,31 +67160,31 @@ _sk_lab_to_xyz_sse2:
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 41b6 <_sk_lab_to_xyz_sse2+0x15>
+ .byte 232,0,0,0,0 // call 4209 <_sk_lab_to_xyz_sse2+0x15>
.byte 88 // pop %eax
- .byte 15,89,144,186,191,0,0 // mulps 0xbfba(%eax),%xmm2
- .byte 15,40,160,74,189,0,0 // movaps 0xbd4a(%eax),%xmm4
+ .byte 15,89,144,23,196,0,0 // mulps 0xc417(%eax),%xmm2
+ .byte 15,40,160,167,193,0,0 // movaps 0xc1a7(%eax),%xmm4
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,168,202,191,0,0 // movaps 0xbfca(%eax),%xmm5
+ .byte 15,40,168,39,196,0,0 // movaps 0xc427(%eax),%xmm5
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,89,220 // mulps %xmm4,%xmm3
.byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,88,144,218,191,0,0 // addps 0xbfda(%eax),%xmm2
- .byte 15,89,144,234,191,0,0 // mulps 0xbfea(%eax),%xmm2
- .byte 15,89,136,250,191,0,0 // mulps 0xbffa(%eax),%xmm1
+ .byte 15,88,144,55,196,0,0 // addps 0xc437(%eax),%xmm2
+ .byte 15,89,144,71,196,0,0 // mulps 0xc447(%eax),%xmm2
+ .byte 15,89,136,87,196,0,0 // mulps 0xc457(%eax),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,89,152,10,192,0,0 // mulps 0xc00a(%eax),%xmm3
+ .byte 15,89,152,103,196,0,0 // mulps 0xc467(%eax),%xmm3
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,152,26,192,0,0 // movaps 0xc01a(%eax),%xmm3
+ .byte 15,40,152,119,196,0,0 // movaps 0xc477(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,194,224,1 // cmpltps %xmm0,%xmm4
- .byte 15,40,176,42,192,0,0 // movaps 0xc02a(%eax),%xmm6
+ .byte 15,40,176,135,196,0,0 // movaps 0xc487(%eax),%xmm6
.byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,184,58,192,0,0 // movaps 0xc03a(%eax),%xmm7
+ .byte 15,40,184,151,196,0,0 // movaps 0xc497(%eax),%xmm7
.byte 15,89,207 // mulps %xmm7,%xmm1
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,85,225 // andnps %xmm1,%xmm4
@@ -65623,8 +67209,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,85,221 // andnps %xmm5,%xmm3
.byte 15,86,216 // orps %xmm0,%xmm3
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,160,74,192,0,0 // mulps 0xc04a(%eax),%xmm4
- .byte 15,89,152,90,192,0,0 // mulps 0xc05a(%eax),%xmm3
+ .byte 15,89,160,167,196,0,0 // mulps 0xc4a7(%eax),%xmm4
+ .byte 15,89,152,183,196,0,0 // mulps 0xc4b7(%eax),%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -65647,7 +67233,7 @@ _sk_load_a8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 42a6 <_sk_load_a8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 42f9 <_sk_load_a8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65658,13 +67244,13 @@ _sk_load_a8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,60 // jne 42fd <_sk_load_a8_sse2+0x65>
+ .byte 117,60 // jne 4350 <_sk_load_a8_sse2+0x65>
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,74,188,0,0 // pand 0xbc4a(%edx),%xmm0
+ .byte 102,15,219,130,167,192,0,0 // pand 0xc0a7(%edx),%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,154,138,189,0,0 // mulps 0xbd8a(%edx),%xmm3
+ .byte 15,89,154,231,193,0,0 // mulps 0xc1e7(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -65681,12 +67267,12 @@ _sk_load_a8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 4337 <_sk_load_a8_sse2+0x9f>
+ .byte 116,50 // je 438a <_sk_load_a8_sse2+0x9f>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4321 <_sk_load_a8_sse2+0x89>
+ .byte 116,19 // je 4374 <_sk_load_a8_sse2+0x89>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,187 // jne 42ce <_sk_load_a8_sse2+0x36>
+ .byte 117,187 // jne 4321 <_sk_load_a8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -65695,10 +67281,10 @@ _sk_load_a8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,151 // jmp 42ce <_sk_load_a8_sse2+0x36>
+ .byte 235,151 // jmp 4321 <_sk_load_a8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,198 // movd %esi,%xmm0
- .byte 235,141 // jmp 42ce <_sk_load_a8_sse2+0x36>
+ .byte 235,141 // jmp 4321 <_sk_load_a8_sse2+0x36>
HIDDEN _sk_load_a8_dst_sse2
.globl _sk_load_a8_dst_sse2
@@ -65723,15 +67309,15 @@ _sk_load_a8_dst_sse2:
.byte 102,15,127,97,32 // movdqa %xmm4,0x20(%ecx)
.byte 102,15,127,97,16 // movdqa %xmm4,0x10(%ecx)
.byte 133,219 // test %ebx,%ebx
- .byte 232,0,0,0,0 // call 437a <_sk_load_a8_dst_sse2+0x39>
+ .byte 232,0,0,0,0 // call 43cd <_sk_load_a8_dst_sse2+0x39>
.byte 90 // pop %edx
- .byte 117,54 // jne 43b3 <_sk_load_a8_dst_sse2+0x72>
+ .byte 117,54 // jne 4406 <_sk_load_a8_dst_sse2+0x72>
.byte 102,15,110,36,55 // movd (%edi,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,118,187,0,0 // pand 0xbb76(%edx),%xmm4
+ .byte 102,15,219,162,211,191,0,0 // pand 0xbfd3(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,182,188,0,0 // mulps 0xbcb6(%edx),%xmm4
+ .byte 15,89,162,19,193,0,0 // mulps 0xc113(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -65746,11 +67332,11 @@ _sk_load_a8_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,46 // je 43e9 <_sk_load_a8_dst_sse2+0xa8>
+ .byte 116,46 // je 443c <_sk_load_a8_dst_sse2+0xa8>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 43d3 <_sk_load_a8_dst_sse2+0x92>
+ .byte 116,19 // je 4426 <_sk_load_a8_dst_sse2+0x92>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,197 // jne 438a <_sk_load_a8_dst_sse2+0x49>
+ .byte 117,197 // jne 43dd <_sk_load_a8_dst_sse2+0x49>
.byte 15,182,92,55,2 // movzbl 0x2(%edi,%esi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -65759,10 +67345,10 @@ _sk_load_a8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,161 // jmp 438a <_sk_load_a8_dst_sse2+0x49>
+ .byte 235,161 // jmp 43dd <_sk_load_a8_dst_sse2+0x49>
.byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,151 // jmp 438a <_sk_load_a8_dst_sse2+0x49>
+ .byte 235,151 // jmp 43dd <_sk_load_a8_dst_sse2+0x49>
HIDDEN _sk_gather_a8_sse2
.globl _sk_gather_a8_sse2
@@ -65816,13 +67402,13 @@ _sk_gather_a8_sse2:
.byte 9,202 // or %ecx,%edx
.byte 102,15,110,194 // movd %edx,%xmm0
.byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0
- .byte 232,0,0,0,0 // call 44a7 <_sk_gather_a8_sse2+0xb4>
+ .byte 232,0,0,0,0 // call 44fa <_sk_gather_a8_sse2+0xb4>
.byte 89 // pop %ecx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,153,137,187,0,0 // mulps 0xbb89(%ecx),%xmm3
+ .byte 15,89,153,230,191,0,0 // mulps 0xbfe6(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -65847,7 +67433,7 @@ _sk_store_a8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 44eb <_sk_store_a8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 453e <_sk_store_a8_sse2+0xe>
.byte 94 // pop %esi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65858,8 +67444,8 @@ _sk_store_a8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,227 // maxps %xmm3,%xmm4
- .byte 15,93,166,69,185,0,0 // minps 0xb945(%esi),%xmm4
- .byte 15,89,166,21,186,0,0 // mulps 0xba15(%esi),%xmm4
+ .byte 15,93,166,162,189,0,0 // minps 0xbda2(%esi),%xmm4
+ .byte 15,89,166,114,190,0,0 // mulps 0xbe72(%esi),%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
@@ -65867,7 +67453,7 @@ _sk_store_a8_sse2:
.byte 102,15,103,224 // packuswb %xmm0,%xmm4
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,26 // jne 454a <_sk_store_a8_sse2+0x6d>
+ .byte 117,26 // jne 459d <_sk_store_a8_sse2+0x6d>
.byte 102,15,126,230 // movd %xmm4,%esi
.byte 137,52,58 // mov %esi,(%edx,%edi,1)
.byte 141,80,8 // lea 0x8(%eax),%edx
@@ -65885,24 +67471,24 @@ _sk_store_a8_sse2:
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,54 // je 4590 <_sk_store_a8_sse2+0xb3>
+ .byte 116,54 // je 45e3 <_sk_store_a8_sse2+0xb3>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,14 // je 456d <_sk_store_a8_sse2+0x90>
+ .byte 116,14 // je 45c0 <_sk_store_a8_sse2+0x90>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,211 // jne 4537 <_sk_store_a8_sse2+0x5a>
+ .byte 117,211 // jne 458a <_sk_store_a8_sse2+0x5a>
.byte 102,15,197,220,4 // pextrw $0x4,%xmm4,%ebx
.byte 136,92,58,2 // mov %bl,0x2(%edx,%edi,1)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
- .byte 102,15,219,166,53,189,0,0 // pand 0xbd35(%esi),%xmm4
+ .byte 102,15,219,166,146,193,0,0 // pand 0xc192(%esi),%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,230 // movd %xmm4,%esi
.byte 102,137,52,58 // mov %si,(%edx,%edi,1)
- .byte 235,167 // jmp 4537 <_sk_store_a8_sse2+0x5a>
+ .byte 235,167 // jmp 458a <_sk_store_a8_sse2+0x5a>
.byte 102,15,126,227 // movd %xmm4,%ebx
.byte 136,28,58 // mov %bl,(%edx,%edi,1)
- .byte 235,158 // jmp 4537 <_sk_store_a8_sse2+0x5a>
+ .byte 235,158 // jmp 458a <_sk_store_a8_sse2+0x5a>
HIDDEN _sk_load_g8_sse2
.globl _sk_load_g8_sse2
@@ -65914,7 +67500,7 @@ _sk_load_g8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 45a7 <_sk_load_g8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 45fa <_sk_load_g8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65925,16 +67511,16 @@ _sk_load_g8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,63 // jne 4601 <_sk_load_g8_sse2+0x68>
+ .byte 117,63 // jne 4654 <_sk_load_g8_sse2+0x68>
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,73,185,0,0 // pand 0xb949(%edx),%xmm0
+ .byte 102,15,219,130,166,189,0,0 // pand 0xbda6(%edx),%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,137,186,0,0 // mulps 0xba89(%edx),%xmm0
+ .byte 15,89,130,230,190,0,0 // mulps 0xbee6(%edx),%xmm0
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,137,184,0,0 // movaps 0xb889(%edx),%xmm3
+ .byte 15,40,154,230,188,0,0 // movaps 0xbce6(%edx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 86 // push %esi
@@ -65948,12 +67534,12 @@ _sk_load_g8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 463b <_sk_load_g8_sse2+0xa2>
+ .byte 116,50 // je 468e <_sk_load_g8_sse2+0xa2>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4625 <_sk_load_g8_sse2+0x8c>
+ .byte 116,19 // je 4678 <_sk_load_g8_sse2+0x8c>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,184 // jne 45cf <_sk_load_g8_sse2+0x36>
+ .byte 117,184 // jne 4622 <_sk_load_g8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -65962,10 +67548,10 @@ _sk_load_g8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,148 // jmp 45cf <_sk_load_g8_sse2+0x36>
+ .byte 235,148 // jmp 4622 <_sk_load_g8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,198 // movd %esi,%xmm0
- .byte 235,138 // jmp 45cf <_sk_load_g8_sse2+0x36>
+ .byte 235,138 // jmp 4622 <_sk_load_g8_sse2+0x36>
HIDDEN _sk_load_g8_dst_sse2
.globl _sk_load_g8_dst_sse2
@@ -65977,7 +67563,7 @@ _sk_load_g8_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4653 <_sk_load_g8_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 46a6 <_sk_load_g8_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65988,17 +67574,17 @@ _sk_load_g8_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,73 // jne 46b7 <_sk_load_g8_dst_sse2+0x72>
+ .byte 117,73 // jne 470a <_sk_load_g8_dst_sse2+0x72>
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,157,184,0,0 // pand 0xb89d(%edx),%xmm4
+ .byte 102,15,219,162,250,188,0,0 // pand 0xbcfa(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,221,185,0,0 // mulps 0xb9dd(%edx),%xmm4
+ .byte 15,89,162,58,190,0,0 // mulps 0xbe3a(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
.byte 15,41,97,32 // movaps %xmm4,0x20(%ecx)
.byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
- .byte 15,40,162,221,183,0,0 // movaps 0xb7dd(%edx),%xmm4
+ .byte 15,40,162,58,188,0,0 // movaps 0xbc3a(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -66013,12 +67599,12 @@ _sk_load_g8_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 46f1 <_sk_load_g8_dst_sse2+0xac>
+ .byte 116,50 // je 4744 <_sk_load_g8_dst_sse2+0xac>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 46db <_sk_load_g8_dst_sse2+0x96>
+ .byte 116,19 // je 472e <_sk_load_g8_dst_sse2+0x96>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,174 // jne 467b <_sk_load_g8_dst_sse2+0x36>
+ .byte 117,174 // jne 46ce <_sk_load_g8_dst_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -66027,10 +67613,10 @@ _sk_load_g8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,138 // jmp 467b <_sk_load_g8_dst_sse2+0x36>
+ .byte 235,138 // jmp 46ce <_sk_load_g8_dst_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,128 // jmp 467b <_sk_load_g8_dst_sse2+0x36>
+ .byte 235,128 // jmp 46ce <_sk_load_g8_dst_sse2+0x36>
HIDDEN _sk_gather_g8_sse2
.globl _sk_gather_g8_sse2
@@ -66083,17 +67669,17 @@ _sk_gather_g8_sse2:
.byte 193,226,8 // shl $0x8,%edx
.byte 9,202 // or %ecx,%edx
.byte 102,15,110,194 // movd %edx,%xmm0
- .byte 232,0,0,0,0 // call 47aa <_sk_gather_g8_sse2+0xaf>
+ .byte 232,0,0,0,0 // call 47fd <_sk_gather_g8_sse2+0xaf>
.byte 89 // pop %ecx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,134,184,0,0 // mulps 0xb886(%ecx),%xmm0
+ .byte 15,89,129,227,188,0,0 // mulps 0xbce3(%ecx),%xmm0
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,134,182,0,0 // movaps 0xb686(%ecx),%xmm3
+ .byte 15,40,153,227,186,0,0 // movaps 0xbae3(%ecx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 82 // push %edx
@@ -66115,7 +67701,7 @@ _sk_load_565_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 47f5 <_sk_load_565_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4848 <_sk_load_565_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66127,23 +67713,23 @@ _sk_load_565_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,97 // jne 4873 <_sk_load_565_sse2+0x8c>
+ .byte 117,97 // jne 48c6 <_sk_load_565_sse2+0x8c>
.byte 243,15,126,20,126 // movq (%esi,%edi,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,75,184,0,0 // movdqa 0xb84b(%edx),%xmm0
+ .byte 102,15,111,130,168,188,0,0 // movdqa 0xbca8(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,91,184,0,0 // mulps 0xb85b(%edx),%xmm0
- .byte 102,15,111,138,107,184,0,0 // movdqa 0xb86b(%edx),%xmm1
+ .byte 15,89,130,184,188,0,0 // mulps 0xbcb8(%edx),%xmm0
+ .byte 102,15,111,138,200,188,0,0 // movdqa 0xbcc8(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,123,184,0,0 // mulps 0xb87b(%edx),%xmm1
- .byte 102,15,219,146,139,184,0,0 // pand 0xb88b(%edx),%xmm2
+ .byte 15,89,138,216,188,0,0 // mulps 0xbcd8(%edx),%xmm1
+ .byte 102,15,219,146,232,188,0,0 // pand 0xbce8(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,155,184,0,0 // mulps 0xb89b(%edx),%xmm2
+ .byte 15,89,146,248,188,0,0 // mulps 0xbcf8(%edx),%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,59,182,0,0 // movaps 0xb63b(%edx),%xmm3
+ .byte 15,40,154,152,186,0,0 // movaps 0xba98(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -66155,22 +67741,22 @@ _sk_load_565_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,47 // je 48aa <_sk_load_565_sse2+0xc3>
+ .byte 116,47 // je 48fd <_sk_load_565_sse2+0xc3>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4897 <_sk_load_565_sse2+0xb0>
+ .byte 116,19 // je 48ea <_sk_load_565_sse2+0xb0>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,146 // jne 481b <_sk_load_565_sse2+0x34>
+ .byte 117,146 // jne 486e <_sk_load_565_sse2+0x34>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,208 // movsd %xmm0,%xmm2
- .byte 233,113,255,255,255 // jmp 481b <_sk_load_565_sse2+0x34>
+ .byte 233,113,255,255,255 // jmp 486e <_sk_load_565_sse2+0x34>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,214 // movd %esi,%xmm2
- .byte 233,100,255,255,255 // jmp 481b <_sk_load_565_sse2+0x34>
+ .byte 233,100,255,255,255 // jmp 486e <_sk_load_565_sse2+0x34>
HIDDEN _sk_load_565_dst_sse2
.globl _sk_load_565_dst_sse2
@@ -66182,7 +67768,7 @@ _sk_load_565_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 48c5 <_sk_load_565_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4918 <_sk_load_565_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66194,24 +67780,24 @@ _sk_load_565_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,113 // jne 4953 <_sk_load_565_dst_sse2+0x9c>
+ .byte 117,113 // jne 49a6 <_sk_load_565_dst_sse2+0x9c>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,123,183,0,0 // movdqa 0xb77b(%edx),%xmm5
+ .byte 102,15,111,170,216,187,0,0 // movdqa 0xbbd8(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,139,183,0,0 // mulps 0xb78b(%edx),%xmm5
+ .byte 15,89,170,232,187,0,0 // mulps 0xbbe8(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,155,183,0,0 // movdqa 0xb79b(%edx),%xmm5
+ .byte 102,15,111,170,248,187,0,0 // movdqa 0xbbf8(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,171,183,0,0 // mulps 0xb7ab(%edx),%xmm5
+ .byte 15,89,170,8,188,0,0 // mulps 0xbc08(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,219,162,187,183,0,0 // pand 0xb7bb(%edx),%xmm4
+ .byte 102,15,219,162,24,188,0,0 // pand 0xbc18(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,203,183,0,0 // mulps 0xb7cb(%edx),%xmm4
+ .byte 15,89,162,40,188,0,0 // mulps 0xbc28(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
- .byte 15,40,162,107,181,0,0 // movaps 0xb56b(%edx),%xmm4
+ .byte 15,40,162,200,185,0,0 // movaps 0xb9c8(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -66226,22 +67812,22 @@ _sk_load_565_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,47 // je 498a <_sk_load_565_dst_sse2+0xd3>
+ .byte 116,47 // je 49dd <_sk_load_565_dst_sse2+0xd3>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4977 <_sk_load_565_dst_sse2+0xc0>
+ .byte 116,19 // je 49ca <_sk_load_565_dst_sse2+0xc0>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,130 // jne 48eb <_sk_load_565_dst_sse2+0x34>
+ .byte 117,130 // jne 493e <_sk_load_565_dst_sse2+0x34>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5
.byte 242,15,112,237,212 // pshuflw $0xd4,%xmm5,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,97,255,255,255 // jmp 48eb <_sk_load_565_dst_sse2+0x34>
+ .byte 233,97,255,255,255 // jmp 493e <_sk_load_565_dst_sse2+0x34>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,84,255,255,255 // jmp 48eb <_sk_load_565_dst_sse2+0x34>
+ .byte 233,84,255,255,255 // jmp 493e <_sk_load_565_dst_sse2+0x34>
HIDDEN _sk_gather_565_sse2
.globl _sk_gather_565_sse2
@@ -66291,25 +67877,25 @@ _sk_gather_565_sse2:
.byte 102,15,196,209,2 // pinsrw $0x2,%ecx,%xmm2
.byte 102,15,126,193 // movd %xmm0,%ecx
.byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
- .byte 232,0,0,0,0 // call 4a47 <_sk_gather_565_sse2+0xb0>
+ .byte 232,0,0,0,0 // call 4a9a <_sk_gather_565_sse2+0xb0>
.byte 90 // pop %edx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,209,3 // pinsrw $0x3,%ecx,%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,249,181,0,0 // movdqa 0xb5f9(%edx),%xmm0
+ .byte 102,15,111,130,86,186,0,0 // movdqa 0xba56(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,9,182,0,0 // mulps 0xb609(%edx),%xmm0
- .byte 102,15,111,138,25,182,0,0 // movdqa 0xb619(%edx),%xmm1
+ .byte 15,89,130,102,186,0,0 // mulps 0xba66(%edx),%xmm0
+ .byte 102,15,111,138,118,186,0,0 // movdqa 0xba76(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,41,182,0,0 // mulps 0xb629(%edx),%xmm1
- .byte 102,15,219,146,57,182,0,0 // pand 0xb639(%edx),%xmm2
+ .byte 15,89,138,134,186,0,0 // mulps 0xba86(%edx),%xmm1
+ .byte 102,15,219,146,150,186,0,0 // pand 0xba96(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,73,182,0,0 // mulps 0xb649(%edx),%xmm2
+ .byte 15,89,146,166,186,0,0 // mulps 0xbaa6(%edx),%xmm2
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,233,179,0,0 // movaps 0xb3e9(%edx),%xmm3
+ .byte 15,40,154,70,184,0,0 // movaps 0xb846(%edx),%xmm3
.byte 81 // push %ecx
.byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,80,4 // call *0x4(%eax)
@@ -66327,19 +67913,19 @@ _sk_store_565_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4aba <_sk_store_565_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4b0d <_sk_store_565_sse2+0xe>
.byte 94 // pop %esi
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,40,182,118,179,0,0 // movaps 0xb376(%esi),%xmm6
+ .byte 15,40,182,211,183,0,0 // movaps 0xb7d3(%esi),%xmm6
.byte 15,93,238 // minps %xmm6,%xmm5
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,95,249 // maxps %xmm1,%xmm7
.byte 15,93,254 // minps %xmm6,%xmm7
.byte 15,95,226 // maxps %xmm2,%xmm4
.byte 15,93,230 // minps %xmm6,%xmm4
- .byte 15,40,182,118,183,0,0 // movaps 0xb776(%esi),%xmm6
+ .byte 15,40,182,211,187,0,0 // movaps 0xbbd3(%esi),%xmm6
.byte 15,89,238 // mulps %xmm6,%xmm5
.byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
@@ -66354,7 +67940,7 @@ _sk_store_565_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,23 // add (%edi),%edx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,89,190,134,183,0,0 // mulps 0xb786(%esi),%xmm7
+ .byte 15,89,190,227,187,0,0 // mulps 0xbbe3(%esi),%xmm7
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 102,15,91,239 // cvtps2dq %xmm7,%xmm5
.byte 102,15,114,245,5 // pslld $0x5,%xmm5
@@ -66366,7 +67952,7 @@ _sk_store_565_sse2:
.byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5
.byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp)
.byte 133,219 // test %ebx,%ebx
- .byte 117,34 // jne 4b6a <_sk_store_565_sse2+0xbe>
+ .byte 117,34 // jne 4bbd <_sk_store_565_sse2+0xbe>
.byte 102,15,126,230 // movd %xmm4,%esi
.byte 102,15,126,235 // movd %xmm5,%ebx
.byte 137,52,122 // mov %esi,(%edx,%edi,2)
@@ -66386,20 +67972,20 @@ _sk_store_565_sse2:
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,37 // je 4ba0 <_sk_store_565_sse2+0xf4>
+ .byte 116,37 // je 4bf3 <_sk_store_565_sse2+0xf4>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,15 // je 4b8f <_sk_store_565_sse2+0xe3>
+ .byte 116,15 // je 4be2 <_sk_store_565_sse2+0xe3>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,210 // jne 4b57 <_sk_store_565_sse2+0xab>
+ .byte 117,210 // jne 4baa <_sk_store_565_sse2+0xab>
.byte 102,15,197,244,4 // pextrw $0x4,%xmm4,%esi
.byte 102,137,116,122,4 // mov %si,0x4(%edx,%edi,2)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
.byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
.byte 102,15,126,36,122 // movd %xmm4,(%edx,%edi,2)
- .byte 235,183 // jmp 4b57 <_sk_store_565_sse2+0xab>
+ .byte 235,183 // jmp 4baa <_sk_store_565_sse2+0xab>
.byte 102,15,126,230 // movd %xmm4,%esi
.byte 102,137,52,122 // mov %si,(%edx,%edi,2)
- .byte 235,173 // jmp 4b57 <_sk_store_565_sse2+0xab>
+ .byte 235,173 // jmp 4baa <_sk_store_565_sse2+0xab>
HIDDEN _sk_load_4444_sse2
.globl _sk_load_4444_sse2
@@ -66411,7 +67997,7 @@ _sk_load_4444_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4bb8 <_sk_load_4444_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4c0b <_sk_load_4444_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66423,24 +68009,24 @@ _sk_load_4444_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,112 // jne 4c45 <_sk_load_4444_sse2+0x9b>
+ .byte 117,112 // jne 4c98 <_sk_load_4444_sse2+0x9b>
.byte 243,15,126,28,126 // movq (%esi,%edi,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,130,152,182,0,0 // movdqa 0xb698(%edx),%xmm0
+ .byte 102,15,111,130,245,186,0,0 // movdqa 0xbaf5(%edx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,168,182,0,0 // mulps 0xb6a8(%edx),%xmm0
- .byte 102,15,111,138,184,182,0,0 // movdqa 0xb6b8(%edx),%xmm1
+ .byte 15,89,130,5,187,0,0 // mulps 0xbb05(%edx),%xmm0
+ .byte 102,15,111,138,21,187,0,0 // movdqa 0xbb15(%edx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,200,182,0,0 // mulps 0xb6c8(%edx),%xmm1
- .byte 102,15,111,146,216,182,0,0 // movdqa 0xb6d8(%edx),%xmm2
+ .byte 15,89,138,37,187,0,0 // mulps 0xbb25(%edx),%xmm1
+ .byte 102,15,111,146,53,187,0,0 // movdqa 0xbb35(%edx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,232,182,0,0 // mulps 0xb6e8(%edx),%xmm2
- .byte 102,15,219,154,248,182,0,0 // pand 0xb6f8(%edx),%xmm3
+ .byte 15,89,146,69,187,0,0 // mulps 0xbb45(%edx),%xmm2
+ .byte 102,15,219,154,85,187,0,0 // pand 0xbb55(%edx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,8,183,0,0 // mulps 0xb708(%edx),%xmm3
+ .byte 15,89,154,101,187,0,0 // mulps 0xbb65(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 82 // push %edx
@@ -66454,22 +68040,22 @@ _sk_load_4444_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,47 // je 4c7c <_sk_load_4444_sse2+0xd2>
+ .byte 116,47 // je 4ccf <_sk_load_4444_sse2+0xd2>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4c69 <_sk_load_4444_sse2+0xbf>
+ .byte 116,19 // je 4cbc <_sk_load_4444_sse2+0xbf>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,131 // jne 4bde <_sk_load_4444_sse2+0x34>
+ .byte 117,131 // jne 4c31 <_sk_load_4444_sse2+0x34>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,98,255,255,255 // jmp 4bde <_sk_load_4444_sse2+0x34>
+ .byte 233,98,255,255,255 // jmp 4c31 <_sk_load_4444_sse2+0x34>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,222 // movd %esi,%xmm3
- .byte 233,85,255,255,255 // jmp 4bde <_sk_load_4444_sse2+0x34>
+ .byte 233,85,255,255,255 // jmp 4c31 <_sk_load_4444_sse2+0x34>
HIDDEN _sk_load_4444_dst_sse2
.globl _sk_load_4444_dst_sse2
@@ -66481,7 +68067,7 @@ _sk_load_4444_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4c97 <_sk_load_4444_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4cea <_sk_load_4444_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66493,27 +68079,27 @@ _sk_load_4444_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,128,0,0,0 // jne 4d38 <_sk_load_4444_dst_sse2+0xaf>
+ .byte 15,133,128,0,0,0 // jne 4d8b <_sk_load_4444_dst_sse2+0xaf>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,185,181,0,0 // movdqa 0xb5b9(%edx),%xmm5
+ .byte 102,15,111,170,22,186,0,0 // movdqa 0xba16(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,201,181,0,0 // mulps 0xb5c9(%edx),%xmm5
+ .byte 15,89,170,38,186,0,0 // mulps 0xba26(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,217,181,0,0 // movdqa 0xb5d9(%edx),%xmm5
+ .byte 102,15,111,170,54,186,0,0 // movdqa 0xba36(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,233,181,0,0 // mulps 0xb5e9(%edx),%xmm5
+ .byte 15,89,170,70,186,0,0 // mulps 0xba46(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,111,170,249,181,0,0 // movdqa 0xb5f9(%edx),%xmm5
+ .byte 102,15,111,170,86,186,0,0 // movdqa 0xba56(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,9,182,0,0 // mulps 0xb609(%edx),%xmm5
+ .byte 15,89,170,102,186,0,0 // mulps 0xba66(%edx),%xmm5
.byte 15,41,105,48 // movaps %xmm5,0x30(%ecx)
- .byte 102,15,219,162,25,182,0,0 // pand 0xb619(%edx),%xmm4
+ .byte 102,15,219,162,118,186,0,0 // pand 0xba76(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,41,182,0,0 // mulps 0xb629(%edx),%xmm4
+ .byte 15,89,162,134,186,0,0 // mulps 0xba86(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -66528,22 +68114,22 @@ _sk_load_4444_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,51 // je 4d73 <_sk_load_4444_dst_sse2+0xea>
+ .byte 116,51 // je 4dc6 <_sk_load_4444_dst_sse2+0xea>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,23 // je 4d60 <_sk_load_4444_dst_sse2+0xd7>
+ .byte 116,23 // je 4db3 <_sk_load_4444_dst_sse2+0xd7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,111,255,255,255 // jne 4cc1 <_sk_load_4444_dst_sse2+0x38>
+ .byte 15,133,111,255,255,255 // jne 4d14 <_sk_load_4444_dst_sse2+0x38>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5
.byte 242,15,112,237,212 // pshuflw $0xd4,%xmm5,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,78,255,255,255 // jmp 4cc1 <_sk_load_4444_dst_sse2+0x38>
+ .byte 233,78,255,255,255 // jmp 4d14 <_sk_load_4444_dst_sse2+0x38>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,65,255,255,255 // jmp 4cc1 <_sk_load_4444_dst_sse2+0x38>
+ .byte 233,65,255,255,255 // jmp 4d14 <_sk_load_4444_dst_sse2+0x38>
HIDDEN _sk_gather_4444_sse2
.globl _sk_gather_4444_sse2
@@ -66594,25 +68180,25 @@ _sk_gather_4444_sse2:
.byte 102,15,126,193 // movd %xmm0,%ecx
.byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
.byte 102,15,196,217,3 // pinsrw $0x3,%ecx,%xmm3
- .byte 232,0,0,0,0 // call 4e35 <_sk_gather_4444_sse2+0xb5>
+ .byte 232,0,0,0,0 // call 4e88 <_sk_gather_4444_sse2+0xb5>
.byte 89 // pop %ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,129,27,180,0,0 // movdqa 0xb41b(%ecx),%xmm0
+ .byte 102,15,111,129,120,184,0,0 // movdqa 0xb878(%ecx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,43,180,0,0 // mulps 0xb42b(%ecx),%xmm0
- .byte 102,15,111,137,59,180,0,0 // movdqa 0xb43b(%ecx),%xmm1
+ .byte 15,89,129,136,184,0,0 // mulps 0xb888(%ecx),%xmm0
+ .byte 102,15,111,137,152,184,0,0 // movdqa 0xb898(%ecx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,137,75,180,0,0 // mulps 0xb44b(%ecx),%xmm1
- .byte 102,15,111,145,91,180,0,0 // movdqa 0xb45b(%ecx),%xmm2
+ .byte 15,89,137,168,184,0,0 // mulps 0xb8a8(%ecx),%xmm1
+ .byte 102,15,111,145,184,184,0,0 // movdqa 0xb8b8(%ecx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,145,107,180,0,0 // mulps 0xb46b(%ecx),%xmm2
- .byte 102,15,219,153,123,180,0,0 // pand 0xb47b(%ecx),%xmm3
+ .byte 15,89,145,200,184,0,0 // mulps 0xb8c8(%ecx),%xmm2
+ .byte 102,15,219,153,216,184,0,0 // pand 0xb8d8(%ecx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,153,139,180,0,0 // mulps 0xb48b(%ecx),%xmm3
+ .byte 15,89,153,232,184,0,0 // mulps 0xb8e8(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 81 // push %ecx
@@ -66633,13 +68219,13 @@ _sk_store_4444_sse2:
.byte 86 // push %esi
.byte 131,236,44 // sub $0x2c,%esp
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 232,0,0,0,0 // call 4eb6 <_sk_store_4444_sse2+0x12>
+ .byte 232,0,0,0,0 // call 4f09 <_sk_store_4444_sse2+0x12>
.byte 88 // pop %eax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,40,168,122,175,0,0 // movaps 0xaf7a(%eax),%xmm5
+ .byte 15,40,168,215,179,0,0 // movaps 0xb3d7(%eax),%xmm5
.byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,40,176,26,180,0,0 // movaps 0xb41a(%eax),%xmm6
+ .byte 15,40,176,119,184,0,0 // movaps 0xb877(%eax),%xmm6
.byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,114,244,12 // pslld $0xc,%xmm4
@@ -66680,7 +68266,7 @@ _sk_store_4444_sse2:
.byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5
.byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp)
.byte 133,219 // test %ebx,%ebx
- .byte 117,42 // jne 4f89 <_sk_store_4444_sse2+0xe5>
+ .byte 117,42 // jne 4fdc <_sk_store_4444_sse2+0xe5>
.byte 102,15,126,231 // movd %xmm4,%edi
.byte 102,15,126,235 // movd %xmm5,%ebx
.byte 137,60,86 // mov %edi,(%esi,%edx,2)
@@ -66702,20 +68288,20 @@ _sk_store_4444_sse2:
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,37 // je 4fbf <_sk_store_4444_sse2+0x11b>
+ .byte 116,37 // je 5012 <_sk_store_4444_sse2+0x11b>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,15 // je 4fae <_sk_store_4444_sse2+0x10a>
+ .byte 116,15 // je 5001 <_sk_store_4444_sse2+0x10a>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,202 // jne 4f6e <_sk_store_4444_sse2+0xca>
+ .byte 117,202 // jne 4fc1 <_sk_store_4444_sse2+0xca>
.byte 102,15,197,252,4 // pextrw $0x4,%xmm4,%edi
.byte 102,137,124,86,4 // mov %di,0x4(%esi,%edx,2)
.byte 102,15,112,220,212 // pshufd $0xd4,%xmm4,%xmm3
.byte 242,15,112,219,232 // pshuflw $0xe8,%xmm3,%xmm3
.byte 102,15,126,28,86 // movd %xmm3,(%esi,%edx,2)
- .byte 235,175 // jmp 4f6e <_sk_store_4444_sse2+0xca>
+ .byte 235,175 // jmp 4fc1 <_sk_store_4444_sse2+0xca>
.byte 102,15,126,231 // movd %xmm4,%edi
.byte 102,137,60,86 // mov %di,(%esi,%edx,2)
- .byte 235,165 // jmp 4f6e <_sk_store_4444_sse2+0xca>
+ .byte 235,165 // jmp 4fc1 <_sk_store_4444_sse2+0xca>
HIDDEN _sk_load_8888_sse2
.globl _sk_load_8888_sse2
@@ -66727,7 +68313,7 @@ _sk_load_8888_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4fd7 <_sk_load_8888_sse2+0xe>
+ .byte 232,0,0,0,0 // call 502a <_sk_load_8888_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66739,13 +68325,13 @@ _sk_load_8888_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 505b <_sk_load_8888_sse2+0x92>
+ .byte 117,102 // jne 50ae <_sk_load_8888_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,146,25,175,0,0 // movdqa 0xaf19(%edx),%xmm2
+ .byte 102,15,111,146,118,179,0,0 // movdqa 0xb376(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,89,176,0,0 // movaps 0xb059(%edx),%xmm4
+ .byte 15,40,162,182,180,0,0 // movaps 0xb4b6(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -66773,18 +68359,18 @@ _sk_load_8888_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,35 // je 5086 <_sk_load_8888_sse2+0xbd>
+ .byte 116,35 // je 50d9 <_sk_load_8888_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 507c <_sk_load_8888_sse2+0xb3>
+ .byte 116,16 // je 50cf <_sk_load_8888_sse2+0xb3>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,137 // jne 4ffa <_sk_load_8888_sse2+0x31>
+ .byte 117,137 // jne 504d <_sk_load_8888_sse2+0x31>
.byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3
- .byte 233,116,255,255,255 // jmp 4ffa <_sk_load_8888_sse2+0x31>
+ .byte 233,116,255,255,255 // jmp 504d <_sk_load_8888_sse2+0x31>
.byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
- .byte 233,106,255,255,255 // jmp 4ffa <_sk_load_8888_sse2+0x31>
+ .byte 233,106,255,255,255 // jmp 504d <_sk_load_8888_sse2+0x31>
HIDDEN _sk_load_8888_dst_sse2
.globl _sk_load_8888_dst_sse2
@@ -66796,7 +68382,7 @@ _sk_load_8888_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 509e <_sk_load_8888_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 50f1 <_sk_load_8888_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66808,13 +68394,13 @@ _sk_load_8888_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,118 // jne 5132 <_sk_load_8888_dst_sse2+0xa2>
+ .byte 117,118 // jne 5185 <_sk_load_8888_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,82,174,0,0 // movdqa 0xae52(%edx),%xmm5
+ .byte 102,15,111,170,175,178,0,0 // movdqa 0xb2af(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,146,175,0,0 // movaps 0xaf92(%edx),%xmm7
+ .byte 15,40,186,239,179,0,0 // movaps 0xb3ef(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,16 // movaps %xmm6,0x10(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -66846,18 +68432,18 @@ _sk_load_8888_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,39 // je 5161 <_sk_load_8888_dst_sse2+0xd1>
+ .byte 116,39 // je 51b4 <_sk_load_8888_dst_sse2+0xd1>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,20 // je 5157 <_sk_load_8888_dst_sse2+0xc7>
+ .byte 116,20 // je 51aa <_sk_load_8888_dst_sse2+0xc7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,117,255,255,255 // jne 50c1 <_sk_load_8888_dst_sse2+0x31>
+ .byte 15,133,117,255,255,255 // jne 5114 <_sk_load_8888_dst_sse2+0x31>
.byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4
- .byte 233,96,255,255,255 // jmp 50c1 <_sk_load_8888_dst_sse2+0x31>
+ .byte 233,96,255,255,255 // jmp 5114 <_sk_load_8888_dst_sse2+0x31>
.byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
- .byte 233,86,255,255,255 // jmp 50c1 <_sk_load_8888_dst_sse2+0x31>
+ .byte 233,86,255,255,255 // jmp 5114 <_sk_load_8888_dst_sse2+0x31>
HIDDEN _sk_gather_8888_sse2
.globl _sk_gather_8888_sse2
@@ -66904,16 +68490,16 @@ _sk_gather_8888_sse2:
.byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3
.byte 102,15,126,201 // movd %xmm1,%ecx
.byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1
- .byte 232,0,0,0,0 // call 5211 <_sk_gather_8888_sse2+0xa6>
+ .byte 232,0,0,0,0 // call 5264 <_sk_gather_8888_sse2+0xa6>
.byte 89 // pop %ecx
.byte 102,15,98,194 // punpckldq %xmm2,%xmm0
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 102,15,111,145,223,172,0,0 // movdqa 0xacdf(%ecx),%xmm2
+ .byte 102,15,111,145,60,177,0,0 // movdqa 0xb13c(%ecx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,161,31,174,0,0 // movaps 0xae1f(%ecx),%xmm4
+ .byte 15,40,161,124,178,0,0 // movaps 0xb27c(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -66948,13 +68534,13 @@ _sk_store_8888_sse2:
.byte 86 // push %esi
.byte 131,236,44 // sub $0x2c,%esp
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 232,0,0,0,0 // call 5290 <_sk_store_8888_sse2+0x12>
+ .byte 232,0,0,0,0 // call 52e3 <_sk_store_8888_sse2+0x12>
.byte 88 // pop %eax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,40,168,160,171,0,0 // movaps 0xaba0(%eax),%xmm5
+ .byte 15,40,168,253,175,0,0 // movaps 0xaffd(%eax),%xmm5
.byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,40,176,112,172,0,0 // movaps 0xac70(%eax),%xmm6
+ .byte 15,40,176,205,176,0,0 // movaps 0xb0cd(%eax),%xmm6
.byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 15,87,255 // xorps %xmm7,%xmm7
@@ -66989,7 +68575,7 @@ _sk_store_8888_sse2:
.byte 3,55 // add (%edi),%esi
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
- .byte 117,32 // jne 533d <_sk_store_8888_sse2+0xbf>
+ .byte 117,32 // jne 5390 <_sk_store_8888_sse2+0xbf>
.byte 243,15,127,36,150 // movdqu %xmm4,(%esi,%edx,4)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -67006,17 +68592,17 @@ _sk_store_8888_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,28 // je 5361 <_sk_store_8888_sse2+0xe3>
+ .byte 116,28 // je 53b4 <_sk_store_8888_sse2+0xe3>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 535a <_sk_store_8888_sse2+0xdc>
+ .byte 116,16 // je 53ad <_sk_store_8888_sse2+0xdc>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,211 // jne 5322 <_sk_store_8888_sse2+0xa4>
+ .byte 117,211 // jne 5375 <_sk_store_8888_sse2+0xa4>
.byte 102,15,112,220,78 // pshufd $0x4e,%xmm4,%xmm3
.byte 102,15,126,92,150,8 // movd %xmm3,0x8(%esi,%edx,4)
.byte 102,15,214,36,150 // movq %xmm4,(%esi,%edx,4)
- .byte 235,193 // jmp 5322 <_sk_store_8888_sse2+0xa4>
+ .byte 235,193 // jmp 5375 <_sk_store_8888_sse2+0xa4>
.byte 102,15,126,36,150 // movd %xmm4,(%esi,%edx,4)
- .byte 235,186 // jmp 5322 <_sk_store_8888_sse2+0xa4>
+ .byte 235,186 // jmp 5375 <_sk_store_8888_sse2+0xa4>
HIDDEN _sk_load_bgra_sse2
.globl _sk_load_bgra_sse2
@@ -67028,7 +68614,7 @@ _sk_load_bgra_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 5376 <_sk_load_bgra_sse2+0xe>
+ .byte 232,0,0,0,0 // call 53c9 <_sk_load_bgra_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67040,13 +68626,13 @@ _sk_load_bgra_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 53fa <_sk_load_bgra_sse2+0x92>
+ .byte 117,102 // jne 544d <_sk_load_bgra_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,130,122,171,0,0 // movdqa 0xab7a(%edx),%xmm0
+ .byte 102,15,111,130,215,175,0,0 // movdqa 0xafd7(%edx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,162,186,172,0,0 // movaps 0xacba(%edx),%xmm4
+ .byte 15,40,162,23,177,0,0 // movaps 0xb117(%edx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -67074,18 +68660,18 @@ _sk_load_bgra_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,35 // je 5425 <_sk_load_bgra_sse2+0xbd>
+ .byte 116,35 // je 5478 <_sk_load_bgra_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 541b <_sk_load_bgra_sse2+0xb3>
+ .byte 116,16 // je 546e <_sk_load_bgra_sse2+0xb3>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,137 // jne 5399 <_sk_load_bgra_sse2+0x31>
+ .byte 117,137 // jne 53ec <_sk_load_bgra_sse2+0x31>
.byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3
- .byte 233,116,255,255,255 // jmp 5399 <_sk_load_bgra_sse2+0x31>
+ .byte 233,116,255,255,255 // jmp 53ec <_sk_load_bgra_sse2+0x31>
.byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
- .byte 233,106,255,255,255 // jmp 5399 <_sk_load_bgra_sse2+0x31>
+ .byte 233,106,255,255,255 // jmp 53ec <_sk_load_bgra_sse2+0x31>
HIDDEN _sk_load_bgra_dst_sse2
.globl _sk_load_bgra_dst_sse2
@@ -67097,7 +68683,7 @@ _sk_load_bgra_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 543d <_sk_load_bgra_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 5490 <_sk_load_bgra_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67109,13 +68695,13 @@ _sk_load_bgra_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,118 // jne 54d1 <_sk_load_bgra_dst_sse2+0xa2>
+ .byte 117,118 // jne 5524 <_sk_load_bgra_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,179,170,0,0 // movdqa 0xaab3(%edx),%xmm5
+ .byte 102,15,111,170,16,175,0,0 // movdqa 0xaf10(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,243,171,0,0 // movaps 0xabf3(%edx),%xmm7
+ .byte 15,40,186,80,176,0,0 // movaps 0xb050(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,48 // movaps %xmm6,0x30(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -67147,18 +68733,18 @@ _sk_load_bgra_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,39 // je 5500 <_sk_load_bgra_dst_sse2+0xd1>
+ .byte 116,39 // je 5553 <_sk_load_bgra_dst_sse2+0xd1>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,20 // je 54f6 <_sk_load_bgra_dst_sse2+0xc7>
+ .byte 116,20 // je 5549 <_sk_load_bgra_dst_sse2+0xc7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,117,255,255,255 // jne 5460 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 15,133,117,255,255,255 // jne 54b3 <_sk_load_bgra_dst_sse2+0x31>
.byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4
- .byte 233,96,255,255,255 // jmp 5460 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 233,96,255,255,255 // jmp 54b3 <_sk_load_bgra_dst_sse2+0x31>
.byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
- .byte 233,86,255,255,255 // jmp 5460 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 233,86,255,255,255 // jmp 54b3 <_sk_load_bgra_dst_sse2+0x31>
HIDDEN _sk_gather_bgra_sse2
.globl _sk_gather_bgra_sse2
@@ -67205,16 +68791,16 @@ _sk_gather_bgra_sse2:
.byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3
.byte 102,15,126,201 // movd %xmm1,%ecx
.byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1
- .byte 232,0,0,0,0 // call 55b0 <_sk_gather_bgra_sse2+0xa6>
+ .byte 232,0,0,0,0 // call 5603 <_sk_gather_bgra_sse2+0xa6>
.byte 89 // pop %ecx
.byte 102,15,98,194 // punpckldq %xmm2,%xmm0
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 102,15,111,129,64,169,0,0 // movdqa 0xa940(%ecx),%xmm0
+ .byte 102,15,111,129,157,173,0,0 // movdqa 0xad9d(%ecx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,161,128,170,0,0 // movaps 0xaa80(%ecx),%xmm4
+ .byte 15,40,161,221,174,0,0 // movaps 0xaedd(%ecx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -67249,14 +68835,14 @@ _sk_store_bgra_sse2:
.byte 86 // push %esi
.byte 131,236,44 // sub $0x2c,%esp
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 232,0,0,0,0 // call 562f <_sk_store_bgra_sse2+0x12>
+ .byte 232,0,0,0,0 // call 5682 <_sk_store_bgra_sse2+0x12>
.byte 88 // pop %eax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 15,95,226 // maxps %xmm2,%xmm4
- .byte 15,40,168,1,168,0,0 // movaps 0xa801(%eax),%xmm5
+ .byte 15,40,168,94,172,0,0 // movaps 0xac5e(%eax),%xmm5
.byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,40,176,209,168,0,0 // movaps 0xa8d1(%eax),%xmm6
+ .byte 15,40,176,46,173,0,0 // movaps 0xad2e(%eax),%xmm6
.byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 15,87,255 // xorps %xmm7,%xmm7
@@ -67290,7 +68876,7 @@ _sk_store_bgra_sse2:
.byte 3,55 // add (%edi),%esi
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
- .byte 117,32 // jne 56dc <_sk_store_bgra_sse2+0xbf>
+ .byte 117,32 // jne 572f <_sk_store_bgra_sse2+0xbf>
.byte 243,15,127,36,150 // movdqu %xmm4,(%esi,%edx,4)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -67307,17 +68893,314 @@ _sk_store_bgra_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,28 // je 5700 <_sk_store_bgra_sse2+0xe3>
+ .byte 116,28 // je 5753 <_sk_store_bgra_sse2+0xe3>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 56f9 <_sk_store_bgra_sse2+0xdc>
+ .byte 116,16 // je 574c <_sk_store_bgra_sse2+0xdc>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,211 // jne 56c1 <_sk_store_bgra_sse2+0xa4>
+ .byte 117,211 // jne 5714 <_sk_store_bgra_sse2+0xa4>
.byte 102,15,112,220,78 // pshufd $0x4e,%xmm4,%xmm3
.byte 102,15,126,92,150,8 // movd %xmm3,0x8(%esi,%edx,4)
.byte 102,15,214,36,150 // movq %xmm4,(%esi,%edx,4)
- .byte 235,193 // jmp 56c1 <_sk_store_bgra_sse2+0xa4>
+ .byte 235,193 // jmp 5714 <_sk_store_bgra_sse2+0xa4>
.byte 102,15,126,36,150 // movd %xmm4,(%esi,%edx,4)
- .byte 235,186 // jmp 56c1 <_sk_store_bgra_sse2+0xa4>
+ .byte 235,186 // jmp 5714 <_sk_store_bgra_sse2+0xa4>
+
+HIDDEN _sk_load_1010102_sse2
+.globl _sk_load_1010102_sse2
+FUNCTION(_sk_load_1010102_sse2)
+_sk_load_1010102_sse2:
+ .byte 85 // push %ebp
+ .byte 137,229 // mov %esp,%ebp
+ .byte 83 // push %ebx
+ .byte 87 // push %edi
+ .byte 86 // push %esi
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 5768 <_sk_load_1010102_sse2+0xe>
+ .byte 90 // pop %edx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,119,4 // mov 0x4(%edi),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
+ .byte 193,230,2 // shl $0x2,%esi
+ .byte 3,55 // add (%edi),%esi
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
+ .byte 133,219 // test %ebx,%ebx
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 117,106 // jne 57f0 <_sk_load_1010102_sse2+0x96>
+ .byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
+ .byte 102,15,111,146,40,176,0,0 // movdqa 0xb028(%edx),%xmm2
+ .byte 102,15,111,195 // movdqa %xmm3,%xmm0
+ .byte 102,15,219,194 // pand %xmm2,%xmm0
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 15,40,162,56,176,0,0 // movaps 0xb038(%edx),%xmm4
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 102,15,111,203 // movdqa %xmm3,%xmm1
+ .byte 102,15,114,209,10 // psrld $0xa,%xmm1
+ .byte 102,15,219,202 // pand %xmm2,%xmm1
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 15,89,204 // mulps %xmm4,%xmm1
+ .byte 102,15,111,235 // movdqa %xmm3,%xmm5
+ .byte 102,15,114,213,20 // psrld $0x14,%xmm5
+ .byte 102,15,219,234 // pand %xmm2,%xmm5
+ .byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
+ .byte 15,89,212 // mulps %xmm4,%xmm2
+ .byte 102,15,114,211,30 // psrld $0x1e,%xmm3
+ .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
+ .byte 15,89,154,72,173,0,0 // mulps 0xad48(%edx),%xmm3
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,28 // add $0x1c,%esp
+ .byte 94 // pop %esi
+ .byte 95 // pop %edi
+ .byte 91 // pop %ebx
+ .byte 93 // pop %ebp
+ .byte 195 // ret
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,35 // je 581b <_sk_load_1010102_sse2+0xc1>
+ .byte 102,15,239,219 // pxor %xmm3,%xmm3
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,16 // je 5811 <_sk_load_1010102_sse2+0xb7>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 117,133 // jne 578b <_sk_load_1010102_sse2+0x31>
+ .byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0
+ .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
+ .byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3
+ .byte 233,112,255,255,255 // jmp 578b <_sk_load_1010102_sse2+0x31>
+ .byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
+ .byte 233,102,255,255,255 // jmp 578b <_sk_load_1010102_sse2+0x31>
+
+HIDDEN _sk_load_1010102_dst_sse2
+.globl _sk_load_1010102_dst_sse2
+FUNCTION(_sk_load_1010102_dst_sse2)
+_sk_load_1010102_dst_sse2:
+ .byte 85 // push %ebp
+ .byte 137,229 // mov %esp,%ebp
+ .byte 83 // push %ebx
+ .byte 87 // push %edi
+ .byte 86 // push %esi
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 5833 <_sk_load_1010102_dst_sse2+0xe>
+ .byte 90 // pop %edx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,119,4 // mov 0x4(%edi),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
+ .byte 193,230,2 // shl $0x2,%esi
+ .byte 3,55 // add (%edi),%esi
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
+ .byte 133,219 // test %ebx,%ebx
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 117,122 // jne 58cb <_sk_load_1010102_dst_sse2+0xa6>
+ .byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
+ .byte 102,15,111,170,93,175,0,0 // movdqa 0xaf5d(%edx),%xmm5
+ .byte 102,15,111,244 // movdqa %xmm4,%xmm6
+ .byte 102,15,219,245 // pand %xmm5,%xmm6
+ .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
+ .byte 15,40,186,109,175,0,0 // movaps 0xaf6d(%edx),%xmm7
+ .byte 15,89,247 // mulps %xmm7,%xmm6
+ .byte 15,41,113,16 // movaps %xmm6,0x10(%ecx)
+ .byte 102,15,111,244 // movdqa %xmm4,%xmm6
+ .byte 102,15,114,214,10 // psrld $0xa,%xmm6
+ .byte 102,15,219,245 // pand %xmm5,%xmm6
+ .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
+ .byte 15,89,247 // mulps %xmm7,%xmm6
+ .byte 15,41,113,32 // movaps %xmm6,0x20(%ecx)
+ .byte 102,15,111,244 // movdqa %xmm4,%xmm6
+ .byte 102,15,114,214,20 // psrld $0x14,%xmm6
+ .byte 102,15,219,245 // pand %xmm5,%xmm6
+ .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
+ .byte 15,89,239 // mulps %xmm7,%xmm5
+ .byte 15,41,105,48 // movaps %xmm5,0x30(%ecx)
+ .byte 102,15,114,212,30 // psrld $0x1e,%xmm4
+ .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
+ .byte 15,89,162,125,172,0,0 // mulps 0xac7d(%edx),%xmm4
+ .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,28 // add $0x1c,%esp
+ .byte 94 // pop %esi
+ .byte 95 // pop %edi
+ .byte 91 // pop %ebx
+ .byte 93 // pop %ebp
+ .byte 195 // ret
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,39 // je 58fa <_sk_load_1010102_dst_sse2+0xd5>
+ .byte 102,15,239,228 // pxor %xmm4,%xmm4
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,20 // je 58f0 <_sk_load_1010102_dst_sse2+0xcb>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 15,133,113,255,255,255 // jne 5856 <_sk_load_1010102_dst_sse2+0x31>
+ .byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4
+ .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
+ .byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4
+ .byte 233,92,255,255,255 // jmp 5856 <_sk_load_1010102_dst_sse2+0x31>
+ .byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
+ .byte 233,82,255,255,255 // jmp 5856 <_sk_load_1010102_dst_sse2+0x31>
+
+HIDDEN _sk_gather_1010102_sse2
+.globl _sk_gather_1010102_sse2
+FUNCTION(_sk_gather_1010102_sse2)
+_sk_gather_1010102_sse2:
+ .byte 85 // push %ebp
+ .byte 137,229 // mov %esp,%ebp
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
+ .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
+ .byte 102,15,118,219 // pcmpeqd %xmm3,%xmm3
+ .byte 102,15,254,211 // paddd %xmm3,%xmm2
+ .byte 15,87,228 // xorps %xmm4,%xmm4
+ .byte 15,87,237 // xorps %xmm5,%xmm5
+ .byte 15,95,232 // maxps %xmm0,%xmm5
+ .byte 15,93,234 // minps %xmm2,%xmm5
+ .byte 243,15,16,65,12 // movss 0xc(%ecx),%xmm0
+ .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
+ .byte 102,15,254,195 // paddd %xmm3,%xmm0
+ .byte 15,95,225 // maxps %xmm1,%xmm4
+ .byte 15,93,224 // minps %xmm0,%xmm4
+ .byte 139,17 // mov (%ecx),%edx
+ .byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
+ .byte 102,15,110,73,4 // movd 0x4(%ecx),%xmm1
+ .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
+ .byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
+ .byte 102,15,244,209 // pmuludq %xmm1,%xmm2
+ .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
+ .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
+ .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1
+ .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
+ .byte 243,15,91,205 // cvttps2dq %xmm5,%xmm1
+ .byte 102,15,254,200 // paddd %xmm0,%xmm1
+ .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
+ .byte 102,15,112,209,231 // pshufd $0xe7,%xmm1,%xmm2
+ .byte 102,15,126,209 // movd %xmm2,%ecx
+ .byte 102,15,110,20,138 // movd (%edx,%ecx,4),%xmm2
+ .byte 102,15,126,193 // movd %xmm0,%ecx
+ .byte 102,15,110,4,138 // movd (%edx,%ecx,4),%xmm0
+ .byte 102,15,126,201 // movd %xmm1,%ecx
+ .byte 102,15,112,201,229 // pshufd $0xe5,%xmm1,%xmm1
+ .byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3
+ .byte 102,15,126,201 // movd %xmm1,%ecx
+ .byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1
+ .byte 232,0,0,0,0 // call 59aa <_sk_gather_1010102_sse2+0xa6>
+ .byte 89 // pop %ecx
+ .byte 102,15,98,194 // punpckldq %xmm2,%xmm0
+ .byte 102,15,98,217 // punpckldq %xmm1,%xmm3
+ .byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
+ .byte 102,15,111,145,230,173,0,0 // movdqa 0xade6(%ecx),%xmm2
+ .byte 102,15,111,195 // movdqa %xmm3,%xmm0
+ .byte 102,15,219,194 // pand %xmm2,%xmm0
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 15,40,161,246,173,0,0 // movaps 0xadf6(%ecx),%xmm4
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 102,15,111,203 // movdqa %xmm3,%xmm1
+ .byte 102,15,114,209,10 // psrld $0xa,%xmm1
+ .byte 102,15,219,202 // pand %xmm2,%xmm1
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 15,89,204 // mulps %xmm4,%xmm1
+ .byte 102,15,111,235 // movdqa %xmm3,%xmm5
+ .byte 102,15,114,213,20 // psrld $0x14,%xmm5
+ .byte 102,15,219,234 // pand %xmm2,%xmm5
+ .byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
+ .byte 15,89,212 // mulps %xmm4,%xmm2
+ .byte 102,15,114,211,30 // psrld $0x1e,%xmm3
+ .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
+ .byte 15,89,153,6,171,0,0 // mulps 0xab06(%ecx),%xmm3
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
+ .byte 93 // pop %ebp
+ .byte 195 // ret
+
+HIDDEN _sk_store_1010102_sse2
+.globl _sk_store_1010102_sse2
+FUNCTION(_sk_store_1010102_sse2)
+_sk_store_1010102_sse2:
+ .byte 85 // push %ebp
+ .byte 137,229 // mov %esp,%ebp
+ .byte 83 // push %ebx
+ .byte 87 // push %edi
+ .byte 86 // push %esi
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 5a29 <_sk_store_1010102_sse2+0xe>
+ .byte 88 // pop %eax
+ .byte 15,87,228 // xorps %xmm4,%xmm4
+ .byte 15,95,224 // maxps %xmm0,%xmm4
+ .byte 15,40,168,183,168,0,0 // movaps 0xa8b7(%eax),%xmm5
+ .byte 15,93,229 // minps %xmm5,%xmm4
+ .byte 15,40,176,135,173,0,0 // movaps 0xad87(%eax),%xmm6
+ .byte 15,89,230 // mulps %xmm6,%xmm4
+ .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
+ .byte 15,87,255 // xorps %xmm7,%xmm7
+ .byte 15,95,249 // maxps %xmm1,%xmm7
+ .byte 15,93,253 // minps %xmm5,%xmm7
+ .byte 15,89,254 // mulps %xmm6,%xmm7
+ .byte 102,15,91,255 // cvtps2dq %xmm7,%xmm7
+ .byte 102,15,114,247,10 // pslld $0xa,%xmm7
+ .byte 102,15,235,252 // por %xmm4,%xmm7
+ .byte 102,15,87,228 // xorpd %xmm4,%xmm4
+ .byte 15,95,226 // maxps %xmm2,%xmm4
+ .byte 15,93,229 // minps %xmm5,%xmm4
+ .byte 15,89,230 // mulps %xmm6,%xmm4
+ .byte 102,15,91,244 // cvtps2dq %xmm4,%xmm6
+ .byte 102,15,114,246,20 // pslld $0x14,%xmm6
+ .byte 102,15,235,247 // por %xmm7,%xmm6
+ .byte 15,87,228 // xorps %xmm4,%xmm4
+ .byte 15,95,227 // maxps %xmm3,%xmm4
+ .byte 15,93,229 // minps %xmm5,%xmm4
+ .byte 15,89,160,151,173,0,0 // mulps 0xad97(%eax),%xmm4
+ .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
+ .byte 102,15,114,244,30 // pslld $0x1e,%xmm4
+ .byte 102,15,235,230 // por %xmm6,%xmm4
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,17 // mov (%ecx),%edx
+ .byte 139,119,4 // mov 0x4(%edi),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
+ .byte 193,230,2 // shl $0x2,%esi
+ .byte 3,55 // add (%edi),%esi
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
+ .byte 133,219 // test %ebx,%ebx
+ .byte 117,24 // jne 5acd <_sk_store_1010102_sse2+0xb2>
+ .byte 243,15,127,36,150 // movdqu %xmm4,(%esi,%edx,4)
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,28 // add $0x1c,%esp
+ .byte 94 // pop %esi
+ .byte 95 // pop %edi
+ .byte 91 // pop %ebx
+ .byte 93 // pop %ebp
+ .byte 195 // ret
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,28 // je 5af1 <_sk_store_1010102_sse2+0xd6>
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,16 // je 5aea <_sk_store_1010102_sse2+0xcf>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 117,219 // jne 5aba <_sk_store_1010102_sse2+0x9f>
+ .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
+ .byte 102,15,126,108,150,8 // movd %xmm5,0x8(%esi,%edx,4)
+ .byte 102,15,214,36,150 // movq %xmm4,(%esi,%edx,4)
+ .byte 235,201 // jmp 5aba <_sk_store_1010102_sse2+0x9f>
+ .byte 102,15,126,36,150 // movd %xmm4,(%esi,%edx,4)
+ .byte 235,194 // jmp 5aba <_sk_store_1010102_sse2+0x9f>
HIDDEN _sk_load_f16_sse2
.globl _sk_load_f16_sse2
@@ -67329,7 +69212,7 @@ _sk_load_f16_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 5715 <_sk_load_f16_sse2+0xe>
+ .byte 232,0,0,0,0 // call 5b06 <_sk_load_f16_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67341,7 +69224,7 @@ _sk_load_f16_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,173,1,0,0 // jne 58e4 <_sk_load_f16_sse2+0x1dd>
+ .byte 15,133,173,1,0,0 // jne 5cd5 <_sk_load_f16_sse2+0x1dd>
.byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0
.byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1
.byte 102,15,40,216 // movapd %xmm0,%xmm3
@@ -67371,11 +69254,11 @@ _sk_load_f16_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,170,203,171,0,0 // movdqa 0xabcb(%edx),%xmm5
+ .byte 102,15,111,170,202,172,0,0 // movdqa 0xacca(%edx),%xmm5
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 102,15,219,138,219,171,0,0 // pand 0xabdb(%edx),%xmm1
- .byte 102,15,111,130,235,171,0,0 // movdqa 0xabeb(%edx),%xmm0
+ .byte 102,15,219,138,218,172,0,0 // pand 0xacda(%edx),%xmm1
+ .byte 102,15,111,130,234,172,0,0 // movdqa 0xacea(%edx),%xmm0
.byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
@@ -67387,7 +69270,7 @@ _sk_load_f16_sse2:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,219,213 // pand %xmm5,%xmm2
- .byte 102,15,111,154,219,171,0,0 // movdqa 0xabdb(%edx),%xmm3
+ .byte 102,15,111,154,218,172,0,0 // movdqa 0xacda(%edx),%xmm3
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,102,196 // pcmpgtd %xmm4,%xmm0
@@ -67400,7 +69283,7 @@ _sk_load_f16_sse2:
.byte 102,15,219,253 // pand %xmm5,%xmm7
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,146,235,171,0,0 // movdqa 0xabeb(%edx),%xmm2
+ .byte 102,15,111,146,234,172,0,0 // movdqa 0xacea(%edx),%xmm2
.byte 102,15,102,208 // pcmpgtd %xmm0,%xmm2
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
.byte 102,15,235,199 // por %xmm7,%xmm0
@@ -67415,7 +69298,7 @@ _sk_load_f16_sse2:
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
.byte 102,15,114,247,13 // pslld $0xd,%xmm7
.byte 102,15,235,253 // por %xmm5,%xmm7
- .byte 102,15,111,154,251,171,0,0 // movdqa 0xabfb(%edx),%xmm3
+ .byte 102,15,111,154,250,172,0,0 // movdqa 0xacfa(%edx),%xmm3
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,15,254,227 // paddd %xmm3,%xmm4
.byte 102,15,254,195 // paddd %xmm3,%xmm0
@@ -67443,12 +69326,12 @@ _sk_load_f16_sse2:
.byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,76,254,255,255 // je 5742 <_sk_load_f16_sse2+0x3b>
+ .byte 15,132,76,254,255,255 // je 5b33 <_sk_load_f16_sse2+0x3b>
.byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0
.byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,61,254,255,255 // jb 5742 <_sk_load_f16_sse2+0x3b>
+ .byte 15,130,61,254,255,255 // jb 5b33 <_sk_load_f16_sse2+0x3b>
.byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1
- .byte 233,50,254,255,255 // jmp 5742 <_sk_load_f16_sse2+0x3b>
+ .byte 233,50,254,255,255 // jmp 5b33 <_sk_load_f16_sse2+0x3b>
HIDDEN _sk_load_f16_dst_sse2
.globl _sk_load_f16_dst_sse2
@@ -67464,7 +69347,7 @@ _sk_load_f16_dst_sse2:
.byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp)
.byte 102,15,127,77,152 // movdqa %xmm1,-0x68(%ebp)
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
- .byte 232,0,0,0,0 // call 5932 <_sk_load_f16_dst_sse2+0x22>
+ .byte 232,0,0,0,0 // call 5d23 <_sk_load_f16_dst_sse2+0x22>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67476,7 +69359,7 @@ _sk_load_f16_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,168,1,0,0 // jne 5afc <_sk_load_f16_dst_sse2+0x1ec>
+ .byte 15,133,168,1,0,0 // jne 5eed <_sk_load_f16_dst_sse2+0x1ec>
.byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0
.byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -67504,18 +69387,18 @@ _sk_load_f16_dst_sse2:
.byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp)
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,15,97,202 // punpcklwd %xmm2,%xmm1
- .byte 102,15,111,186,174,169,0,0 // movdqa 0xa9ae(%edx),%xmm7
+ .byte 102,15,111,186,173,170,0,0 // movdqa 0xaaad(%edx),%xmm7
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,215 // pand %xmm7,%xmm2
- .byte 102,15,111,154,190,169,0,0 // movdqa 0xa9be(%edx),%xmm3
+ .byte 102,15,111,154,189,170,0,0 // movdqa 0xaabd(%edx),%xmm3
.byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 102,15,111,162,206,169,0,0 // movdqa 0xa9ce(%edx),%xmm4
+ .byte 102,15,111,162,205,170,0,0 // movdqa 0xaacd(%edx),%xmm4
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,102,233 // pcmpgtd %xmm1,%xmm5
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,111,146,222,169,0,0 // movdqa 0xa9de(%edx),%xmm2
+ .byte 102,15,111,146,221,170,0,0 // movdqa 0xaadd(%edx),%xmm2
.byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
.byte 102,15,254,202 // paddd %xmm2,%xmm1
.byte 102,15,223,233 // pandn %xmm1,%xmm5
@@ -67578,12 +69461,12 @@ _sk_load_f16_dst_sse2:
.byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,81,254,255,255 // je 595f <_sk_load_f16_dst_sse2+0x4f>
+ .byte 15,132,81,254,255,255 // je 5d50 <_sk_load_f16_dst_sse2+0x4f>
.byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0
.byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,66,254,255,255 // jb 595f <_sk_load_f16_dst_sse2+0x4f>
+ .byte 15,130,66,254,255,255 // jb 5d50 <_sk_load_f16_dst_sse2+0x4f>
.byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1
- .byte 233,55,254,255,255 // jmp 595f <_sk_load_f16_dst_sse2+0x4f>
+ .byte 233,55,254,255,255 // jmp 5d50 <_sk_load_f16_dst_sse2+0x4f>
HIDDEN _sk_gather_f16_sse2
.globl _sk_gather_f16_sse2
@@ -67630,7 +69513,7 @@ _sk_gather_f16_sse2:
.byte 243,15,126,28,202 // movq (%edx,%ecx,8),%xmm3
.byte 102,15,126,201 // movd %xmm1,%ecx
.byte 243,15,126,12,202 // movq (%edx,%ecx,8),%xmm1
- .byte 232,0,0,0,0 // call 5bce <_sk_gather_f16_sse2+0xa6>
+ .byte 232,0,0,0,0 // call 5fbf <_sk_gather_f16_sse2+0xa6>
.byte 89 // pop %ecx
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,15,108,194 // punpcklqdq %xmm2,%xmm0
@@ -67661,11 +69544,11 @@ _sk_gather_f16_sse2:
.byte 102,15,126,69,248 // movd %xmm0,-0x8(%ebp)
.byte 102,15,97,206 // punpcklwd %xmm6,%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,177,18,167,0,0 // movdqa 0xa712(%ecx),%xmm6
+ .byte 102,15,111,177,17,168,0,0 // movdqa 0xa811(%ecx),%xmm6
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 102,15,219,137,34,167,0,0 // pand 0xa722(%ecx),%xmm1
- .byte 102,15,111,129,50,167,0,0 // movdqa 0xa732(%ecx),%xmm0
+ .byte 102,15,219,137,33,168,0,0 // pand 0xa821(%ecx),%xmm1
+ .byte 102,15,111,129,49,168,0,0 // movdqa 0xa831(%ecx),%xmm0
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,102,217 // pcmpgtd %xmm1,%xmm3
@@ -67676,7 +69559,7 @@ _sk_gather_f16_sse2:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,111,213 // movdqa %xmm5,%xmm2
.byte 102,15,219,214 // pand %xmm6,%xmm2
- .byte 102,15,111,153,34,167,0,0 // movdqa 0xa722(%ecx),%xmm3
+ .byte 102,15,111,153,33,168,0,0 // movdqa 0xa821(%ecx),%xmm3
.byte 102,15,219,235 // pand %xmm3,%xmm5
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
@@ -67690,7 +69573,7 @@ _sk_gather_f16_sse2:
.byte 102,15,219,254 // pand %xmm6,%xmm7
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,145,50,167,0,0 // movdqa 0xa732(%ecx),%xmm2
+ .byte 102,15,111,145,49,168,0,0 // movdqa 0xa831(%ecx),%xmm2
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,102,216 // pcmpgtd %xmm0,%xmm3
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
@@ -67699,12 +69582,12 @@ _sk_gather_f16_sse2:
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,97,252 // punpcklwd %xmm4,%xmm7
.byte 102,15,219,247 // pand %xmm7,%xmm6
- .byte 102,15,219,185,34,167,0,0 // pand 0xa722(%ecx),%xmm7
+ .byte 102,15,219,185,33,168,0,0 // pand 0xa821(%ecx),%xmm7
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,102,215 // pcmpgtd %xmm7,%xmm2
.byte 102,15,114,247,13 // pslld $0xd,%xmm7
.byte 102,15,235,254 // por %xmm6,%xmm7
- .byte 102,15,111,161,66,167,0,0 // movdqa 0xa742(%ecx),%xmm4
+ .byte 102,15,111,161,65,168,0,0 // movdqa 0xa841(%ecx),%xmm4
.byte 102,15,254,204 // paddd %xmm4,%xmm1
.byte 102,15,254,236 // paddd %xmm4,%xmm5
.byte 102,15,254,196 // paddd %xmm4,%xmm0
@@ -67741,24 +69624,24 @@ _sk_store_f16_sse2:
.byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 232,0,0,0,0 // call 5d92 <_sk_store_f16_sse2+0x19>
+ .byte 232,0,0,0,0 // call 6183 <_sk_store_f16_sse2+0x19>
.byte 88 // pop %eax
- .byte 102,15,111,152,142,165,0,0 // movdqa 0xa58e(%eax),%xmm3
+ .byte 102,15,111,152,141,166,0,0 // movdqa 0xa68d(%eax),%xmm3
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
- .byte 102,15,111,136,190,165,0,0 // movdqa 0xa5be(%eax),%xmm1
+ .byte 102,15,111,136,189,166,0,0 // movdqa 0xa6bd(%eax),%xmm1
.byte 102,15,127,77,232 // movdqa %xmm1,-0x18(%ebp)
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,114,246,3 // pslld $0x3,%xmm6
.byte 102,15,219,241 // pand %xmm1,%xmm6
.byte 102,15,254,244 // paddd %xmm4,%xmm6
- .byte 102,15,111,184,158,165,0,0 // movdqa 0xa59e(%eax),%xmm7
+ .byte 102,15,111,184,157,166,0,0 // movdqa 0xa69d(%eax),%xmm7
.byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp)
.byte 102,15,219,199 // pand %xmm7,%xmm0
- .byte 102,15,111,168,174,165,0,0 // movdqa 0xa5ae(%eax),%xmm5
+ .byte 102,15,111,168,173,166,0,0 // movdqa 0xa6ad(%eax),%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,102,200 // pcmpgtd %xmm0,%xmm1
- .byte 102,15,111,128,62,162,0,0 // movdqa 0xa23e(%eax),%xmm0
+ .byte 102,15,111,128,253,162,0,0 // movdqa 0xa2fd(%eax),%xmm0
.byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
.byte 102,15,254,240 // paddd %xmm0,%xmm6
.byte 102,15,114,230,16 // psrad $0x10,%xmm6
@@ -67820,7 +69703,7 @@ _sk_store_f16_sse2:
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,98,198 // punpckldq %xmm6,%xmm0
.byte 133,255 // test %edi,%edi
- .byte 117,48 // jne 5f13 <_sk_store_f16_sse2+0x19a>
+ .byte 117,48 // jne 6304 <_sk_store_f16_sse2+0x19a>
.byte 15,17,4,214 // movups %xmm0,(%esi,%edx,8)
.byte 102,15,106,206 // punpckhdq %xmm6,%xmm1
.byte 243,15,127,76,214,16 // movdqu %xmm1,0x10(%esi,%edx,8)
@@ -67840,13 +69723,13 @@ _sk_store_f16_sse2:
.byte 195 // ret
.byte 102,15,214,4,214 // movq %xmm0,(%esi,%edx,8)
.byte 131,255,1 // cmp $0x1,%edi
- .byte 116,212 // je 5ef1 <_sk_store_f16_sse2+0x178>
+ .byte 116,212 // je 62e2 <_sk_store_f16_sse2+0x178>
.byte 102,15,23,68,214,8 // movhpd %xmm0,0x8(%esi,%edx,8)
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,201 // jb 5ef1 <_sk_store_f16_sse2+0x178>
+ .byte 114,201 // jb 62e2 <_sk_store_f16_sse2+0x178>
.byte 102,15,106,206 // punpckhdq %xmm6,%xmm1
.byte 102,15,214,76,214,16 // movq %xmm1,0x10(%esi,%edx,8)
- .byte 235,189 // jmp 5ef1 <_sk_store_f16_sse2+0x178>
+ .byte 235,189 // jmp 62e2 <_sk_store_f16_sse2+0x178>
HIDDEN _sk_load_u16_be_sse2
.globl _sk_load_u16_be_sse2
@@ -67869,9 +69752,9 @@ _sk_load_u16_be_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 193,230,2 // shl $0x2,%esi
.byte 133,219 // test %ebx,%ebx
- .byte 232,0,0,0,0 // call 5f5f <_sk_load_u16_be_sse2+0x2b>
+ .byte 232,0,0,0,0 // call 6350 <_sk_load_u16_be_sse2+0x2b>
.byte 90 // pop %edx
- .byte 15,133,11,1,0,0 // jne 6071 <_sk_load_u16_be_sse2+0x13d>
+ .byte 15,133,11,1,0,0 // jne 6462 <_sk_load_u16_be_sse2+0x13d>
.byte 102,15,16,4,119 // movupd (%edi,%esi,2),%xmm0
.byte 243,15,111,76,119,16 // movdqu 0x10(%edi,%esi,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -67892,7 +69775,7 @@ _sk_load_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,81,161,0,0 // movaps 0xa151(%edx),%xmm4
+ .byte 15,40,162,16,162,0,0 // movaps 0xa210(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -67942,12 +69825,12 @@ _sk_load_u16_be_sse2:
.byte 242,15,16,4,119 // movsd (%edi,%esi,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,238,254,255,255 // je 5f71 <_sk_load_u16_be_sse2+0x3d>
+ .byte 15,132,238,254,255,255 // je 6362 <_sk_load_u16_be_sse2+0x3d>
.byte 102,15,22,68,119,8 // movhpd 0x8(%edi,%esi,2),%xmm0
.byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,223,254,255,255 // jb 5f71 <_sk_load_u16_be_sse2+0x3d>
+ .byte 15,130,223,254,255,255 // jb 6362 <_sk_load_u16_be_sse2+0x3d>
.byte 243,15,126,76,119,16 // movq 0x10(%edi,%esi,2),%xmm1
- .byte 233,212,254,255,255 // jmp 5f71 <_sk_load_u16_be_sse2+0x3d>
+ .byte 233,212,254,255,255 // jmp 6362 <_sk_load_u16_be_sse2+0x3d>
HIDDEN _sk_load_rgb_u16_be_sse2
.globl _sk_load_rgb_u16_be_sse2
@@ -67969,9 +69852,9 @@ _sk_load_rgb_u16_be_sse2:
.byte 3,50 // add (%edx),%esi
.byte 107,25,3 // imul $0x3,(%ecx),%ebx
.byte 133,255 // test %edi,%edi
- .byte 232,0,0,0,0 // call 60c6 <_sk_load_rgb_u16_be_sse2+0x29>
+ .byte 232,0,0,0,0 // call 64b7 <_sk_load_rgb_u16_be_sse2+0x29>
.byte 90 // pop %edx
- .byte 15,133,240,0,0,0 // jne 61bd <_sk_load_rgb_u16_be_sse2+0x120>
+ .byte 15,133,240,0,0,0 // jne 65ae <_sk_load_rgb_u16_be_sse2+0x120>
.byte 243,15,111,20,94 // movdqu (%esi,%ebx,2),%xmm2
.byte 243,15,111,92,94,8 // movdqu 0x8(%esi,%ebx,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -67996,7 +69879,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,170,234,159,0,0 // movaps 0x9fea(%edx),%xmm5
+ .byte 15,40,170,169,160,0,0 // movaps 0xa0a9(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -68022,7 +69905,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,106,157,0,0 // movaps 0x9d6a(%edx),%xmm3
+ .byte 15,40,154,41,158,0,0 // movaps 0x9e29(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -68036,20 +69919,20 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,15,196,84,94,4,2 // pinsrw $0x2,0x4(%esi,%ebx,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,13 // jne 61df <_sk_load_rgb_u16_be_sse2+0x142>
+ .byte 117,13 // jne 65d0 <_sk_load_rgb_u16_be_sse2+0x142>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,16,255,255,255 // jmp 60ef <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 233,16,255,255,255 // jmp 64e0 <_sk_load_rgb_u16_be_sse2+0x52>
.byte 102,15,110,68,94,6 // movd 0x6(%esi,%ebx,2),%xmm0
.byte 102,15,196,68,94,10,2 // pinsrw $0x2,0xa(%esi,%ebx,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,18 // jb 6207 <_sk_load_rgb_u16_be_sse2+0x16a>
+ .byte 114,18 // jb 65f8 <_sk_load_rgb_u16_be_sse2+0x16a>
.byte 102,15,110,92,94,12 // movd 0xc(%esi,%ebx,2),%xmm3
.byte 102,15,196,92,94,16,2 // pinsrw $0x2,0x10(%esi,%ebx,2),%xmm3
- .byte 233,232,254,255,255 // jmp 60ef <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 233,232,254,255,255 // jmp 64e0 <_sk_load_rgb_u16_be_sse2+0x52>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,223,254,255,255 // jmp 60ef <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 233,223,254,255,255 // jmp 64e0 <_sk_load_rgb_u16_be_sse2+0x52>
HIDDEN _sk_store_u16_be_sse2
.globl _sk_store_u16_be_sse2
@@ -68061,13 +69944,13 @@ _sk_store_u16_be_sse2:
.byte 86 // push %esi
.byte 131,236,32 // sub $0x20,%esp
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
- .byte 232,0,0,0,0 // call 6221 <_sk_store_u16_be_sse2+0x11>
+ .byte 232,0,0,0,0 // call 6612 <_sk_store_u16_be_sse2+0x11>
.byte 88 // pop %eax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,40,168,15,156,0,0 // movaps 0x9c0f(%eax),%xmm5
+ .byte 15,40,168,206,156,0,0 // movaps 0x9cce(%eax),%xmm5
.byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,40,176,63,161,0,0 // movaps 0xa13f(%eax),%xmm6
+ .byte 15,40,176,62,162,0,0 // movaps 0xa23e(%eax),%xmm6
.byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
@@ -68127,7 +70010,7 @@ _sk_store_u16_be_sse2:
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 193,226,2 // shl $0x2,%edx
.byte 133,255 // test %edi,%edi
- .byte 117,49 // jne 6350 <_sk_store_u16_be_sse2+0x140>
+ .byte 117,49 // jne 6741 <_sk_store_u16_be_sse2+0x140>
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,98,223 // punpckldq %xmm7,%xmm3
.byte 243,15,127,28,86 // movdqu %xmm3,(%esi,%edx,2)
@@ -68149,13 +70032,13 @@ _sk_store_u16_be_sse2:
.byte 102,15,98,239 // punpckldq %xmm7,%xmm5
.byte 102,15,214,44,86 // movq %xmm5,(%esi,%edx,2)
.byte 131,255,1 // cmp $0x1,%edi
- .byte 116,212 // je 6336 <_sk_store_u16_be_sse2+0x126>
+ .byte 116,212 // je 6727 <_sk_store_u16_be_sse2+0x126>
.byte 102,15,23,108,86,8 // movhpd %xmm5,0x8(%esi,%edx,2)
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,201 // jb 6336 <_sk_store_u16_be_sse2+0x126>
+ .byte 114,201 // jb 6727 <_sk_store_u16_be_sse2+0x126>
.byte 102,15,106,231 // punpckhdq %xmm7,%xmm4
.byte 102,15,214,100,86,16 // movq %xmm4,0x10(%esi,%edx,2)
- .byte 235,189 // jmp 6336 <_sk_store_u16_be_sse2+0x126>
+ .byte 235,189 // jmp 6727 <_sk_store_u16_be_sse2+0x126>
HIDDEN _sk_load_f32_sse2
.globl _sk_load_f32_sse2
@@ -68178,7 +70061,7 @@ _sk_load_f32_sse2:
.byte 15,16,36,23 // movups (%edi,%edx,1),%xmm4
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 133,255 // test %edi,%edi
- .byte 117,71 // jne 63f0 <_sk_load_f32_sse2+0x77>
+ .byte 117,71 // jne 67e1 <_sk_load_f32_sse2+0x77>
.byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
.byte 15,16,68,178,48 // movups 0x30(%edx,%esi,4),%xmm0
@@ -68206,17 +70089,17 @@ _sk_load_f32_sse2:
.byte 195 // ret
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,8 // jne 6400 <_sk_load_f32_sse2+0x87>
+ .byte 117,8 // jne 67f1 <_sk_load_f32_sse2+0x87>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 235,184 // jmp 63b8 <_sk_load_f32_sse2+0x3f>
+ .byte 235,184 // jmp 67a9 <_sk_load_f32_sse2+0x3f>
.byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,7 // jb 6411 <_sk_load_f32_sse2+0x98>
+ .byte 114,7 // jb 6802 <_sk_load_f32_sse2+0x98>
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
- .byte 235,167 // jmp 63b8 <_sk_load_f32_sse2+0x3f>
+ .byte 235,167 // jmp 67a9 <_sk_load_f32_sse2+0x3f>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,162 // jmp 63b8 <_sk_load_f32_sse2+0x3f>
+ .byte 235,162 // jmp 67a9 <_sk_load_f32_sse2+0x3f>
HIDDEN _sk_load_f32_dst_sse2
.globl _sk_load_f32_dst_sse2
@@ -68242,7 +70125,7 @@ _sk_load_f32_dst_sse2:
.byte 15,16,52,23 // movups (%edi,%edx,1),%xmm6
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 133,255 // test %edi,%edi
- .byte 117,97 // jne 64b2 <_sk_load_f32_dst_sse2+0x9c>
+ .byte 117,97 // jne 68a3 <_sk_load_f32_dst_sse2+0x9c>
.byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
.byte 15,16,84,178,48 // movups 0x30(%edx,%esi,4),%xmm2
@@ -68276,17 +70159,17 @@ _sk_load_f32_dst_sse2:
.byte 195 // ret
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,8 // jne 64c2 <_sk_load_f32_dst_sse2+0xac>
+ .byte 117,8 // jne 68b3 <_sk_load_f32_dst_sse2+0xac>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,158 // jmp 6460 <_sk_load_f32_dst_sse2+0x4a>
+ .byte 235,158 // jmp 6851 <_sk_load_f32_dst_sse2+0x4a>
.byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,7 // jb 64d3 <_sk_load_f32_dst_sse2+0xbd>
+ .byte 114,7 // jb 68c4 <_sk_load_f32_dst_sse2+0xbd>
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
- .byte 235,141 // jmp 6460 <_sk_load_f32_dst_sse2+0x4a>
+ .byte 235,141 // jmp 6851 <_sk_load_f32_dst_sse2+0x4a>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,136 // jmp 6460 <_sk_load_f32_dst_sse2+0x4a>
+ .byte 235,136 // jmp 6851 <_sk_load_f32_dst_sse2+0x4a>
HIDDEN _sk_store_f32_sse2
.globl _sk_store_f32_sse2
@@ -68324,7 +70207,7 @@ _sk_store_f32_sse2:
.byte 15,40,238 // movaps %xmm6,%xmm5
.byte 102,15,20,239 // unpcklpd %xmm7,%xmm5
.byte 133,255 // test %edi,%edi
- .byte 117,40 // jne 655e <_sk_store_f32_sse2+0x86>
+ .byte 117,40 // jne 694f <_sk_store_f32_sse2+0x86>
.byte 102,15,21,247 // unpckhpd %xmm7,%xmm6
.byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4)
.byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4)
@@ -68341,12 +70224,12 @@ _sk_store_f32_sse2:
.byte 93 // pop %ebp
.byte 195 // ret
.byte 131,255,1 // cmp $0x1,%edi
- .byte 116,232 // je 654b <_sk_store_f32_sse2+0x73>
+ .byte 116,232 // je 693c <_sk_store_f32_sse2+0x73>
.byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4)
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,222 // jb 654b <_sk_store_f32_sse2+0x73>
+ .byte 114,222 // jb 693c <_sk_store_f32_sse2+0x73>
.byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4)
- .byte 235,214 // jmp 654b <_sk_store_f32_sse2+0x73>
+ .byte 235,214 // jmp 693c <_sk_store_f32_sse2+0x73>
HIDDEN _sk_repeat_x_sse2
.globl _sk_repeat_x_sse2
@@ -68355,7 +70238,7 @@ _sk_repeat_x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6580 <_sk_repeat_x_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6971 <_sk_repeat_x_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,17 // mov (%ecx),%edx
@@ -68366,7 +70249,7 @@ _sk_repeat_x_sse2:
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,168,176,152,0,0 // andps 0x98b0(%eax),%xmm5
+ .byte 15,84,168,111,153,0,0 // andps 0x996f(%eax),%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,230 // mulps %xmm6,%xmm4
@@ -68387,7 +70270,7 @@ _sk_repeat_y_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 65d2 <_sk_repeat_y_sse2+0xb>
+ .byte 232,0,0,0,0 // call 69c3 <_sk_repeat_y_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,17 // mov (%ecx),%edx
@@ -68398,7 +70281,7 @@ _sk_repeat_y_sse2:
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,168,94,152,0,0 // andps 0x985e(%eax),%xmm5
+ .byte 15,84,168,29,153,0,0 // andps 0x991d(%eax),%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,230 // mulps %xmm6,%xmm4
@@ -68419,7 +70302,7 @@ _sk_mirror_x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6624 <_sk_mirror_x_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6a15 <_sk_mirror_x_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -68428,13 +70311,13 @@ _sk_mirror_x_sse2:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 243,15,89,169,204,159,0,0 // mulss 0x9fcc(%ecx),%xmm5
+ .byte 243,15,89,169,203,160,0,0 // mulss 0xa0cb(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,169,12,152,0,0 // andps 0x980c(%ecx),%xmm5
+ .byte 15,84,169,203,152,0,0 // andps 0x98cb(%ecx),%xmm5
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 243,15,88,228 // addss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
@@ -68460,7 +70343,7 @@ _sk_mirror_y_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6698 <_sk_mirror_y_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6a89 <_sk_mirror_y_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -68469,13 +70352,13 @@ _sk_mirror_y_sse2:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,92,206 // subps %xmm6,%xmm1
- .byte 243,15,89,169,88,159,0,0 // mulss 0x9f58(%ecx),%xmm5
+ .byte 243,15,89,169,87,160,0,0 // mulss 0xa057(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,169,152,151,0,0 // andps 0x9798(%ecx),%xmm5
+ .byte 15,84,169,87,152,0,0 // andps 0x9857(%ecx),%xmm5
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 243,15,88,228 // addss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
@@ -68501,12 +70384,12 @@ _sk_clamp_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 670c <_sk_clamp_x_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6afd <_sk_clamp_x_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,93,160,36,151,0,0 // minps 0x9724(%eax),%xmm4
+ .byte 15,93,160,227,151,0,0 // minps 0x97e3(%eax),%xmm4
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -68524,14 +70407,14 @@ _sk_repeat_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 673c <_sk_repeat_x_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6b2d <_sk_repeat_x_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 243,15,91,224 // cvttps2dq %xmm0,%xmm4
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,194,245,1 // cmpltps %xmm5,%xmm6
- .byte 15,40,184,244,150,0,0 // movaps 0x96f4(%eax),%xmm7
+ .byte 15,40,184,179,151,0,0 // movaps 0x97b3(%eax),%xmm7
.byte 15,84,247 // andps %xmm7,%xmm6
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,92,238 // subps %xmm6,%xmm5
@@ -68555,16 +70438,16 @@ _sk_mirror_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6786 <_sk_mirror_x_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6b77 <_sk_mirror_x_1_sse2+0xb>
.byte 88 // pop %eax
- .byte 15,40,160,26,151,0,0 // movaps 0x971a(%eax),%xmm4
+ .byte 15,40,160,217,151,0,0 // movaps 0x97d9(%eax),%xmm4
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,168,154,150,0,0 // movaps 0x969a(%eax),%xmm5
+ .byte 15,40,168,89,151,0,0 // movaps 0x9759(%eax),%xmm5
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,40,184,170,150,0,0 // movaps 0x96aa(%eax),%xmm7
+ .byte 15,40,184,105,151,0,0 // movaps 0x9769(%eax),%xmm7
.byte 15,84,239 // andps %xmm7,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,88,246 // addps %xmm6,%xmm6
@@ -68594,13 +70477,13 @@ _sk_luminance_to_alpha_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 67f0 <_sk_luminance_to_alpha_sse2+0xe>
+ .byte 232,0,0,0,0 // call 6be1 <_sk_luminance_to_alpha_sse2+0xe>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,128,128,155,0,0 // mulps 0x9b80(%eax),%xmm0
- .byte 15,89,136,144,155,0,0 // mulps 0x9b90(%eax),%xmm1
+ .byte 15,89,128,127,156,0,0 // mulps 0x9c7f(%eax),%xmm0
+ .byte 15,89,136,143,156,0,0 // mulps 0x9c8f(%eax),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,152,160,155,0,0 // mulps 0x9ba0(%eax),%xmm3
+ .byte 15,89,152,159,156,0,0 // mulps 0x9c9f(%eax),%xmm3
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -68987,7 +70870,7 @@ _sk_evenly_spaced_gradient_sse2:
.byte 86 // push %esi
.byte 131,236,60 // sub $0x3c,%esp
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 6c86 <_sk_evenly_spaced_gradient_sse2+0x12>
+ .byte 232,0,0,0,0 // call 7077 <_sk_evenly_spaced_gradient_sse2+0x12>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -68996,12 +70879,12 @@ _sk_evenly_spaced_gradient_sse2:
.byte 78 // dec %esi
.byte 102,15,110,206 // movd %esi,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,111,146,26,151,0,0 // movdqa 0x971a(%edx),%xmm2
+ .byte 102,15,111,146,25,152,0,0 // movdqa 0x9819(%edx),%xmm2
.byte 102,15,219,209 // pand %xmm1,%xmm2
- .byte 102,15,235,146,218,148,0,0 // por 0x94da(%edx),%xmm2
+ .byte 102,15,235,146,153,149,0,0 // por 0x9599(%edx),%xmm2
.byte 102,15,114,209,16 // psrld $0x10,%xmm1
- .byte 102,15,235,138,42,151,0,0 // por 0x972a(%edx),%xmm1
- .byte 15,88,138,58,151,0,0 // addps 0x973a(%edx),%xmm1
+ .byte 102,15,235,138,41,152,0,0 // por 0x9829(%edx),%xmm1
+ .byte 15,88,138,57,152,0,0 // addps 0x9839(%edx),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
@@ -69115,7 +70998,7 @@ _sk_gradient_sse2:
.byte 139,10 // mov (%edx),%ecx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,249,2 // cmp $0x2,%ecx
- .byte 114,33 // jb 6e6e <_sk_gradient_sse2+0x3a>
+ .byte 114,33 // jb 725f <_sk_gradient_sse2+0x3a>
.byte 139,114,36 // mov 0x24(%edx),%esi
.byte 73 // dec %ecx
.byte 131,198,4 // add $0x4,%esi
@@ -69126,7 +71009,7 @@ _sk_gradient_sse2:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 131,198,4 // add $0x4,%esi
.byte 73 // dec %ecx
- .byte 117,234 // jne 6e58 <_sk_gradient_sse2+0x24>
+ .byte 117,234 // jne 7249 <_sk_gradient_sse2+0x24>
.byte 102,15,126,206 // movd %xmm1,%esi
.byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2
.byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
@@ -69279,7 +71162,7 @@ _sk_xy_to_unit_angle_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 7076 <_sk_xy_to_unit_angle_sse2+0x18>
+ .byte 232,0,0,0,0 // call 7467 <_sk_xy_to_unit_angle_sse2+0x18>
.byte 88 // pop %eax
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
@@ -69294,30 +71177,30 @@ _sk_xy_to_unit_angle_sse2:
.byte 15,94,247 // divps %xmm7,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,255 // mulps %xmm7,%xmm7
- .byte 15,40,128,90,147,0,0 // movaps 0x935a(%eax),%xmm0
+ .byte 15,40,128,89,148,0,0 // movaps 0x9459(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,106,147,0,0 // addps 0x936a(%eax),%xmm0
+ .byte 15,88,128,105,148,0,0 // addps 0x9469(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,122,147,0,0 // addps 0x937a(%eax),%xmm0
+ .byte 15,88,128,121,148,0,0 // addps 0x9479(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,138,147,0,0 // addps 0x938a(%eax),%xmm0
+ .byte 15,88,128,137,148,0,0 // addps 0x9489(%eax),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,194,236,1 // cmpltps %xmm4,%xmm5
- .byte 15,40,176,154,147,0,0 // movaps 0x939a(%eax),%xmm6
+ .byte 15,40,176,153,148,0,0 // movaps 0x9499(%eax),%xmm6
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,84,245 // andps %xmm5,%xmm6
.byte 15,85,232 // andnps %xmm0,%xmm5
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,86,238 // orps %xmm6,%xmm5
.byte 15,194,204,1 // cmpltps %xmm4,%xmm1
- .byte 15,40,128,170,141,0,0 // movaps 0x8daa(%eax),%xmm0
+ .byte 15,40,128,105,142,0,0 // movaps 0x8e69(%eax),%xmm0
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,84,193 // andps %xmm1,%xmm0
.byte 15,85,205 // andnps %xmm5,%xmm1
.byte 15,86,200 // orps %xmm0,%xmm1
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,168,186,141,0,0 // movaps 0x8dba(%eax),%xmm5
+ .byte 15,40,168,121,142,0,0 // movaps 0x8e79(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,84,232 // andps %xmm0,%xmm5
.byte 15,85,193 // andnps %xmm1,%xmm0
@@ -69367,10 +71250,10 @@ _sk_negate_x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 716d <_sk_negate_x_sse2+0xb>
+ .byte 232,0,0,0,0 // call 755e <_sk_negate_x_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,87,128,179,145,0,0 // xorps 0x91b3(%eax),%xmm0
+ .byte 15,87,128,178,146,0,0 // xorps 0x92b2(%eax),%xmm0
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 80 // push %eax
@@ -69487,7 +71370,7 @@ _sk_xy_to_2pt_conical_smaller_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 7265 <_sk_xy_to_2pt_conical_smaller_sse2+0xb>
+ .byte 232,0,0,0,0 // call 7656 <_sk_xy_to_2pt_conical_smaller_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,17 // mov (%ecx),%edx
@@ -69499,7 +71382,7 @@ _sk_xy_to_2pt_conical_smaller_sse2:
.byte 15,89,237 // mulps %xmm5,%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,81,192 // sqrtps %xmm0,%xmm0
- .byte 15,87,128,187,144,0,0 // xorps 0x90bb(%eax),%xmm0
+ .byte 15,87,128,186,145,0,0 // xorps 0x91ba(%eax),%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 141,65,8 // lea 0x8(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -69538,10 +71421,10 @@ _sk_alter_2pt_conical_unswap_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 72d6 <_sk_alter_2pt_conical_unswap_sse2+0xb>
+ .byte 232,0,0,0,0 // call 76c7 <_sk_alter_2pt_conical_unswap_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,90,139,0,0 // movaps 0x8b5a(%eax),%xmm4
+ .byte 15,40,160,25,140,0,0 // movaps 0x8c19(%eax),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -69632,16 +71515,16 @@ _sk_save_xy_sse2:
.byte 131,236,24 // sub $0x18,%esp
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 738f <_sk_save_xy_sse2+0x12>
+ .byte 232,0,0,0,0 // call 7780 <_sk_save_xy_sse2+0x12>
.byte 88 // pop %eax
- .byte 15,40,160,145,138,0,0 // movaps 0x8a91(%eax),%xmm4
+ .byte 15,40,160,80,139,0,0 // movaps 0x8b50(%eax),%xmm4
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,88,236 // addps %xmm4,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,40,144,161,138,0,0 // movaps 0x8aa1(%eax),%xmm2
+ .byte 15,40,144,96,139,0,0 // movaps 0x8b60(%eax),%xmm2
.byte 15,84,250 // andps %xmm2,%xmm7
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,92,238 // subps %xmm6,%xmm5
@@ -69716,15 +71599,15 @@ _sk_bilinear_nx_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7477 <_sk_bilinear_nx_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7868 <_sk_bilinear_nx_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,169,143,0,0 // addps 0x8fa9(%eax),%xmm0
- .byte 15,40,168,185,137,0,0 // movaps 0x89b9(%eax),%xmm5
+ .byte 15,88,128,168,144,0,0 // addps 0x90a8(%eax),%xmm0
+ .byte 15,40,168,120,138,0,0 // movaps 0x8a78(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,0,1,0,0 // movups %xmm5,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -69745,14 +71628,14 @@ _sk_bilinear_px_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 74bd <_sk_bilinear_px_sse2+0xa>
+ .byte 232,0,0,0,0 // call 78ae <_sk_bilinear_px_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,99,137,0,0 // addps 0x8963(%eax),%xmm0
+ .byte 15,88,128,34,138,0,0 // addps 0x8a22(%eax),%xmm0
.byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -69772,15 +71655,15 @@ _sk_bilinear_ny_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 74f9 <_sk_bilinear_ny_sse2+0xa>
+ .byte 232,0,0,0,0 // call 78ea <_sk_bilinear_ny_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,39,143,0,0 // addps 0x8f27(%eax),%xmm1
- .byte 15,40,168,55,137,0,0 // movaps 0x8937(%eax),%xmm5
+ .byte 15,88,136,38,144,0,0 // addps 0x9026(%eax),%xmm1
+ .byte 15,40,168,246,137,0,0 // movaps 0x89f6(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,64,1,0,0 // movups %xmm5,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -69801,14 +71684,14 @@ _sk_bilinear_py_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7540 <_sk_bilinear_py_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7931 <_sk_bilinear_py_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,224,136,0,0 // addps 0x88e0(%eax),%xmm1
+ .byte 15,88,136,159,137,0,0 // addps 0x899f(%eax),%xmm1
.byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -69828,20 +71711,20 @@ _sk_bicubic_n3x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 757d <_sk_bicubic_n3x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 796e <_sk_bicubic_n3x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,179,142,0,0 // addps 0x8eb3(%eax),%xmm0
- .byte 15,40,168,179,136,0,0 // movaps 0x88b3(%eax),%xmm5
+ .byte 15,88,128,178,143,0,0 // addps 0x8fb2(%eax),%xmm0
+ .byte 15,40,168,114,137,0,0 // movaps 0x8972(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,195,142,0,0 // mulps 0x8ec3(%eax),%xmm5
- .byte 15,88,168,163,138,0,0 // addps 0x8aa3(%eax),%xmm5
+ .byte 15,89,168,194,143,0,0 // mulps 0x8fc2(%eax),%xmm5
+ .byte 15,88,168,98,139,0,0 // addps 0x8b62(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,0,1,0,0 // movups %xmm5,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -69862,23 +71745,23 @@ _sk_bicubic_n1x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 75da <_sk_bicubic_n1x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 79cb <_sk_bicubic_n1x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,70,142,0,0 // addps 0x8e46(%eax),%xmm0
- .byte 15,40,168,86,136,0,0 // movaps 0x8856(%eax),%xmm5
+ .byte 15,88,128,69,143,0,0 // addps 0x8f45(%eax),%xmm0
+ .byte 15,40,168,21,137,0,0 // movaps 0x8915(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,118,142,0,0 // movaps 0x8e76(%eax),%xmm4
+ .byte 15,40,160,117,143,0,0 // movaps 0x8f75(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,134,142,0,0 // addps 0x8e86(%eax),%xmm4
+ .byte 15,88,160,133,143,0,0 // addps 0x8f85(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,70,136,0,0 // addps 0x8846(%eax),%xmm4
+ .byte 15,88,160,5,137,0,0 // addps 0x8905(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,150,142,0,0 // addps 0x8e96(%eax),%xmm4
+ .byte 15,88,160,149,143,0,0 // addps 0x8f95(%eax),%xmm4
.byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -69898,22 +71781,22 @@ _sk_bicubic_p1x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7645 <_sk_bicubic_p1x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7a36 <_sk_bicubic_p1x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,219,135,0,0 // movaps 0x87db(%eax),%xmm4
+ .byte 15,40,160,154,136,0,0 // movaps 0x889a(%eax),%xmm4
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,174,128,0,0,0 // movups 0x80(%esi),%xmm5
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,176,11,142,0,0 // movaps 0x8e0b(%eax),%xmm6
+ .byte 15,40,176,10,143,0,0 // movaps 0x8f0a(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,27,142,0,0 // addps 0x8e1b(%eax),%xmm6
+ .byte 15,88,176,26,143,0,0 // addps 0x8f1a(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,43,142,0,0 // addps 0x8e2b(%eax),%xmm6
+ .byte 15,88,176,42,143,0,0 // addps 0x8f2a(%eax),%xmm6
.byte 15,17,182,0,1,0,0 // movups %xmm6,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -69933,18 +71816,18 @@ _sk_bicubic_p3x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 76a5 <_sk_bicubic_p3x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7a96 <_sk_bicubic_p3x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,187,141,0,0 // addps 0x8dbb(%eax),%xmm0
+ .byte 15,88,128,186,142,0,0 // addps 0x8eba(%eax),%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,155,141,0,0 // mulps 0x8d9b(%eax),%xmm4
- .byte 15,88,160,123,137,0,0 // addps 0x897b(%eax),%xmm4
+ .byte 15,89,160,154,142,0,0 // mulps 0x8e9a(%eax),%xmm4
+ .byte 15,88,160,58,138,0,0 // addps 0x8a3a(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -69965,20 +71848,20 @@ _sk_bicubic_n3y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 76f8 <_sk_bicubic_n3y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7ae9 <_sk_bicubic_n3y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,56,141,0,0 // addps 0x8d38(%eax),%xmm1
- .byte 15,40,168,56,135,0,0 // movaps 0x8738(%eax),%xmm5
+ .byte 15,88,136,55,142,0,0 // addps 0x8e37(%eax),%xmm1
+ .byte 15,40,168,247,135,0,0 // movaps 0x87f7(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,72,141,0,0 // mulps 0x8d48(%eax),%xmm5
- .byte 15,88,168,40,137,0,0 // addps 0x8928(%eax),%xmm5
+ .byte 15,89,168,71,142,0,0 // mulps 0x8e47(%eax),%xmm5
+ .byte 15,88,168,231,137,0,0 // addps 0x89e7(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,64,1,0,0 // movups %xmm5,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -69999,23 +71882,23 @@ _sk_bicubic_n1y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7756 <_sk_bicubic_n1y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7b47 <_sk_bicubic_n1y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,202,140,0,0 // addps 0x8cca(%eax),%xmm1
- .byte 15,40,168,218,134,0,0 // movaps 0x86da(%eax),%xmm5
+ .byte 15,88,136,201,141,0,0 // addps 0x8dc9(%eax),%xmm1
+ .byte 15,40,168,153,135,0,0 // movaps 0x8799(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,250,140,0,0 // movaps 0x8cfa(%eax),%xmm4
+ .byte 15,40,160,249,141,0,0 // movaps 0x8df9(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,10,141,0,0 // addps 0x8d0a(%eax),%xmm4
+ .byte 15,88,160,9,142,0,0 // addps 0x8e09(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,202,134,0,0 // addps 0x86ca(%eax),%xmm4
+ .byte 15,88,160,137,135,0,0 // addps 0x8789(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,26,141,0,0 // addps 0x8d1a(%eax),%xmm4
+ .byte 15,88,160,25,142,0,0 // addps 0x8e19(%eax),%xmm4
.byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70035,22 +71918,22 @@ _sk_bicubic_p1y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 77c2 <_sk_bicubic_p1y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7bb3 <_sk_bicubic_p1y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,94,134,0,0 // movaps 0x865e(%eax),%xmm4
+ .byte 15,40,160,29,135,0,0 // movaps 0x871d(%eax),%xmm4
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,174,192,0,0,0 // movups 0xc0(%esi),%xmm5
.byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,176,142,140,0,0 // movaps 0x8c8e(%eax),%xmm6
+ .byte 15,40,176,141,141,0,0 // movaps 0x8d8d(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,158,140,0,0 // addps 0x8c9e(%eax),%xmm6
+ .byte 15,88,176,157,141,0,0 // addps 0x8d9d(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,174,140,0,0 // addps 0x8cae(%eax),%xmm6
+ .byte 15,88,176,173,141,0,0 // addps 0x8dad(%eax),%xmm6
.byte 15,17,182,64,1,0,0 // movups %xmm6,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70070,18 +71953,18 @@ _sk_bicubic_p3y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7823 <_sk_bicubic_p3y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7c14 <_sk_bicubic_p3y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,61,140,0,0 // addps 0x8c3d(%eax),%xmm1
+ .byte 15,88,136,60,141,0,0 // addps 0x8d3c(%eax),%xmm1
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,29,140,0,0 // mulps 0x8c1d(%eax),%xmm4
- .byte 15,88,160,253,135,0,0 // addps 0x87fd(%eax),%xmm4
+ .byte 15,89,160,28,141,0,0 // mulps 0x8d1c(%eax),%xmm4
+ .byte 15,88,160,188,136,0,0 // addps 0x88bc(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70224,7 +72107,7 @@ _sk_clut_3D_sse2:
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,15,127,77,136 // movdqa %xmm1,-0x78(%ebp)
- .byte 232,0,0,0,0 // call 7a09 <_sk_clut_3D_sse2+0xee>
+ .byte 232,0,0,0,0 // call 7dfa <_sk_clut_3D_sse2+0xee>
.byte 90 // pop %edx
.byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
.byte 102,15,127,133,8,255,255,255 // movdqa %xmm0,-0xf8(%ebp)
@@ -70232,7 +72115,7 @@ _sk_clut_3D_sse2:
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,162,135,138,0,0 // movdqa 0x8a87(%edx),%xmm4
+ .byte 102,15,111,162,134,139,0,0 // movdqa 0x8b86(%edx),%xmm4
.byte 102,15,127,165,120,255,255,255 // movdqa %xmm4,-0x88(%ebp)
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -70272,7 +72155,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
.byte 15,20,248 // unpcklps %xmm0,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,15,111,130,103,132,0,0 // movdqa 0x8467(%edx),%xmm0
+ .byte 102,15,111,130,38,133,0,0 // movdqa 0x8526(%edx),%xmm0
.byte 102,15,127,133,104,255,255,255 // movdqa %xmm0,-0x98(%ebp)
.byte 102,15,254,200 // paddd %xmm0,%xmm1
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
@@ -70289,7 +72172,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,241 // unpcklpd %xmm1,%xmm6
- .byte 15,40,130,119,138,0,0 // movaps 0x8a77(%edx),%xmm0
+ .byte 15,40,130,118,139,0,0 // movaps 0x8b76(%edx),%xmm0
.byte 15,40,141,248,254,255,255 // movaps -0x108(%ebp),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,41,77,200 // movaps %xmm1,-0x38(%ebp)
@@ -70909,7 +72792,7 @@ _sk_clut_4D_sse2:
.byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,127,93,152 // movdqa %xmm3,-0x68(%ebp)
- .byte 232,0,0,0,0 // call 8595 <_sk_clut_4D_sse2+0x165>
+ .byte 232,0,0,0,0 // call 8986 <_sk_clut_4D_sse2+0x165>
.byte 89 // pop %ecx
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,41,133,168,254,255,255 // movaps %xmm0,-0x158(%ebp)
@@ -70920,7 +72803,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,254,214 // paddd %xmm6,%xmm2
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,161,251,126,0,0 // movdqa 0x7efb(%ecx),%xmm4
+ .byte 102,15,111,161,250,127,0,0 // movdqa 0x7ffa(%ecx),%xmm4
.byte 102,15,112,203,245 // pshufd $0xf5,%xmm3,%xmm1
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,204 // pmuludq %xmm4,%xmm1
@@ -70962,7 +72845,7 @@ _sk_clut_4D_sse2:
.byte 15,20,223 // unpcklps %xmm7,%xmm3
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
.byte 102,15,41,157,232,254,255,255 // movapd %xmm3,-0x118(%ebp)
- .byte 102,15,254,137,219,120,0,0 // paddd 0x78db(%ecx),%xmm1
+ .byte 102,15,254,137,154,121,0,0 // paddd 0x799a(%ecx),%xmm1
.byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6
.byte 102,15,126,240 // movd %xmm6,%eax
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -70977,7 +72860,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,130 // movss (%edx,%eax,4),%xmm7
.byte 15,20,223 // unpcklps %xmm7,%xmm3
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,185,235,126,0,0 // movaps 0x7eeb(%ecx),%xmm7
+ .byte 15,40,185,234,127,0,0 // movaps 0x7fea(%ecx),%xmm7
.byte 15,88,199 // addps %xmm7,%xmm0
.byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp)
.byte 15,40,133,248,254,255,255 // movaps -0x108(%ebp),%xmm0
@@ -70998,7 +72881,7 @@ _sk_clut_4D_sse2:
.byte 102,15,127,101,168 // movdqa %xmm4,-0x58(%ebp)
.byte 102,15,254,212 // paddd %xmm4,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,161,251,126,0,0 // movdqa 0x7efb(%ecx),%xmm4
+ .byte 102,15,111,161,250,127,0,0 // movdqa 0x7ffa(%ecx),%xmm4
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
@@ -71034,7 +72917,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,213 // unpcklps %xmm5,%xmm2
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,219,120,0,0 // paddd 0x78db(%ecx),%xmm0
+ .byte 102,15,254,129,154,121,0,0 // paddd 0x799a(%ecx),%xmm0
.byte 102,15,112,232,229 // pshufd $0xe5,%xmm0,%xmm5
.byte 102,15,126,232 // movd %xmm5,%eax
.byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
@@ -71118,7 +73001,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,245 // unpcklps %xmm5,%xmm6
.byte 102,15,20,240 // unpcklpd %xmm0,%xmm6
- .byte 102,15,254,137,219,120,0,0 // paddd 0x78db(%ecx),%xmm1
+ .byte 102,15,254,137,154,121,0,0 // paddd 0x799a(%ecx),%xmm1
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
@@ -71136,7 +73019,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
.byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,251,126,0,0 // movdqa 0x7efb(%ecx),%xmm2
+ .byte 102,15,111,145,250,127,0,0 // movdqa 0x7ffa(%ecx),%xmm2
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -71172,7 +73055,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,169,219,120,0,0 // paddd 0x78db(%ecx),%xmm5
+ .byte 102,15,254,169,154,121,0,0 // paddd 0x799a(%ecx),%xmm5
.byte 102,15,112,197,229 // pshufd $0xe5,%xmm5,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,197,78 // pshufd $0x4e,%xmm5,%xmm0
@@ -71232,7 +73115,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,254,85,152 // paddd -0x68(%ebp),%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,153,251,126,0,0 // movdqa 0x7efb(%ecx),%xmm3
+ .byte 102,15,111,153,250,127,0,0 // movdqa 0x7ffa(%ecx),%xmm3
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -71271,7 +73154,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,229 // unpcklps %xmm5,%xmm4
.byte 102,15,20,227 // unpcklpd %xmm3,%xmm4
- .byte 102,15,254,129,219,120,0,0 // paddd 0x78db(%ecx),%xmm0
+ .byte 102,15,254,129,154,121,0,0 // paddd 0x799a(%ecx),%xmm0
.byte 102,15,112,216,229 // pshufd $0xe5,%xmm0,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
@@ -71323,7 +73206,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
.byte 15,20,238 // unpcklps %xmm6,%xmm5
.byte 102,15,20,235 // unpcklpd %xmm3,%xmm5
- .byte 102,15,111,137,219,120,0,0 // movdqa 0x78db(%ecx),%xmm1
+ .byte 102,15,111,137,154,121,0,0 // movdqa 0x799a(%ecx),%xmm1
.byte 102,15,254,249 // paddd %xmm1,%xmm7
.byte 102,15,112,223,229 // pshufd $0xe5,%xmm7,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
@@ -71357,7 +73240,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,111,153,251,126,0,0 // movdqa 0x7efb(%ecx),%xmm3
+ .byte 102,15,111,153,250,127,0,0 // movdqa 0x7ffa(%ecx),%xmm3
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,112,218,232 // pshufd $0xe8,%xmm2,%xmm3
@@ -71414,7 +73297,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,254,85,168 // paddd -0x58(%ebp),%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,251,126,0,0 // movdqa 0x7efb(%ecx),%xmm1
+ .byte 102,15,111,137,250,127,0,0 // movdqa 0x7ffa(%ecx),%xmm1
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
@@ -71451,7 +73334,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,212 // unpcklps %xmm4,%xmm2
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,219,120,0,0 // paddd 0x78db(%ecx),%xmm0
+ .byte 102,15,254,129,154,121,0,0 // paddd 0x799a(%ecx),%xmm0
.byte 102,15,112,224,229 // pshufd $0xe5,%xmm0,%xmm4
.byte 102,15,126,224 // movd %xmm4,%eax
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
@@ -71519,7 +73402,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,93,152 // movdqa -0x68(%ebp),%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,129,251,126,0,0 // movdqa 0x7efb(%ecx),%xmm0
+ .byte 102,15,111,129,250,127,0,0 // movdqa 0x7ffa(%ecx),%xmm0
.byte 102,15,244,216 // pmuludq %xmm0,%xmm3
.byte 102,15,244,208 // pmuludq %xmm0,%xmm2
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -71558,7 +73441,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,145,219,120,0,0 // paddd 0x78db(%ecx),%xmm2
+ .byte 102,15,254,145,154,121,0,0 // paddd 0x799a(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -71610,7 +73493,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,208 // unpcklps %xmm0,%xmm2
.byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
- .byte 102,15,111,137,219,120,0,0 // movdqa 0x78db(%ecx),%xmm1
+ .byte 102,15,111,137,154,121,0,0 // movdqa 0x799a(%ecx),%xmm1
.byte 102,15,254,217 // paddd %xmm1,%xmm3
.byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
@@ -71645,7 +73528,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,224,245 // pshufd $0xf5,%xmm0,%xmm4
- .byte 102,15,111,169,251,126,0,0 // movdqa 0x7efb(%ecx),%xmm5
+ .byte 102,15,111,169,250,127,0,0 // movdqa 0x7ffa(%ecx),%xmm5
.byte 102,15,111,221 // movdqa %xmm5,%xmm3
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,244,227 // pmuludq %xmm3,%xmm4
@@ -71701,7 +73584,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
.byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,251,126,0,0 // movdqa 0x7efb(%ecx),%xmm2
+ .byte 102,15,111,145,250,127,0,0 // movdqa 0x7ffa(%ecx),%xmm2
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -71737,7 +73620,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,185,219,120,0,0 // paddd 0x78db(%ecx),%xmm7
+ .byte 102,15,254,185,154,121,0,0 // paddd 0x799a(%ecx),%xmm7
.byte 102,15,112,199,229 // pshufd $0xe5,%xmm7,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,199,78 // pshufd $0x4e,%xmm7,%xmm0
@@ -71787,7 +73670,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,145,251,126,0,0 // movdqa 0x7efb(%ecx),%xmm2
+ .byte 102,15,111,145,250,127,0,0 // movdqa 0x7ffa(%ecx),%xmm2
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,111,250 // movdqa %xmm2,%xmm7
@@ -71826,7 +73709,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,204 // unpcklps %xmm4,%xmm1
.byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,219,120,0,0 // paddd 0x78db(%ecx),%xmm2
+ .byte 102,15,254,145,154,121,0,0 // paddd 0x799a(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -71880,7 +73763,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,252 // unpcklps %xmm4,%xmm7
.byte 102,15,20,254 // unpcklpd %xmm6,%xmm7
- .byte 102,15,254,153,219,120,0,0 // paddd 0x78db(%ecx),%xmm3
+ .byte 102,15,254,153,154,121,0,0 // paddd 0x799a(%ecx),%xmm3
.byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4
.byte 102,15,126,224 // movd %xmm4,%eax
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
@@ -71913,7 +73796,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,251,126,0,0 // movdqa 0x7efb(%ecx),%xmm1
+ .byte 102,15,111,137,250,127,0,0 // movdqa 0x7ffa(%ecx),%xmm1
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -71953,7 +73836,7 @@ _sk_clut_4D_sse2:
.byte 15,20,225 // unpcklps %xmm1,%xmm4
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
.byte 102,15,41,165,88,255,255,255 // movapd %xmm4,-0xa8(%ebp)
- .byte 102,15,254,129,219,120,0,0 // paddd 0x78db(%ecx),%xmm0
+ .byte 102,15,254,129,154,121,0,0 // paddd 0x799a(%ecx),%xmm0
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
.byte 102,15,126,200 // movd %xmm1,%eax
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -72007,7 +73890,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
.byte 15,20,206 // unpcklps %xmm6,%xmm1
.byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,219,120,0,0 // paddd 0x78db(%ecx),%xmm2
+ .byte 102,15,254,145,154,121,0,0 // paddd 0x799a(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -72076,7 +73959,7 @@ _sk_clut_4D_sse2:
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,155,120,0,0 // movaps 0x789b(%ecx),%xmm3
+ .byte 15,40,153,90,121,0,0 // movaps 0x795a(%ecx),%xmm3
.byte 80 // push %eax
.byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,82,4 // call *0x4(%edx)
@@ -72094,18 +73977,18 @@ _sk_gauss_a_to_rgba_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 99ea <_sk_gauss_a_to_rgba_sse2+0xb>
+ .byte 232,0,0,0,0 // call 9ddb <_sk_gauss_a_to_rgba_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,128,182,106,0,0 // movaps 0x6ab6(%eax),%xmm0
+ .byte 15,40,128,181,107,0,0 // movaps 0x6bb5(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,198,106,0,0 // addps 0x6ac6(%eax),%xmm0
+ .byte 15,88,128,197,107,0,0 // addps 0x6bc5(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,214,106,0,0 // addps 0x6ad6(%eax),%xmm0
+ .byte 15,88,128,213,107,0,0 // addps 0x6bd5(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,230,106,0,0 // addps 0x6ae6(%eax),%xmm0
+ .byte 15,88,128,229,107,0,0 // addps 0x6be5(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,246,106,0,0 // addps 0x6af6(%eax),%xmm0
+ .byte 15,88,128,245,107,0,0 // addps 0x6bf5(%eax),%xmm0
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,200 // movaps %xmm0,%xmm1
@@ -72128,11 +74011,11 @@ _sk_bilerp_clamp_8888_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 129,236,44,1,0,0 // sub $0x12c,%esp
- .byte 232,0,0,0,0 // call 9a48 <_sk_bilerp_clamp_8888_sse2+0x11>
+ .byte 232,0,0,0,0 // call 9e39 <_sk_bilerp_clamp_8888_sse2+0x11>
.byte 94 // pop %esi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,56 // mov (%eax),%edi
- .byte 15,40,158,216,99,0,0 // movaps 0x63d8(%esi),%xmm3
+ .byte 15,40,158,151,100,0,0 // movaps 0x6497(%esi),%xmm3
.byte 15,41,133,8,255,255,255 // movaps %xmm0,-0xf8(%ebp)
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,88,227 // addps %xmm3,%xmm4
@@ -72140,7 +74023,7 @@ _sk_bilerp_clamp_8888_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,212 // movaps %xmm4,%xmm2
.byte 15,194,208,1 // cmpltps %xmm0,%xmm2
- .byte 15,40,174,232,99,0,0 // movaps 0x63e8(%esi),%xmm5
+ .byte 15,40,174,167,100,0,0 // movaps 0x64a7(%esi),%xmm5
.byte 15,84,213 // andps %xmm5,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
.byte 15,92,224 // subps %xmm0,%xmm4
@@ -72174,14 +74057,14 @@ _sk_bilerp_clamp_8888_sse2:
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp)
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 243,15,16,134,172,107,0,0 // movss 0x6bac(%esi),%xmm0
- .byte 15,40,150,168,100,0,0 // movaps 0x64a8(%esi),%xmm2
+ .byte 243,15,16,134,171,108,0,0 // movss 0x6cab(%esi),%xmm0
+ .byte 15,40,150,103,101,0,0 // movaps 0x6567(%esi),%xmm2
.byte 15,41,149,56,255,255,255 // movaps %xmm2,-0xc8(%ebp)
- .byte 15,40,150,232,101,0,0 // movaps 0x65e8(%esi),%xmm2
+ .byte 15,40,150,167,102,0,0 // movaps 0x66a7(%esi),%xmm2
.byte 15,41,149,72,255,255,255 // movaps %xmm2,-0xb8(%ebp)
- .byte 243,15,16,150,176,107,0,0 // movss 0x6bb0(%esi),%xmm2
+ .byte 243,15,16,150,175,108,0,0 // movss 0x6caf(%esi),%xmm2
.byte 243,15,17,85,236 // movss %xmm2,-0x14(%ebp)
- .byte 243,15,16,150,168,107,0,0 // movss 0x6ba8(%esi),%xmm2
+ .byte 243,15,16,150,167,108,0,0 // movss 0x6ca7(%esi),%xmm2
.byte 243,15,17,85,240 // movss %xmm2,-0x10(%ebp)
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 15,87,219 // xorps %xmm3,%xmm3
@@ -72199,7 +74082,7 @@ _sk_bilerp_clamp_8888_sse2:
.byte 15,46,226 // ucomiss %xmm2,%xmm4
.byte 15,40,85,136 // movaps -0x78(%ebp),%xmm2
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 119,8 // ja 9b86 <_sk_bilerp_clamp_8888_sse2+0x14f>
+ .byte 119,8 // ja 9f77 <_sk_bilerp_clamp_8888_sse2+0x14f>
.byte 15,40,85,184 // movaps -0x48(%ebp),%xmm2
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 15,93,69,152 // minps -0x68(%ebp),%xmm0
@@ -72262,7 +74145,7 @@ _sk_bilerp_clamp_8888_sse2:
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,46,193 // ucomiss %xmm1,%xmm0
.byte 15,40,173,24,255,255,255 // movaps -0xe8(%ebp),%xmm5
- .byte 119,7 // ja 9ca5 <_sk_bilerp_clamp_8888_sse2+0x26e>
+ .byte 119,7 // ja a096 <_sk_bilerp_clamp_8888_sse2+0x26e>
.byte 15,40,173,88,255,255,255 // movaps -0xa8(%ebp),%xmm5
.byte 15,89,109,200 // mulps -0x38(%ebp),%xmm5
.byte 15,89,245 // mulps %xmm5,%xmm6
@@ -72281,12 +74164,12 @@ _sk_bilerp_clamp_8888_sse2:
.byte 243,15,88,69,236 // addss -0x14(%ebp),%xmm0
.byte 243,15,16,85,240 // movss -0x10(%ebp),%xmm2
.byte 15,46,208 // ucomiss %xmm0,%xmm2
- .byte 15,131,211,254,255,255 // jae 9bc4 <_sk_bilerp_clamp_8888_sse2+0x18d>
+ .byte 15,131,211,254,255,255 // jae 9fb5 <_sk_bilerp_clamp_8888_sse2+0x18d>
.byte 15,40,165,104,255,255,255 // movaps -0x98(%ebp),%xmm4
.byte 243,15,88,101,236 // addss -0x14(%ebp),%xmm4
.byte 243,15,16,69,240 // movss -0x10(%ebp),%xmm0
.byte 15,46,196 // ucomiss %xmm4,%xmm0
- .byte 15,131,72,254,255,255 // jae 9b53 <_sk_bilerp_clamp_8888_sse2+0x11c>
+ .byte 15,131,72,254,255,255 // jae 9f44 <_sk_bilerp_clamp_8888_sse2+0x11c>
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
@@ -72301,7 +74184,6 @@ _sk_bilerp_clamp_8888_sse2:
.byte 93 // pop %ebp
.byte 195 // ret
.byte 144 // nop
- .byte 144 // nop
HIDDEN _sk_start_pipeline_sse2_lowp
.globl _sk_start_pipeline_sse2_lowp
@@ -72315,7 +74197,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 131,236,92 // sub $0x5c,%esp
.byte 139,125,12 // mov 0xc(%ebp),%edi
.byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,131,193,0,0,0 // jae 9e02 <_sk_start_pipeline_sse2_lowp+0xd6>
+ .byte 15,131,193,0,0,0 // jae a1f2 <_sk_start_pipeline_sse2_lowp+0xd6>
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,117,24 // mov 0x18(%ebp),%esi
@@ -72329,7 +74211,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 137,223 // mov %ebx,%edi
.byte 137,243 // mov %esi,%ebx
- .byte 119,77 // ja 9db4 <_sk_start_pipeline_sse2_lowp+0x88>
+ .byte 119,77 // ja a1a4 <_sk_start_pipeline_sse2_lowp+0x88>
.byte 139,117,8 // mov 0x8(%ebp),%esi
.byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
.byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
@@ -72351,13 +74233,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 131,198,16 // add $0x10,%esi
.byte 57,214 // cmp %edx,%esi
.byte 137,198 // mov %eax,%esi
- .byte 118,182 // jbe 9d6a <_sk_start_pipeline_sse2_lowp+0x3e>
+ .byte 118,182 // jbe a15a <_sk_start_pipeline_sse2_lowp+0x3e>
.byte 137,209 // mov %edx,%ecx
.byte 41,193 // sub %eax,%ecx
.byte 137,222 // mov %ebx,%esi
.byte 137,251 // mov %edi,%ebx
.byte 139,125,240 // mov -0x10(%ebp),%edi
- .byte 116,55 // je 9df8 <_sk_start_pipeline_sse2_lowp+0xcc>
+ .byte 116,55 // je a1e8 <_sk_start_pipeline_sse2_lowp+0xcc>
.byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
.byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
.byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
@@ -72375,7 +74257,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 71 // inc %edi
.byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,133,86,255,255,255 // jne 9d58 <_sk_start_pipeline_sse2_lowp+0x2c>
+ .byte 15,133,86,255,255,255 // jne a148 <_sk_start_pipeline_sse2_lowp+0x2c>
.byte 131,196,92 // add $0x5c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
@@ -72398,7 +74280,7 @@ _sk_seed_shader_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9e18 <_sk_seed_shader_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a208 <_sk_seed_shader_sse2_lowp+0xd>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,93,24 // movaps 0x18(%ebp),%xmm3
@@ -72419,7 +74301,7 @@ _sk_seed_shader_sse2_lowp:
.byte 102,15,110,210 // movd %edx,%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,88,145,8,96,0,0 // addps 0x6008(%ecx),%xmm2
+ .byte 15,88,145,200,96,0,0 // addps 0x60c8(%ecx),%xmm2
.byte 141,78,8 // lea 0x8(%esi),%ecx
.byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
.byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
@@ -72749,7 +74631,7 @@ _sk_black_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call a237 <_sk_black_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call a627 <_sk_black_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -72768,7 +74650,7 @@ _sk_black_color_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,152,185,98,0,0 // movaps 0x62b9(%eax),%xmm3
+ .byte 15,40,152,185,99,0,0 // movaps 0x63b9(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -72790,7 +74672,7 @@ _sk_white_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call a2a2 <_sk_white_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call a692 <_sk_white_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -72809,7 +74691,7 @@ _sk_white_color_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,128,78,98,0,0 // movaps 0x624e(%eax),%xmm0
+ .byte 15,40,128,78,99,0,0 // movaps 0x634e(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -72830,16 +74712,16 @@ _sk_set_rgb_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a30c <_sk_set_rgb_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a6fc <_sk_set_rgb_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,57 // mov (%ecx),%edi
- .byte 243,15,16,150,240,98,0,0 // movss 0x62f0(%esi),%xmm2
+ .byte 243,15,16,150,240,99,0,0 // movss 0x63f0(%esi),%xmm2
.byte 243,15,16,7 // movss (%edi),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,15,16,142,228,98,0,0 // movss 0x62e4(%esi),%xmm1
+ .byte 243,15,16,142,228,99,0,0 // movss 0x63e4(%esi),%xmm1
.byte 243,15,88,193 // addss %xmm1,%xmm0
.byte 243,15,44,240 // cvttss2si %xmm0,%esi
.byte 102,15,110,198 // movd %esi,%xmm0
@@ -72888,12 +74770,12 @@ _sk_clamp_a_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a3d0 <_sk_clamp_a_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a7c0 <_sk_clamp_a_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
.byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 102,15,111,166,48,97,0,0 // movdqa 0x6130(%esi),%xmm4
+ .byte 102,15,111,166,48,98,0,0 // movdqa 0x6230(%esi),%xmm4
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
.byte 102,15,239,236 // pxor %xmm4,%xmm5
.byte 102,15,111,243 // movdqa %xmm3,%xmm6
@@ -72949,11 +74831,11 @@ _sk_clamp_a_dst_sse2_lowp:
.byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
.byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
.byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 232,0,0,0,0 // call a497 <_sk_clamp_a_dst_sse2_lowp+0x1f>
+ .byte 232,0,0,0,0 // call a887 <_sk_clamp_a_dst_sse2_lowp+0x1f>
.byte 88 // pop %eax
.byte 102,15,111,101,72 // movdqa 0x48(%ebp),%xmm4
.byte 102,15,111,77,24 // movdqa 0x18(%ebp),%xmm1
- .byte 102,15,111,144,105,96,0,0 // movdqa 0x6069(%eax),%xmm2
+ .byte 102,15,111,144,105,97,0,0 // movdqa 0x6169(%eax),%xmm2
.byte 102,15,111,249 // movdqa %xmm1,%xmm7
.byte 102,15,239,250 // pxor %xmm2,%xmm7
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -73010,7 +74892,7 @@ _sk_premul_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a566 <_sk_premul_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a956 <_sk_premul_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -73019,7 +74901,7 @@ _sk_premul_sse2_lowp:
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
.byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,186,138,95,0,0 // movdqa 0x5f8a(%edx),%xmm7
+ .byte 102,15,111,186,138,96,0,0 // movdqa 0x608a(%edx),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -73059,12 +74941,12 @@ _sk_premul_dst_sse2_lowp:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a5fb <_sk_premul_dst_sse2_lowp+0x1a>
+ .byte 232,0,0,0,0 // call a9eb <_sk_premul_dst_sse2_lowp+0x1a>
.byte 88 // pop %eax
.byte 102,15,111,101,72 // movdqa 0x48(%ebp),%xmm4
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,213,236 // pmullw %xmm4,%xmm5
- .byte 102,15,111,176,245,94,0,0 // movdqa 0x5ef5(%eax),%xmm6
+ .byte 102,15,111,176,245,95,0,0 // movdqa 0x5ff5(%eax),%xmm6
.byte 102,15,253,238 // paddw %xmm6,%xmm5
.byte 102,15,111,125,40 // movdqa 0x28(%ebp),%xmm7
.byte 102,15,213,252 // pmullw %xmm4,%xmm7
@@ -73099,6 +74981,81 @@ _sk_premul_dst_sse2_lowp:
.byte 93 // pop %ebp
.byte 195 // ret
+HIDDEN _sk_force_opaque_sse2_lowp
+.globl _sk_force_opaque_sse2_lowp
+FUNCTION(_sk_force_opaque_sse2_lowp)
+_sk_force_opaque_sse2_lowp:
+ .byte 85 // push %ebp
+ .byte 137,229 // mov %esp,%ebp
+ .byte 83 // push %ebx
+ .byte 87 // push %edi
+ .byte 86 // push %esi
+ .byte 131,236,92 // sub $0x5c,%esp
+ .byte 232,0,0,0,0 // call aa89 <_sk_force_opaque_sse2_lowp+0xe>
+ .byte 88 // pop %eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,85,16 // mov 0x10(%ebp),%edx
+ .byte 139,117,20 // mov 0x14(%ebp),%esi
+ .byte 15,40,93,24 // movaps 0x18(%ebp),%xmm3
+ .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
+ .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
+ .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
+ .byte 139,125,12 // mov 0xc(%ebp),%edi
+ .byte 141,95,4 // lea 0x4(%edi),%ebx
+ .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
+ .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
+ .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
+ .byte 15,41,92,36,16 // movaps %xmm3,0x10(%esp)
+ .byte 137,116,36,12 // mov %esi,0xc(%esp)
+ .byte 137,84,36,8 // mov %edx,0x8(%esp)
+ .byte 137,92,36,4 // mov %ebx,0x4(%esp)
+ .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 15,40,152,87,95,0,0 // movaps 0x5f57(%eax),%xmm3
+ .byte 255,23 // call *(%edi)
+ .byte 131,196,92 // add $0x5c,%esp
+ .byte 94 // pop %esi
+ .byte 95 // pop %edi
+ .byte 91 // pop %ebx
+ .byte 93 // pop %ebp
+ .byte 195 // ret
+
+HIDDEN _sk_force_opaque_dst_sse2_lowp
+.globl _sk_force_opaque_dst_sse2_lowp
+FUNCTION(_sk_force_opaque_dst_sse2_lowp)
+_sk_force_opaque_dst_sse2_lowp:
+ .byte 85 // push %ebp
+ .byte 137,229 // mov %esp,%ebp
+ .byte 83 // push %ebx
+ .byte 87 // push %edi
+ .byte 86 // push %esi
+ .byte 131,236,92 // sub $0x5c,%esp
+ .byte 232,0,0,0,0 // call aaeb <_sk_force_opaque_dst_sse2_lowp+0xe>
+ .byte 88 // pop %eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,85,16 // mov 0x10(%ebp),%edx
+ .byte 139,117,20 // mov 0x14(%ebp),%esi
+ .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
+ .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
+ .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
+ .byte 139,125,12 // mov 0xc(%ebp),%edi
+ .byte 141,95,4 // lea 0x4(%edi),%ebx
+ .byte 15,40,184,245,94,0,0 // movaps 0x5ef5(%eax),%xmm7
+ .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
+ .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
+ .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
+ .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
+ .byte 137,116,36,12 // mov %esi,0xc(%esp)
+ .byte 137,84,36,8 // mov %edx,0x8(%esp)
+ .byte 137,92,36,4 // mov %ebx,0x4(%esp)
+ .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 255,23 // call *(%edi)
+ .byte 131,196,92 // add $0x5c,%esp
+ .byte 94 // pop %esi
+ .byte 95 // pop %edi
+ .byte 91 // pop %ebx
+ .byte 93 // pop %ebp
+ .byte 195 // ret
+
HIDDEN _sk_swap_rb_sse2_lowp
.globl _sk_swap_rb_sse2_lowp
FUNCTION(_sk_swap_rb_sse2_lowp)
@@ -73206,12 +75163,12 @@ _sk_invert_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a78a <_sk_invert_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call ac3a <_sk_invert_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 102,15,111,160,102,93,0,0 // movdqa 0x5d66(%eax),%xmm4
+ .byte 102,15,111,160,166,93,0,0 // movdqa 0x5da6(%eax),%xmm4
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,249,232 // psubw %xmm0,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -73293,11 +75250,11 @@ _sk_srcatop_sse2_lowp:
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a882 <_sk_srcatop_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call ad32 <_sk_srcatop_sse2_lowp+0x19>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,128,110,92,0,0 // movdqa 0x5c6e(%eax),%xmm0
+ .byte 102,15,111,128,174,92,0,0 // movdqa 0x5cae(%eax),%xmm0
.byte 102,15,253,200 // paddw %xmm0,%xmm1
.byte 102,15,213,214 // pmullw %xmm6,%xmm2
.byte 102,15,253,208 // paddw %xmm0,%xmm2
@@ -73355,12 +75312,12 @@ _sk_dstatop_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a956 <_sk_dstatop_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call ae06 <_sk_dstatop_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,101,40 // movdqa 0x28(%ebp),%xmm4
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,213,243 // pmullw %xmm3,%xmm6
- .byte 102,15,111,184,154,91,0,0 // movdqa 0x5b9a(%eax),%xmm7
+ .byte 102,15,111,184,218,91,0,0 // movdqa 0x5bda(%eax),%xmm7
.byte 102,15,253,247 // paddw %xmm7,%xmm6
.byte 102,15,213,227 // pmullw %xmm3,%xmm4
.byte 102,15,253,231 // paddw %xmm7,%xmm4
@@ -73413,7 +75370,7 @@ _sk_srcin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call aa17 <_sk_srcin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call aec7 <_sk_srcin_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -73422,7 +75379,7 @@ _sk_srcin_sse2_lowp:
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,190,217,90,0,0 // movdqa 0x5ad9(%esi),%xmm7
+ .byte 102,15,111,190,25,91,0,0 // movdqa 0x5b19(%esi),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -73461,14 +75418,14 @@ _sk_dstin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call aaae <_sk_dstin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call af5e <_sk_dstin_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,85,56 // movdqa 0x38(%ebp),%xmm2
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,184,66,90,0,0 // movdqa 0x5a42(%eax),%xmm7
+ .byte 102,15,111,184,130,90,0,0 // movdqa 0x5a82(%eax),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -73512,14 +75469,14 @@ _sk_srcout_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call ab56 <_sk_srcout_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call b006 <_sk_srcout_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
.byte 139,85,20 // mov 0x14(%ebp),%edx
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,182,154,89,0,0 // movdqa 0x599a(%esi),%xmm6
+ .byte 102,15,111,182,218,89,0,0 // movdqa 0x59da(%esi),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,253 // psubw %xmm5,%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -73563,11 +75520,11 @@ _sk_dstout_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 232,0,0,0,0 // call abf9 <_sk_dstout_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call b0a9 <_sk_dstout_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 102,15,111,109,56 // movdqa 0x38(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
- .byte 102,15,111,184,247,88,0,0 // movdqa 0x58f7(%eax),%xmm7
+ .byte 102,15,111,184,55,89,0,0 // movdqa 0x5937(%eax),%xmm7
.byte 102,15,111,223 // movdqa %xmm7,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -73619,9 +75576,9 @@ _sk_srcover_sse2_lowp:
.byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call acb5 <_sk_srcover_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call b165 <_sk_srcover_sse2_lowp+0x19>
.byte 88 // pop %eax
- .byte 102,15,111,136,59,88,0,0 // movdqa 0x583b(%eax),%xmm1
+ .byte 102,15,111,136,123,88,0,0 // movdqa 0x587b(%eax),%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -73680,7 +75637,7 @@ _sk_dstover_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call ad85 <_sk_dstover_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call b235 <_sk_dstover_sse2_lowp+0xd>
.byte 95 // pop %edi
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -73688,7 +75645,7 @@ _sk_dstover_sse2_lowp:
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 102,15,111,101,56 // movdqa 0x38(%ebp),%xmm4
.byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,183,107,87,0,0 // movdqa 0x576b(%edi),%xmm6
+ .byte 102,15,111,183,171,87,0,0 // movdqa 0x57ab(%edi),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,253 // psubw %xmm5,%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -73734,12 +75691,12 @@ _sk_modulate_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call ae3a <_sk_modulate_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call b2ea <_sk_modulate_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,182,86,0,0 // movdqa 0x56b6(%eax),%xmm7
+ .byte 102,15,111,184,246,86,0,0 // movdqa 0x56f6(%eax),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -73782,10 +75739,10 @@ _sk_multiply_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call aed6 <_sk_multiply_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call b386 <_sk_multiply_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
- .byte 102,15,111,160,26,86,0,0 // movdqa 0x561a(%eax),%xmm4
+ .byte 102,15,111,160,90,86,0,0 // movdqa 0x565a(%eax),%xmm4
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,253,244 // paddw %xmm4,%xmm6
.byte 102,15,249,117,72 // psubw 0x48(%ebp),%xmm6
@@ -73855,17 +75812,17 @@ _sk_plus__sse2_lowp:
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call afd7 <_sk_plus__sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call b487 <_sk_plus__sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,253,77,24 // paddw 0x18(%ebp),%xmm1
- .byte 102,15,111,168,57,85,0,0 // movdqa 0x5539(%eax),%xmm5
+ .byte 102,15,111,168,121,85,0,0 // movdqa 0x5579(%eax),%xmm5
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,217,197 // psubusw %xmm5,%xmm0
.byte 102,15,127,109,232 // movdqa %xmm5,-0x18(%ebp)
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,117,199 // pcmpeqw %xmm7,%xmm0
.byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,111,176,25,85,0,0 // movdqa 0x5519(%eax),%xmm6
+ .byte 102,15,111,176,89,85,0,0 // movdqa 0x5559(%eax),%xmm6
.byte 102,15,223,198 // pandn %xmm6,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
.byte 102,15,253,101,40 // paddw 0x28(%ebp),%xmm4
@@ -73926,14 +75883,14 @@ _sk_screen_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b0cf <_sk_screen_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call b57f <_sk_screen_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,176,33,84,0,0 // movdqa 0x5421(%eax),%xmm6
+ .byte 102,15,111,176,97,84,0,0 // movdqa 0x5461(%eax),%xmm6
.byte 102,15,253,206 // paddw %xmm6,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -73991,9 +75948,9 @@ _sk_xor__sse2_lowp:
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,127,93,232 // movdqa %xmm3,-0x18(%ebp)
- .byte 232,0,0,0,0 // call b1af <_sk_xor__sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call b65f <_sk_xor__sse2_lowp+0x12>
.byte 88 // pop %eax
- .byte 102,15,111,176,65,83,0,0 // movdqa 0x5341(%eax),%xmm6
+ .byte 102,15,111,176,129,83,0,0 // movdqa 0x5381(%eax),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,125,72 // psubw 0x48(%ebp),%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -74060,7 +76017,7 @@ _sk_darken_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b2a4 <_sk_darken_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call b754 <_sk_darken_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -74071,7 +76028,7 @@ _sk_darken_sse2_lowp:
.byte 102,15,111,222 // movdqa %xmm6,%xmm3
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,92,82,0,0 // movdqa 0x525c(%eax),%xmm7
+ .byte 102,15,111,184,156,82,0,0 // movdqa 0x529c(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -74080,7 +76037,7 @@ _sk_darken_sse2_lowp:
.byte 102,15,219,197 // pand %xmm5,%xmm0
.byte 102,15,223,233 // pandn %xmm1,%xmm5
.byte 102,15,235,232 // por %xmm0,%xmm5
- .byte 102,15,111,128,76,82,0,0 // movdqa 0x524c(%eax),%xmm0
+ .byte 102,15,111,128,140,82,0,0 // movdqa 0x528c(%eax),%xmm0
.byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -74171,7 +76128,7 @@ _sk_lighten_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b44d <_sk_lighten_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call b8fd <_sk_lighten_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
@@ -74180,7 +76137,7 @@ _sk_lighten_sse2_lowp:
.byte 102,15,213,77,72 // pmullw 0x48(%ebp),%xmm1
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,179,80,0,0 // movdqa 0x50b3(%eax),%xmm7
+ .byte 102,15,111,184,243,80,0,0 // movdqa 0x50f3(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -74189,7 +76146,7 @@ _sk_lighten_sse2_lowp:
.byte 102,15,219,205 // pand %xmm5,%xmm1
.byte 102,15,223,232 // pandn %xmm0,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,163,80,0,0 // movdqa 0x50a3(%eax),%xmm0
+ .byte 102,15,111,128,227,80,0,0 // movdqa 0x50e3(%eax),%xmm0
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,127,85,232 // movdqa %xmm2,-0x18(%ebp)
@@ -74279,7 +76236,7 @@ _sk_difference_sse2_lowp:
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b5eb <_sk_difference_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call ba9b <_sk_difference_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -74290,7 +76247,7 @@ _sk_difference_sse2_lowp:
.byte 102,15,111,222 // movdqa %xmm6,%xmm3
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,21,79,0,0 // movdqa 0x4f15(%eax),%xmm7
+ .byte 102,15,111,184,85,79,0,0 // movdqa 0x4f55(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -74299,11 +76256,11 @@ _sk_difference_sse2_lowp:
.byte 102,15,219,205 // pand %xmm5,%xmm1
.byte 102,15,223,232 // pandn %xmm0,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,5,79,0,0 // movdqa 0x4f05(%eax),%xmm0
+ .byte 102,15,111,128,69,79,0,0 // movdqa 0x4f45(%eax),%xmm0
.byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,113,213,7 // psrlw $0x7,%xmm5
- .byte 102,15,111,128,53,79,0,0 // movdqa 0x4f35(%eax),%xmm0
+ .byte 102,15,111,128,117,79,0,0 // movdqa 0x4f75(%eax),%xmm0
.byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
.byte 102,15,219,232 // pand %xmm0,%xmm5
.byte 102,15,249,213 // psubw %xmm5,%xmm2
@@ -74392,16 +76349,16 @@ _sk_exclusion_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b79f <_sk_exclusion_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call bc4f <_sk_exclusion_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,111,184,81,77,0,0 // movdqa 0x4d51(%eax),%xmm7
+ .byte 102,15,111,184,145,77,0,0 // movdqa 0x4d91(%eax),%xmm7
.byte 102,15,253,207 // paddw %xmm7,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,15,111,176,129,77,0,0 // movdqa 0x4d81(%eax),%xmm6
+ .byte 102,15,111,176,193,77,0,0 // movdqa 0x4dc1(%eax),%xmm6
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
@@ -74462,9 +76419,9 @@ _sk_hardlight_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call b899 <_sk_hardlight_sse2_lowp+0x1c>
+ .byte 232,0,0,0,0 // call bd49 <_sk_hardlight_sse2_lowp+0x1c>
.byte 88 // pop %eax
- .byte 102,15,111,184,87,76,0,0 // movdqa 0x4c57(%eax),%xmm7
+ .byte 102,15,111,184,151,76,0,0 // movdqa 0x4c97(%eax),%xmm7
.byte 102,15,127,125,200 // movdqa %xmm7,-0x38(%ebp)
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,249,85,72 // psubw 0x48(%ebp),%xmm2
@@ -74491,7 +76448,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,15,249,209 // psubw %xmm1,%xmm2
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,128,103,76,0,0 // movdqa 0x4c67(%eax),%xmm0
+ .byte 102,15,111,128,167,76,0,0 // movdqa 0x4ca7(%eax),%xmm0
.byte 102,15,239,216 // pxor %xmm0,%xmm3
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
@@ -74598,10 +76555,10 @@ _sk_overlay_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call babb <_sk_overlay_sse2_lowp+0x1f>
+ .byte 232,0,0,0,0 // call bf6b <_sk_overlay_sse2_lowp+0x1f>
.byte 88 // pop %eax
.byte 102,15,111,69,72 // movdqa 0x48(%ebp),%xmm0
- .byte 102,15,111,184,53,74,0,0 // movdqa 0x4a35(%eax),%xmm7
+ .byte 102,15,111,184,117,74,0,0 // movdqa 0x4a75(%eax),%xmm7
.byte 102,15,127,125,232 // movdqa %xmm7,-0x18(%ebp)
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,249,208 // psubw %xmm0,%xmm2
@@ -74628,7 +76585,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,249,234 // psubw %xmm2,%xmm5
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,111,144,69,74,0,0 // movdqa 0x4a45(%eax),%xmm2
+ .byte 102,15,111,144,133,74,0,0 // movdqa 0x4a85(%eax),%xmm2
.byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
.byte 102,15,239,226 // pxor %xmm2,%xmm4
.byte 102,15,239,194 // pxor %xmm2,%xmm0
@@ -74758,10 +76715,10 @@ _sk_load_8888_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call bd2a <_sk_load_8888_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call c1da <_sk_load_8888_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja bd50 <_sk_load_8888_sse2_lowp+0x56>
+ .byte 119,32 // ja c200 <_sk_load_8888_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,50,1,0,0 // mov 0x132(%edi,%ecx,4),%ecx
@@ -74770,14 +76727,14 @@ _sk_load_8888_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp bd99 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,73 // jmp c249 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp bd99 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,61 // jmp c249 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp bd99 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,43 // jmp c249 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -74794,7 +76751,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,198,71,0,0 // movdqa 0x47c6(%edi),%xmm5
+ .byte 102,15,111,175,6,72,0,0 // movdqa 0x4806(%edi),%xmm5
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,219,197 // pand %xmm5,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -74873,10 +76830,10 @@ _sk_load_8888_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call beb5 <_sk_load_8888_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call c365 <_sk_load_8888_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja bedb <_sk_load_8888_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja c38b <_sk_load_8888_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -74885,14 +76842,14 @@ _sk_load_8888_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp bf24 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp c3d4 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp bf24 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp c3d4 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp bf24 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp c3d4 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -74909,7 +76866,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,114,226,16 // psrad $0x10,%xmm2
.byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,59,70,0,0 // movdqa 0x463b(%edi),%xmm2
+ .byte 102,15,111,151,123,70,0,0 // movdqa 0x467b(%edi),%xmm2
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
@@ -75003,19 +76960,19 @@ _sk_store_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call c080 <_sk_store_8888_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call c530 <_sk_store_8888_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja c09d <_sk_store_8888_sse2_lowp+0x91>
+ .byte 119,19 // ja c54d <_sk_store_8888_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp c0fa <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,93 // jmp c5aa <_sk_store_8888_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp c0fa <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,80 // jmp c5aa <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -75023,7 +76980,7 @@ _sk_store_8888_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp c0fa <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,48 // jmp c5aa <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -75060,7 +77017,7 @@ _sk_store_8888_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne c146 <_sk_store_8888_sse2_lowp+0x13a>
+ .byte 117,0 // jne c5f6 <_sk_store_8888_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -75092,10 +77049,10 @@ _sk_load_bgra_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c184 <_sk_load_bgra_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call c634 <_sk_load_bgra_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja c1aa <_sk_load_bgra_sse2_lowp+0x56>
+ .byte 119,32 // ja c65a <_sk_load_bgra_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,52,1,0,0 // mov 0x134(%edi,%ecx,4),%ecx
@@ -75104,14 +77061,14 @@ _sk_load_bgra_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp c1f3 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,73 // jmp c6a3 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp c1f3 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,61 // jmp c6a3 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp c1f3 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,43 // jmp c6a3 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -75128,7 +77085,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,108,67,0,0 // movdqa 0x436c(%edi),%xmm5
+ .byte 102,15,111,175,172,67,0,0 // movdqa 0x43ac(%edi),%xmm5
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,213 // pand %xmm5,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -75208,10 +77165,10 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c311 <_sk_load_bgra_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call c7c1 <_sk_load_bgra_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja c337 <_sk_load_bgra_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja c7e7 <_sk_load_bgra_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -75220,14 +77177,14 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp c380 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp c830 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp c380 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp c830 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp c380 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp c830 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -75244,7 +77201,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,114,226,16 // psrad $0x10,%xmm2
.byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,223,65,0,0 // movdqa 0x41df(%edi),%xmm2
+ .byte 102,15,111,151,31,66,0,0 // movdqa 0x421f(%edi),%xmm2
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
@@ -75338,19 +77295,19 @@ _sk_store_bgra_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call c4dc <_sk_store_bgra_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call c98c <_sk_store_bgra_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja c4f9 <_sk_store_bgra_sse2_lowp+0x91>
+ .byte 119,19 // ja c9a9 <_sk_store_bgra_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp c556 <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,93 // jmp ca06 <_sk_store_bgra_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp c556 <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,80 // jmp ca06 <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -75358,7 +77315,7 @@ _sk_store_bgra_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp c556 <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,48 // jmp ca06 <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -75395,7 +77352,7 @@ _sk_store_bgra_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne c5a2 <_sk_store_bgra_sse2_lowp+0x13a>
+ .byte 117,0 // jne ca52 <_sk_store_bgra_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -75414,7 +77371,7 @@ _sk_gather_8888_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
- .byte 232,0,0,0,0 // call c5bd <_sk_gather_8888_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call ca6d <_sk_gather_8888_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -75506,7 +77463,7 @@ _sk_gather_8888_sse2_lowp:
.byte 102,15,114,243,16 // pslld $0x10,%xmm3
.byte 102,15,114,227,16 // psrad $0x10,%xmm3
.byte 102,15,107,216 // packssdw %xmm0,%xmm3
- .byte 102,15,111,186,51,63,0,0 // movdqa 0x3f33(%edx),%xmm7
+ .byte 102,15,111,186,115,63,0,0 // movdqa 0x3f73(%edx),%xmm7
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
.byte 102,15,114,212,16 // psrld $0x10,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
@@ -75545,7 +77502,7 @@ _sk_gather_bgra_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call c7b8 <_sk_gather_bgra_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call cc68 <_sk_gather_bgra_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -75636,7 +77593,7 @@ _sk_gather_bgra_sse2_lowp:
.byte 102,15,114,243,16 // pslld $0x10,%xmm3
.byte 102,15,114,227,16 // psrad $0x10,%xmm3
.byte 102,15,107,218 // packssdw %xmm2,%xmm3
- .byte 102,15,111,162,56,61,0,0 // movdqa 0x3d38(%edx),%xmm4
+ .byte 102,15,111,162,120,61,0,0 // movdqa 0x3d78(%edx),%xmm4
.byte 102,15,114,208,16 // psrld $0x10,%xmm0
.byte 102,15,114,215,16 // psrld $0x10,%xmm7
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
@@ -75691,10 +77648,10 @@ _sk_load_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c9dc <_sk_load_565_sse2_lowp+0x3b>
+ .byte 232,0,0,0,0 // call ce8c <_sk_load_565_sse2_lowp+0x3b>
.byte 94 // pop %esi
.byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja c9fe <_sk_load_565_sse2_lowp+0x5d>
+ .byte 119,28 // ja ceae <_sk_load_565_sse2_lowp+0x5d>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,142,244,0,0,0 // mov 0xf4(%esi,%ecx,4),%ecx
@@ -75702,14 +77659,14 @@ _sk_load_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,123 // movzwl (%ebx,%edi,2),%ecx
.byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,59 // jmp ca39 <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,59 // jmp cee9 <_sk_load_565_sse2_lowp+0x98>
.byte 243,15,111,4,123 // movdqu (%ebx,%edi,2),%xmm0
- .byte 235,52 // jmp ca39 <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,52 // jmp cee9 <_sk_load_565_sse2_lowp+0x98>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,68,123,4,2 // pinsrw $0x2,0x4(%ebx,%edi,2),%xmm0
.byte 243,15,16,12,123 // movss (%ebx,%edi,2),%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,30 // jmp ca39 <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,30 // jmp cee9 <_sk_load_565_sse2_lowp+0x98>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,68,123,12,6 // pinsrw $0x6,0xc(%ebx,%edi,2),%xmm0
.byte 102,15,196,68,123,10,5 // pinsrw $0x5,0xa(%ebx,%edi,2),%xmm0
@@ -75717,11 +77674,11 @@ _sk_load_565_sse2_lowp:
.byte 102,15,18,4,123 // movlpd (%ebx,%edi,2),%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,190,84,59,0,0 // pand 0x3b54(%esi),%xmm7
+ .byte 102,15,219,190,148,59,0,0 // pand 0x3b94(%esi),%xmm7
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,142,100,59,0,0 // pand 0x3b64(%esi),%xmm1
- .byte 102,15,111,150,116,59,0,0 // movdqa 0x3b74(%esi),%xmm2
+ .byte 102,15,219,142,164,59,0,0 // pand 0x3ba4(%esi),%xmm1
+ .byte 102,15,111,150,180,59,0,0 // movdqa 0x3bb4(%esi),%xmm2
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,199 // por %xmm7,%xmm0
@@ -75743,7 +77700,7 @@ _sk_load_565_sse2_lowp:
.byte 137,124,36,8 // mov %edi,0x8(%esp)
.byte 137,76,36,4 // mov %ecx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,158,20,59,0,0 // movaps 0x3b14(%esi),%xmm3
+ .byte 15,40,158,84,59,0,0 // movaps 0x3b54(%esi),%xmm3
.byte 255,80,4 // call *0x4(%eax)
.byte 131,196,92 // add $0x5c,%esp
.byte 94 // pop %esi
@@ -75789,10 +77746,10 @@ _sk_load_565_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call cb17 <_sk_load_565_dst_sse2_lowp+0x2b>
+ .byte 232,0,0,0,0 // call cfc7 <_sk_load_565_dst_sse2_lowp+0x2b>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja cb39 <_sk_load_565_dst_sse2_lowp+0x4d>
+ .byte 119,28 // ja cfe9 <_sk_load_565_dst_sse2_lowp+0x4d>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,249,0,0,0 // mov 0xf9(%edi,%ecx,4),%ecx
@@ -75800,14 +77757,14 @@ _sk_load_565_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,59 // jmp cb74 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,59 // jmp d024 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 243,15,111,36,115 // movdqu (%ebx,%esi,2),%xmm4
- .byte 235,52 // jmp cb74 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,52 // jmp d024 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
.byte 243,15,16,44,115 // movss (%ebx,%esi,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,30 // jmp cb74 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,30 // jmp d024 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
.byte 102,15,196,100,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
@@ -75815,11 +77772,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,18,36,115 // movlpd (%ebx,%esi,2),%xmm4
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,219,183,25,58,0,0 // pand 0x3a19(%edi),%xmm6
+ .byte 102,15,219,183,89,58,0,0 // pand 0x3a59(%edi),%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,175,41,58,0,0 // pand 0x3a29(%edi),%xmm5
- .byte 102,15,111,191,57,58,0,0 // movdqa 0x3a39(%edi),%xmm7
+ .byte 102,15,219,175,105,58,0,0 // pand 0x3a69(%edi),%xmm5
+ .byte 102,15,111,191,121,58,0,0 // movdqa 0x3a79(%edi),%xmm7
.byte 102,15,219,252 // pand %xmm4,%xmm7
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,230 // por %xmm6,%xmm4
@@ -75832,7 +77789,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,215,2 // psrlw $0x2,%xmm7
.byte 102,15,235,254 // por %xmm6,%xmm7
.byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,183,217,57,0,0 // movaps 0x39d9(%edi),%xmm6
+ .byte 15,40,183,25,58,0,0 // movaps 0x3a19(%edi),%xmm6
.byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
.byte 139,125,20 // mov 0x14(%ebp),%edi
.byte 137,124,36,12 // mov %edi,0xc(%esp)
@@ -75877,15 +77834,15 @@ _sk_store_565_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 232,0,0,0,0 // call cc3e <_sk_store_565_sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call d0ee <_sk_store_565_sse2_lowp+0x12>
.byte 95 // pop %edi
.byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,113,242,8 // psllw $0x8,%xmm2
- .byte 102,15,219,151,34,57,0,0 // pand 0x3922(%edi),%xmm2
+ .byte 102,15,219,151,98,57,0,0 // pand 0x3962(%edi),%xmm2
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,113,246,3 // psllw $0x3,%xmm6
- .byte 102,15,219,183,50,57,0,0 // pand 0x3932(%edi),%xmm6
+ .byte 102,15,219,183,114,57,0,0 // pand 0x3972(%edi),%xmm6
.byte 102,15,235,242 // por %xmm2,%xmm6
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,113,210,3 // psrlw $0x3,%xmm2
@@ -75904,19 +77861,19 @@ _sk_store_565_sse2_lowp:
.byte 128,249,6 // cmp $0x6,%cl
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,125,24 // movaps 0x18(%ebp),%xmm7
- .byte 119,22 // ja ccb6 <_sk_store_565_sse2_lowp+0x8a>
+ .byte 119,22 // ja d166 <_sk_store_565_sse2_lowp+0x8a>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 3,188,143,242,0,0,0 // add 0xf2(%edi,%ecx,4),%edi
.byte 255,231 // jmp *%edi
.byte 102,15,126,209 // movd %xmm2,%ecx
.byte 102,137,12,115 // mov %cx,(%ebx,%esi,2)
- .byte 235,59 // jmp ccf1 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,59 // jmp d1a1 <_sk_store_565_sse2_lowp+0xc5>
.byte 243,15,127,20,115 // movdqu %xmm2,(%ebx,%esi,2)
- .byte 235,52 // jmp ccf1 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,52 // jmp d1a1 <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,2 // pextrw $0x2,%xmm2,%ecx
.byte 102,137,76,115,4 // mov %cx,0x4(%ebx,%esi,2)
.byte 102,15,126,20,115 // movd %xmm2,(%ebx,%esi,2)
- .byte 235,35 // jmp ccf1 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,35 // jmp d1a1 <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,6 // pextrw $0x6,%xmm2,%ecx
.byte 102,137,76,115,12 // mov %cx,0xc(%ebx,%esi,2)
.byte 102,15,197,202,5 // pextrw $0x5,%xmm2,%ecx
@@ -75992,7 +77949,7 @@ _sk_gather_565_sse2_lowp:
.byte 102,15,244,242 // pmuludq %xmm2,%xmm6
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
- .byte 232,0,0,0,0 // call cdc4 <_sk_gather_565_sse2_lowp+0x78>
+ .byte 232,0,0,0,0 // call d274 <_sk_gather_565_sse2_lowp+0x78>
.byte 89 // pop %ecx
.byte 139,50 // mov (%edx),%esi
.byte 102,15,112,246,232 // pshufd $0xe8,%xmm6,%xmm6
@@ -76053,11 +78010,11 @@ _sk_gather_565_sse2_lowp:
.byte 102,15,108,198 // punpcklqdq %xmm6,%xmm0
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,219,169,108,55,0,0 // pand 0x376c(%ecx),%xmm5
+ .byte 102,15,219,169,172,55,0,0 // pand 0x37ac(%ecx),%xmm5
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,137,124,55,0,0 // pand 0x377c(%ecx),%xmm1
- .byte 102,15,111,145,140,55,0,0 // movdqa 0x378c(%ecx),%xmm2
+ .byte 102,15,219,137,188,55,0,0 // pand 0x37bc(%ecx),%xmm1
+ .byte 102,15,111,145,204,55,0,0 // movdqa 0x37cc(%ecx),%xmm2
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,197 // por %xmm5,%xmm0
@@ -76079,7 +78036,7 @@ _sk_gather_565_sse2_lowp:
.byte 137,116,36,8 // mov %esi,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,153,44,55,0,0 // movaps 0x372c(%ecx),%xmm3
+ .byte 15,40,153,108,55,0,0 // movaps 0x376c(%ecx),%xmm3
.byte 255,80,4 // call *0x4(%eax)
.byte 131,196,108 // add $0x6c,%esp
.byte 94 // pop %esi
@@ -76112,10 +78069,10 @@ _sk_load_4444_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call cf7e <_sk_load_4444_sse2_lowp+0x37>
+ .byte 232,0,0,0,0 // call d42e <_sk_load_4444_sse2_lowp+0x37>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja cfa0 <_sk_load_4444_sse2_lowp+0x59>
+ .byte 119,28 // ja d450 <_sk_load_4444_sse2_lowp+0x59>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,250,0,0,0 // mov 0xfa(%edi,%ecx,4),%ecx
@@ -76123,14 +78080,14 @@ _sk_load_4444_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,59 // jmp cfdb <_sk_load_4444_sse2_lowp+0x94>
+ .byte 235,59 // jmp d48b <_sk_load_4444_sse2_lowp+0x94>
.byte 243,15,111,36,115 // movdqu (%ebx,%esi,2),%xmm4
- .byte 235,52 // jmp cfdb <_sk_load_4444_sse2_lowp+0x94>
+ .byte 235,52 // jmp d48b <_sk_load_4444_sse2_lowp+0x94>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
.byte 243,15,16,4,115 // movss (%ebx,%esi,2),%xmm0
.byte 243,15,16,224 // movss %xmm0,%xmm4
- .byte 235,30 // jmp cfdb <_sk_load_4444_sse2_lowp+0x94>
+ .byte 235,30 // jmp d48b <_sk_load_4444_sse2_lowp+0x94>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
.byte 102,15,196,100,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
@@ -76140,7 +78097,7 @@ _sk_load_4444_sse2_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,135,2,54,0,0 // movdqa 0x3602(%edi),%xmm0
+ .byte 102,15,111,135,66,54,0,0 // movdqa 0x3642(%edi),%xmm0
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -76215,10 +78172,10 @@ _sk_load_4444_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d0c3 <_sk_load_4444_dst_sse2_lowp+0x2f>
+ .byte 232,0,0,0,0 // call d573 <_sk_load_4444_dst_sse2_lowp+0x2f>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja d0e5 <_sk_load_4444_dst_sse2_lowp+0x51>
+ .byte 119,28 // ja d595 <_sk_load_4444_dst_sse2_lowp+0x51>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,253,0,0,0 // mov 0xfd(%edi,%ecx,4),%ecx
@@ -76226,14 +78183,14 @@ _sk_load_4444_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,249 // movd %ecx,%xmm7
- .byte 235,59 // jmp d120 <_sk_load_4444_dst_sse2_lowp+0x8c>
+ .byte 235,59 // jmp d5d0 <_sk_load_4444_dst_sse2_lowp+0x8c>
.byte 243,15,111,60,115 // movdqu (%ebx,%esi,2),%xmm7
- .byte 235,52 // jmp d120 <_sk_load_4444_dst_sse2_lowp+0x8c>
+ .byte 235,52 // jmp d5d0 <_sk_load_4444_dst_sse2_lowp+0x8c>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,124,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm7
.byte 243,15,16,44,115 // movss (%ebx,%esi,2),%xmm5
.byte 243,15,16,253 // movss %xmm5,%xmm7
- .byte 235,30 // jmp d120 <_sk_load_4444_dst_sse2_lowp+0x8c>
+ .byte 235,30 // jmp d5d0 <_sk_load_4444_dst_sse2_lowp+0x8c>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,124,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm7
.byte 102,15,196,124,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm7
@@ -76243,7 +78200,7 @@ _sk_load_4444_dst_sse2_lowp:
.byte 102,15,113,213,12 // psrlw $0xc,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,111,159,189,52,0,0 // movdqa 0x34bd(%edi),%xmm3
+ .byte 102,15,111,159,253,52,0,0 // movdqa 0x34fd(%edi),%xmm3
.byte 102,15,219,243 // pand %xmm3,%xmm6
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
.byte 102,15,113,212,4 // psrlw $0x4,%xmm4
@@ -76307,16 +78264,16 @@ _sk_store_4444_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
.byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 232,0,0,0,0 // call d1ee <_sk_store_4444_sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call d69e <_sk_store_4444_sse2_lowp+0x12>
.byte 94 // pop %esi
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,243,8 // psllw $0x8,%xmm3
- .byte 102,15,219,158,162,51,0,0 // pand 0x33a2(%esi),%xmm3
+ .byte 102,15,219,158,226,51,0,0 // pand 0x33e2(%esi),%xmm3
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,113,246,4 // psllw $0x4,%xmm6
- .byte 102,15,219,182,178,51,0,0 // pand 0x33b2(%esi),%xmm6
+ .byte 102,15,219,182,242,51,0,0 // pand 0x33f2(%esi),%xmm6
.byte 102,15,235,243 // por %xmm3,%xmm6
- .byte 102,15,111,174,194,51,0,0 // movdqa 0x33c2(%esi),%xmm5
+ .byte 102,15,111,174,2,52,0,0 // movdqa 0x3402(%esi),%xmm5
.byte 102,15,219,234 // pand %xmm2,%xmm5
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -76337,19 +78294,19 @@ _sk_store_4444_sse2_lowp:
.byte 128,249,6 // cmp $0x6,%cl
.byte 139,125,16 // mov 0x10(%ebp),%edi
.byte 15,40,125,24 // movaps 0x18(%ebp),%xmm7
- .byte 119,22 // ja d276 <_sk_store_4444_sse2_lowp+0x9a>
+ .byte 119,22 // ja d726 <_sk_store_4444_sse2_lowp+0x9a>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 3,180,142,2,1,0,0 // add 0x102(%esi,%ecx,4),%esi
.byte 255,230 // jmp *%esi
.byte 102,15,126,217 // movd %xmm3,%ecx
.byte 102,137,12,123 // mov %cx,(%ebx,%edi,2)
- .byte 235,59 // jmp d2b1 <_sk_store_4444_sse2_lowp+0xd5>
+ .byte 235,59 // jmp d761 <_sk_store_4444_sse2_lowp+0xd5>
.byte 243,15,127,28,123 // movdqu %xmm3,(%ebx,%edi,2)
- .byte 235,52 // jmp d2b1 <_sk_store_4444_sse2_lowp+0xd5>
+ .byte 235,52 // jmp d761 <_sk_store_4444_sse2_lowp+0xd5>
.byte 102,15,197,203,2 // pextrw $0x2,%xmm3,%ecx
.byte 102,137,76,123,4 // mov %cx,0x4(%ebx,%edi,2)
.byte 102,15,126,28,123 // movd %xmm3,(%ebx,%edi,2)
- .byte 235,35 // jmp d2b1 <_sk_store_4444_sse2_lowp+0xd5>
+ .byte 235,35 // jmp d761 <_sk_store_4444_sse2_lowp+0xd5>
.byte 102,15,197,203,6 // pextrw $0x6,%xmm3,%ecx
.byte 102,137,76,123,12 // mov %cx,0xc(%ebx,%edi,2)
.byte 102,15,197,203,5 // pextrw $0x5,%xmm3,%ecx
@@ -76377,7 +78334,7 @@ _sk_store_4444_sse2_lowp:
.byte 93 // pop %ebp
.byte 195 // ret
.byte 15,31,0 // nopl (%eax)
- .byte 126,0 // jle d2f2 <_sk_store_4444_sse2_lowp+0x116>
+ .byte 126,0 // jle d7a2 <_sk_store_4444_sse2_lowp+0x116>
.byte 0,0 // add %al,(%eax)
.byte 153 // cltd
.byte 0,0 // add %al,(%eax)
@@ -76398,7 +78355,7 @@ _sk_gather_4444_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call d319 <_sk_gather_4444_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call d7c9 <_sk_gather_4444_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -76486,7 +78443,7 @@ _sk_gather_4444_sse2_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,130,103,50,0,0 // movdqa 0x3267(%edx),%xmm0
+ .byte 102,15,111,130,167,50,0,0 // movdqa 0x32a7(%edx),%xmm0
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,111,223 // movdqa %xmm7,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -76546,10 +78503,10 @@ _sk_load_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d536 <_sk_load_a8_sse2_lowp+0x3a>
+ .byte 232,0,0,0,0 // call d9e6 <_sk_load_a8_sse2_lowp+0x3a>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja d558 <_sk_load_a8_sse2_lowp+0x5c>
+ .byte 119,28 // ja da08 <_sk_load_a8_sse2_lowp+0x5c>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,198,0,0,0 // mov 0xc6(%edi,%ecx,4),%ecx
@@ -76557,10 +78514,10 @@ _sk_load_a8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp d5b2 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,90 // jmp da62 <_sk_load_a8_sse2_lowp+0xb6>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp d5b2 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,79 // jmp da62 <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -76568,7 +78525,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,221 // movss %xmm5,%xmm3
- .byte 235,47 // jmp d5b2 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,47 // jmp da62 <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -76579,7 +78536,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,221 // movsd %xmm5,%xmm3
- .byte 102,15,219,159,186,47,0,0 // pand 0x2fba(%edi),%xmm3
+ .byte 102,15,219,159,250,47,0,0 // pand 0x2ffa(%edi),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
.byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
@@ -76634,10 +78591,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d641 <_sk_load_a8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call daf1 <_sk_load_a8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja d663 <_sk_load_a8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja db13 <_sk_load_a8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -76645,10 +78602,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp d6bd <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp db6d <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp d6bd <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp db6d <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -76656,7 +78613,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp d6bd <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp db6d <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -76667,7 +78624,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,175,46,0,0 // pand 0x2eaf(%edi),%xmm4
+ .byte 102,15,219,167,239,46,0,0 // pand 0x2eef(%edi),%xmm4
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 102,15,127,100,36,64 // movdqa %xmm4,0x40(%esp)
.byte 102,15,239,228 // pxor %xmm4,%xmm4
@@ -76724,32 +78681,32 @@ _sk_store_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d759 <_sk_store_a8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call dc09 <_sk_store_a8_sse2_lowp+0x39>
.byte 91 // pop %ebx
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,26 // ja d779 <_sk_store_a8_sse2_lowp+0x59>
+ .byte 119,26 // ja dc29 <_sk_store_a8_sse2_lowp+0x59>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,139,223,0,0,0 // mov 0xdf(%ebx,%ecx,4),%ecx
.byte 1,217 // add %ebx,%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,217 // movd %xmm3,%ecx
.byte 136,12,55 // mov %cl,(%edi,%esi,1)
- .byte 233,136,0,0,0 // jmp d801 <_sk_store_a8_sse2_lowp+0xe1>
- .byte 102,15,111,163,151,45,0,0 // movdqa 0x2d97(%ebx),%xmm4
+ .byte 233,136,0,0,0 // jmp dcb1 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 102,15,111,163,215,45,0,0 // movdqa 0x2dd7(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,214,36,55 // movq %xmm4,(%edi,%esi,1)
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 235,109 // jmp d801 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,109 // jmp dcb1 <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,2 // pextrw $0x2,%xmm3,%ecx
.byte 136,76,55,2 // mov %cl,0x2(%edi,%esi,1)
- .byte 102,15,111,163,151,45,0,0 // movdqa 0x2d97(%ebx),%xmm4
+ .byte 102,15,111,163,215,45,0,0 // movdqa 0x2dd7(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,225 // movd %xmm4,%ecx
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 102,137,12,55 // mov %cx,(%edi,%esi,1)
- .byte 235,70 // jmp d801 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,70 // jmp dcb1 <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,6 // pextrw $0x6,%xmm3,%ecx
.byte 136,76,55,6 // mov %cl,0x6(%edi,%esi,1)
.byte 102,15,197,203,5 // pextrw $0x5,%xmm3,%ecx
@@ -76759,7 +78716,7 @@ _sk_store_a8_sse2_lowp:
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 102,15,111,163,151,45,0,0 // movdqa 0x2d97(%ebx),%xmm4
+ .byte 102,15,111,163,215,45,0,0 // movdqa 0x2dd7(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,36,55 // movd %xmm4,(%edi,%esi,1)
@@ -76793,7 +78750,7 @@ _sk_store_a8_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 0,125,0 // add %bh,0x0(%ebp)
.byte 0,0 // add %al,(%eax)
- .byte 116,0 // je d84a <_sk_store_a8_sse2_lowp+0x12a>
+ .byte 116,0 // je dcfa <_sk_store_a8_sse2_lowp+0x12a>
.byte 0,0 // add %al,(%eax)
.byte 107,0,0 // imul $0x0,(%eax),%eax
.byte 0,98,0 // add %ah,0x0(%edx)
@@ -76933,10 +78890,10 @@ _sk_load_g8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call da0c <_sk_load_g8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call debc <_sk_load_g8_sse2_lowp+0x39>
.byte 94 // pop %esi
.byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja da2e <_sk_load_g8_sse2_lowp+0x5b>
+ .byte 119,28 // ja dede <_sk_load_g8_sse2_lowp+0x5b>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,142,200,0,0,0 // mov 0xc8(%esi,%ecx,4),%ecx
@@ -76944,10 +78901,10 @@ _sk_load_g8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,59 // movzbl (%ebx,%edi,1),%ecx
.byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,90 // jmp da88 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,90 // jmp df38 <_sk_load_g8_sse2_lowp+0xb5>
.byte 243,15,126,4,59 // movq (%ebx,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,79 // jmp da88 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,79 // jmp df38 <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,2 // movzbl 0x2(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,2 // pinsrw $0x2,%ecx,%xmm0
@@ -76955,7 +78912,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,197 // movss %xmm5,%xmm0
- .byte 235,47 // jmp da88 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,47 // jmp df38 <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,6 // movzbl 0x6(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,6 // pinsrw $0x6,%ecx,%xmm0
@@ -76966,7 +78923,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,44,59 // movd (%ebx,%edi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,197 // movsd %xmm5,%xmm0
- .byte 102,15,219,134,228,42,0,0 // pand 0x2ae4(%esi),%xmm0
+ .byte 102,15,219,134,36,43,0,0 // pand 0x2b24(%esi),%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
.byte 15,41,92,36,48 // movaps %xmm3,0x30(%esp)
@@ -76977,7 +78934,7 @@ _sk_load_g8_sse2_lowp:
.byte 137,124,36,8 // mov %edi,0x8(%esp)
.byte 137,76,36,4 // mov %ecx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,158,228,42,0,0 // movaps 0x2ae4(%esi),%xmm3
+ .byte 15,40,158,36,43,0,0 // movaps 0x2b24(%esi),%xmm3
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,80,4 // call *0x4(%eax)
@@ -77021,10 +78978,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call db19 <_sk_load_g8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call dfc9 <_sk_load_g8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja db3b <_sk_load_g8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja dfeb <_sk_load_g8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -77032,10 +78989,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp db95 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp e045 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp db95 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp e045 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -77043,7 +79000,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp db95 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp e045 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -77054,9 +79011,9 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,215,41,0,0 // pand 0x29d7(%edi),%xmm4
+ .byte 102,15,219,167,23,42,0,0 // pand 0x2a17(%edi),%xmm4
.byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,175,215,41,0,0 // movaps 0x29d7(%edi),%xmm5
+ .byte 15,40,175,23,42,0,0 // movaps 0x2a17(%edi),%xmm5
.byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
.byte 102,15,127,100,36,48 // movdqa %xmm4,0x30(%esp)
.byte 102,15,127,100,36,32 // movdqa %xmm4,0x20(%esp)
@@ -77097,7 +79054,7 @@ _sk_luminance_to_alpha_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 232,0,0,0,0 // call dc09 <_sk_luminance_to_alpha_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call e0b9 <_sk_luminance_to_alpha_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -77107,10 +79064,10 @@ _sk_luminance_to_alpha_sse2_lowp:
.byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
.byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
.byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 102,15,213,128,183,41,0,0 // pmullw 0x29b7(%eax),%xmm0
- .byte 102,15,213,136,199,41,0,0 // pmullw 0x29c7(%eax),%xmm1
+ .byte 102,15,213,128,247,41,0,0 // pmullw 0x29f7(%eax),%xmm0
+ .byte 102,15,213,136,7,42,0,0 // pmullw 0x2a07(%eax),%xmm1
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,152,215,41,0,0 // pmullw 0x29d7(%eax),%xmm3
+ .byte 102,15,213,152,23,42,0,0 // pmullw 0x2a17(%eax),%xmm3
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 141,71,4 // lea 0x4(%edi),%eax
@@ -77191,7 +79148,7 @@ _sk_gather_g8_sse2_lowp:
.byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx
.byte 193,226,8 // shl $0x8,%edx
.byte 9,202 // or %ecx,%edx
- .byte 232,0,0,0,0 // call dd4e <_sk_gather_g8_sse2_lowp+0xc9>
+ .byte 232,0,0,0,0 // call e1fe <_sk_gather_g8_sse2_lowp+0xc9>
.byte 89 // pop %ecx
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
@@ -77235,7 +79192,7 @@ _sk_gather_g8_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,60,36 // mov %edi,(%esp)
- .byte 15,40,153,162,39,0,0 // movaps 0x27a2(%ecx),%xmm3
+ .byte 15,40,153,226,39,0,0 // movaps 0x27e2(%ecx),%xmm3
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,80,4 // call *0x4(%eax)
@@ -77255,15 +79212,15 @@ _sk_scale_1_float_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call de1f <_sk_scale_1_float_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call e2cf <_sk_scale_1_float_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,57 // mov (%ecx),%edi
.byte 243,15,16,39 // movss (%edi),%xmm4
- .byte 243,15,89,166,221,39,0,0 // mulss 0x27dd(%esi),%xmm4
- .byte 243,15,88,166,209,39,0,0 // addss 0x27d1(%esi),%xmm4
+ .byte 243,15,89,166,29,40,0,0 // mulss 0x281d(%esi),%xmm4
+ .byte 243,15,88,166,17,40,0,0 // addss 0x2811(%esi),%xmm4
.byte 243,15,44,252 // cvttss2si %xmm4,%edi
.byte 102,15,110,239 // movd %edi,%xmm5
.byte 139,125,20 // mov 0x14(%ebp),%edi
@@ -77276,7 +79233,7 @@ _sk_scale_1_float_sse2_lowp:
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
.byte 102,15,213,213 // pmullw %xmm5,%xmm2
.byte 102,15,213,221 // pmullw %xmm5,%xmm3
- .byte 102,15,111,174,209,38,0,0 // movdqa 0x26d1(%esi),%xmm5
+ .byte 102,15,111,174,17,39,0,0 // movdqa 0x2711(%esi),%xmm5
.byte 102,15,253,197 // paddw %xmm5,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,15,253,213 // paddw %xmm5,%xmm2
@@ -77315,19 +79272,19 @@ _sk_lerp_1_float_sse2_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call deed <_sk_lerp_1_float_sse2_lowp+0x1d>
+ .byte 232,0,0,0,0 // call e39d <_sk_lerp_1_float_sse2_lowp+0x1d>
.byte 89 // pop %ecx
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
.byte 243,15,16,50 // movss (%edx),%xmm6
- .byte 243,15,89,177,15,39,0,0 // mulss 0x270f(%ecx),%xmm6
- .byte 243,15,88,177,3,39,0,0 // addss 0x2703(%ecx),%xmm6
+ .byte 243,15,89,177,79,39,0,0 // mulss 0x274f(%ecx),%xmm6
+ .byte 243,15,88,177,67,39,0,0 // addss 0x2743(%ecx),%xmm6
.byte 243,15,44,214 // cvttss2si %xmm6,%edx
.byte 102,15,110,242 // movd %edx,%xmm6
.byte 242,15,112,246,0 // pshuflw $0x0,%xmm6,%xmm6
.byte 102,15,112,246,80 // pshufd $0x50,%xmm6,%xmm6
- .byte 102,15,111,129,3,38,0,0 // movdqa 0x2603(%ecx),%xmm0
+ .byte 102,15,111,129,67,38,0,0 // movdqa 0x2643(%ecx),%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
.byte 102,15,253,200 // paddw %xmm0,%xmm1
.byte 102,15,213,214 // pmullw %xmm6,%xmm2
@@ -77400,10 +79357,10 @@ _sk_scale_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call e016 <_sk_scale_u8_sse2_lowp+0x31>
+ .byte 232,0,0,0,0 // call e4c6 <_sk_scale_u8_sse2_lowp+0x31>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja e038 <_sk_scale_u8_sse2_lowp+0x53>
+ .byte 119,28 // ja e4e8 <_sk_scale_u8_sse2_lowp+0x53>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,2,1,0,0 // mov 0x102(%edi,%ecx,4),%ecx
@@ -77411,10 +79368,10 @@ _sk_scale_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp e092 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,90 // jmp e542 <_sk_scale_u8_sse2_lowp+0xad>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp e092 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,79 // jmp e542 <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -77422,7 +79379,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp e092 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,47 // jmp e542 <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -77433,9 +79390,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,218,36,0,0 // pand 0x24da(%edi),%xmm4
+ .byte 102,15,219,167,26,37,0,0 // pand 0x251a(%edi),%xmm4
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,111,175,218,36,0,0 // movdqa 0x24da(%edi),%xmm5
+ .byte 102,15,111,175,26,37,0,0 // movdqa 0x251a(%edi),%xmm5
.byte 102,15,253,197 // paddw %xmm5,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
@@ -77502,10 +79459,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call e162 <_sk_lerp_u8_sse2_lowp+0x2e>
+ .byte 232,0,0,0,0 // call e612 <_sk_lerp_u8_sse2_lowp+0x2e>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja e184 <_sk_lerp_u8_sse2_lowp+0x50>
+ .byte 119,28 // ja e634 <_sk_lerp_u8_sse2_lowp+0x50>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,74,1,0,0 // mov 0x14a(%edi,%ecx,4),%ecx
@@ -77513,10 +79470,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp e1de <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,90 // jmp e68e <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp e1de <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,79 // jmp e68e <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -77524,7 +79481,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,15,110,225 // movd %ecx,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,220 // movss %xmm4,%xmm3
- .byte 235,47 // jmp e1de <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,47 // jmp e68e <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -77535,8 +79492,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,15,110,36,51 // movd (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,220 // movsd %xmm4,%xmm3
- .byte 102,15,219,159,142,35,0,0 // pand 0x238e(%edi),%xmm3
- .byte 102,15,111,183,142,35,0,0 // movdqa 0x238e(%edi),%xmm6
+ .byte 102,15,219,159,206,35,0,0 // pand 0x23ce(%edi),%xmm3
+ .byte 102,15,111,183,206,35,0,0 // movdqa 0x23ce(%edi),%xmm6
.byte 102,15,111,227 // movdqa %xmm3,%xmm4
.byte 102,15,239,230 // pxor %xmm6,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
@@ -77625,10 +79582,10 @@ _sk_scale_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call e30b <_sk_scale_565_sse2_lowp+0x43>
+ .byte 232,0,0,0,0 // call e7bb <_sk_scale_565_sse2_lowp+0x43>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja e32d <_sk_scale_565_sse2_lowp+0x65>
+ .byte 119,28 // ja e7dd <_sk_scale_565_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,249,1,0,0 // mov 0x1f9(%edi,%ecx,4),%ecx
@@ -77636,14 +79593,14 @@ _sk_scale_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,59 // jmp e368 <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,59 // jmp e818 <_sk_scale_565_sse2_lowp+0xa0>
.byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3
- .byte 235,52 // jmp e368 <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,52 // jmp e818 <_sk_scale_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
.byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1
.byte 243,15,16,217 // movss %xmm1,%xmm3
- .byte 235,30 // jmp e368 <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,30 // jmp e818 <_sk_scale_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
.byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
@@ -77651,11 +79608,11 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,18,28,115 // movlpd (%ebx,%esi,2),%xmm3
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,219,143,37,34,0,0 // pand 0x2225(%edi),%xmm1
+ .byte 102,15,219,143,101,34,0,0 // pand 0x2265(%edi),%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
.byte 102,15,113,210,5 // psrlw $0x5,%xmm2
- .byte 102,15,219,151,53,34,0,0 // pand 0x2235(%edi),%xmm2
- .byte 102,15,111,135,69,34,0,0 // movdqa 0x2245(%edi),%xmm0
+ .byte 102,15,219,151,117,34,0,0 // pand 0x2275(%edi),%xmm2
+ .byte 102,15,111,135,133,34,0,0 // movdqa 0x2285(%edi),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,113,211,13 // psrlw $0xd,%xmm3
.byte 102,15,235,217 // por %xmm1,%xmm3
@@ -77668,7 +79625,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,113,208,2 // psrlw $0x2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
.byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
- .byte 102,15,111,167,245,33,0,0 // movdqa 0x21f5(%edi),%xmm4
+ .byte 102,15,111,167,53,34,0,0 // movdqa 0x2235(%edi),%xmm4
.byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp)
.byte 102,15,239,244 // pxor %xmm4,%xmm6
.byte 102,15,239,252 // pxor %xmm4,%xmm7
@@ -77711,7 +79668,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,15,213,101,136 // pmullw -0x78(%ebp),%xmm4
.byte 102,15,213,125,184 // pmullw -0x48(%ebp),%xmm7
- .byte 102,15,111,135,229,33,0,0 // movdqa 0x21e5(%edi),%xmm0
+ .byte 102,15,111,135,37,34,0,0 // movdqa 0x2225(%edi),%xmm0
.byte 102,15,253,216 // paddw %xmm0,%xmm3
.byte 102,15,253,208 // paddw %xmm0,%xmm2
.byte 102,15,253,224 // paddw %xmm0,%xmm4
@@ -77788,10 +79745,10 @@ _sk_lerp_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call e563 <_sk_lerp_565_sse2_lowp+0x43>
+ .byte 232,0,0,0,0 // call ea13 <_sk_lerp_565_sse2_lowp+0x43>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja e585 <_sk_lerp_565_sse2_lowp+0x65>
+ .byte 119,28 // ja ea35 <_sk_lerp_565_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,73,2,0,0 // mov 0x249(%edi,%ecx,4),%ecx
@@ -77799,14 +79756,14 @@ _sk_lerp_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,59 // jmp e5c0 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,59 // jmp ea70 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3
- .byte 235,52 // jmp e5c0 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,52 // jmp ea70 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
.byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1
.byte 243,15,16,217 // movss %xmm1,%xmm3
- .byte 235,30 // jmp e5c0 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,30 // jmp ea70 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
.byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
@@ -77814,11 +79771,11 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,18,28,115 // movlpd (%ebx,%esi,2),%xmm3
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,219,143,205,31,0,0 // pand 0x1fcd(%edi),%xmm1
+ .byte 102,15,219,143,13,32,0,0 // pand 0x200d(%edi),%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
.byte 102,15,113,210,5 // psrlw $0x5,%xmm2
- .byte 102,15,219,151,221,31,0,0 // pand 0x1fdd(%edi),%xmm2
- .byte 102,15,111,175,237,31,0,0 // movdqa 0x1fed(%edi),%xmm5
+ .byte 102,15,219,151,29,32,0,0 // pand 0x201d(%edi),%xmm2
+ .byte 102,15,111,175,45,32,0,0 // movdqa 0x202d(%edi),%xmm5
.byte 102,15,219,235 // pand %xmm3,%xmm5
.byte 102,15,113,211,13 // psrlw $0xd,%xmm3
.byte 102,15,235,217 // por %xmm1,%xmm3
@@ -77831,7 +79788,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,113,213,2 // psrlw $0x2,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
.byte 102,15,127,109,216 // movdqa %xmm5,-0x28(%ebp)
- .byte 102,15,111,167,157,31,0,0 // movdqa 0x1f9d(%edi),%xmm4
+ .byte 102,15,111,167,221,31,0,0 // movdqa 0x1fdd(%edi),%xmm4
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,239,204 // pxor %xmm4,%xmm1
@@ -77872,7 +79829,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,235,249 // por %xmm1,%xmm7
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,213,93,168 // pmullw -0x58(%ebp),%xmm3
- .byte 102,15,111,143,141,31,0,0 // movdqa 0x1f8d(%edi),%xmm1
+ .byte 102,15,111,143,205,31,0,0 // movdqa 0x1fcd(%edi),%xmm1
.byte 102,15,239,193 // pxor %xmm1,%xmm0
.byte 102,15,111,101,24 // movdqa 0x18(%ebp),%xmm4
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
@@ -77952,7 +79909,7 @@ _sk_clamp_x_1_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call e7d5 <_sk_clamp_x_1_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call ec85 <_sk_clamp_x_1_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -77993,7 +79950,7 @@ _sk_repeat_x_1_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call e844 <_sk_repeat_x_1_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call ecf4 <_sk_repeat_x_1_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -78052,7 +80009,7 @@ _sk_mirror_x_1_sse2_lowp:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call e8ee <_sk_mirror_x_1_sse2_lowp+0x1a>
+ .byte 232,0,0,0,0 // call ed9e <_sk_mirror_x_1_sse2_lowp+0x1a>
.byte 88 // pop %eax
.byte 15,40,160,178,21,0,0 // movaps 0x15b2(%eax),%xmm4
.byte 15,88,204 // addps %xmm4,%xmm1
@@ -78083,7 +80040,7 @@ _sk_mirror_x_1_sse2_lowp:
.byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
.byte 15,88,212 // addps %xmm4,%xmm2
.byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,160,66,26,0,0 // movaps 0x1a42(%eax),%xmm4
+ .byte 15,40,160,130,26,0,0 // movaps 0x1a82(%eax),%xmm4
.byte 15,84,204 // andps %xmm4,%xmm1
.byte 15,84,212 // andps %xmm4,%xmm2
.byte 15,87,228 // xorps %xmm4,%xmm4
@@ -78124,7 +80081,7 @@ _sk_gradient_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 129,236,108,1,0,0 // sub $0x16c,%esp
- .byte 232,0,0,0,0 // call e9cc <_sk_gradient_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call ee7c <_sk_gradient_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 137,69,164 // mov %eax,-0x5c(%ebp)
.byte 139,69,12 // mov 0xc(%ebp),%eax
@@ -78134,7 +80091,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 131,248,2 // cmp $0x2,%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 114,48 // jb ea16 <_sk_gradient_sse2_lowp+0x5b>
+ .byte 114,48 // jb eec6 <_sk_gradient_sse2_lowp+0x5b>
.byte 139,78,36 // mov 0x24(%esi),%ecx
.byte 72 // dec %eax
.byte 131,193,4 // add $0x4,%ecx
@@ -78149,7 +80106,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,250,234 // psubd %xmm2,%xmm5
.byte 131,193,4 // add $0x4,%ecx
.byte 72 // dec %eax
- .byte 117,223 // jne e9f5 <_sk_gradient_sse2_lowp+0x3a>
+ .byte 117,223 // jne eea5 <_sk_gradient_sse2_lowp+0x3a>
.byte 102,15,112,215,229 // pshufd $0xe5,%xmm7,%xmm2
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
.byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
@@ -78475,7 +80432,7 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 129,236,92,1,0,0 // sub $0x15c,%esp
.byte 15,41,141,232,254,255,255 // movaps %xmm1,-0x118(%ebp)
.byte 15,41,69,136 // movaps %xmm0,-0x78(%ebp)
- .byte 232,0,0,0,0 // call ef3e <_sk_evenly_spaced_gradient_sse2_lowp+0x1c>
+ .byte 232,0,0,0,0 // call f3ee <_sk_evenly_spaced_gradient_sse2_lowp+0x1c>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,48 // mov (%eax),%esi
@@ -78486,12 +80443,12 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 102,15,110,209 // movd %ecx,%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 137,85,164 // mov %edx,-0x5c(%ebp)
- .byte 102,15,111,154,98,20,0,0 // movdqa 0x1462(%edx),%xmm3
+ .byte 102,15,111,154,162,20,0,0 // movdqa 0x14a2(%edx),%xmm3
.byte 102,15,219,218 // pand %xmm2,%xmm3
.byte 102,15,235,154,34,18,0,0 // por 0x1222(%edx),%xmm3
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,15,235,146,114,20,0,0 // por 0x1472(%edx),%xmm2
- .byte 15,88,146,130,20,0,0 // addps 0x1482(%edx),%xmm2
+ .byte 102,15,235,146,178,20,0,0 // por 0x14b2(%edx),%xmm2
+ .byte 15,88,146,194,20,0,0 // addps 0x14c2(%edx),%xmm2
.byte 15,88,211 // addps %xmm3,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,89,218 // mulps %xmm2,%xmm3
@@ -78811,7 +80768,7 @@ _sk_evenly_spaced_2_stop_gradient_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
.byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 232,0,0,0,0 // call f47d <_sk_evenly_spaced_2_stop_gradient_sse2_lowp+0x10>
+ .byte 232,0,0,0,0 // call f92d <_sk_evenly_spaced_2_stop_gradient_sse2_lowp+0x10>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -78946,9 +80903,9 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,41,77,184 // movaps %xmm1,-0x48(%ebp)
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 232,0,0,0,0 // call f668 <_sk_xy_to_unit_angle_sse2_lowp+0x23>
+ .byte 232,0,0,0,0 // call fb18 <_sk_xy_to_unit_angle_sse2_lowp+0x23>
.byte 88 // pop %eax
- .byte 15,40,128,200,12,0,0 // movaps 0xcc8(%eax),%xmm0
+ .byte 15,40,128,8,13,0,0 // movaps 0xd08(%eax),%xmm0
.byte 15,40,225 // movaps %xmm1,%xmm4
.byte 15,84,224 // andps %xmm0,%xmm4
.byte 15,40,203 // movaps %xmm3,%xmm1
@@ -78983,24 +80940,24 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,89,219 // mulps %xmm3,%xmm3
.byte 15,40,247 // movaps %xmm7,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
- .byte 15,40,136,104,13,0,0 // movaps 0xd68(%eax),%xmm1
+ .byte 15,40,136,168,13,0,0 // movaps 0xda8(%eax),%xmm1
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,88,136,120,13,0,0 // addps 0xd78(%eax),%xmm1
- .byte 15,88,128,120,13,0,0 // addps 0xd78(%eax),%xmm0
+ .byte 15,88,136,184,13,0,0 // addps 0xdb8(%eax),%xmm1
+ .byte 15,88,128,184,13,0,0 // addps 0xdb8(%eax),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,88,136,136,13,0,0 // addps 0xd88(%eax),%xmm1
- .byte 15,88,128,136,13,0,0 // addps 0xd88(%eax),%xmm0
+ .byte 15,88,136,200,13,0,0 // addps 0xdc8(%eax),%xmm1
+ .byte 15,88,128,200,13,0,0 // addps 0xdc8(%eax),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,152,152,13,0,0 // movaps 0xd98(%eax),%xmm3
+ .byte 15,40,152,216,13,0,0 // movaps 0xdd8(%eax),%xmm3
.byte 15,88,203 // addps %xmm3,%xmm1
.byte 15,88,195 // addps %xmm3,%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,152,168,13,0,0 // movaps 0xda8(%eax),%xmm3
+ .byte 15,40,152,232,13,0,0 // movaps 0xde8(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,92,216 // subps %xmm0,%xmm3
.byte 15,84,218 // andps %xmm2,%xmm3
@@ -79142,11 +81099,11 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call f8d0 <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
+ .byte 232,0,0,0,0 // call fd80 <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,182,211 // movzbl %bl,%edx
- .byte 119,29 // ja f8f6 <_sk_srcover_rgba_8888_sse2_lowp+0x65>
+ .byte 119,29 // ja fda6 <_sk_srcover_rgba_8888_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 139,132,145,76,2,0,0 // mov 0x24c(%ecx,%edx,4),%eax
.byte 1,200 // add %ecx,%eax
@@ -79154,14 +81111,14 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 255,224 // jmp *%eax
.byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp f93f <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,73 // jmp fdef <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6
.byte 15,16,92,183,16 // movups 0x10(%edi,%esi,4),%xmm3
- .byte 235,61 // jmp f93f <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,61 // jmp fdef <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 102,15,18,52,183 // movlpd (%edi,%esi,4),%xmm6
- .byte 235,43 // jmp f93f <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,43 // jmp fdef <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0
@@ -79187,7 +81144,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,243,16 // pslld $0x10,%xmm3
.byte 102,15,114,227,16 // psrad $0x10,%xmm3
.byte 102,15,107,243 // packssdw %xmm3,%xmm6
- .byte 102,15,111,153,32,12,0,0 // movdqa 0xc20(%ecx),%xmm3
+ .byte 102,15,111,153,96,12,0,0 // movdqa 0xc60(%ecx),%xmm3
.byte 102,15,114,208,16 // psrld $0x10,%xmm0
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
@@ -79239,18 +81196,18 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
.byte 102,15,235,222 // por %xmm6,%xmm3
.byte 128,251,6 // cmp $0x6,%bl
- .byte 119,16 // ja fa80 <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
+ .byte 119,16 // ja ff30 <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
.byte 3,140,145,104,2,0,0 // add 0x268(%ecx,%edx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4)
- .byte 235,64 // jmp fac0 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,64 // jmp ff70 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
.byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4)
- .byte 235,51 // jmp fac0 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,51 // jmp ff70 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4)
.byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4)
- .byte 235,33 // jmp fac0 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,33 // jmp ff70 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
.byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4)
.byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2
@@ -79334,11 +81291,11 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call fb94 <_sk_srcover_bgra_8888_sse2_lowp+0x40>
+ .byte 232,0,0,0,0 // call 10044 <_sk_srcover_bgra_8888_sse2_lowp+0x40>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,182,211 // movzbl %bl,%edx
- .byte 119,29 // ja fbba <_sk_srcover_bgra_8888_sse2_lowp+0x66>
+ .byte 119,29 // ja 1006a <_sk_srcover_bgra_8888_sse2_lowp+0x66>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 139,132,145,80,2,0,0 // mov 0x250(%ecx,%edx,4),%eax
.byte 1,200 // add %ecx,%eax
@@ -79346,14 +81303,14 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 255,224 // jmp *%eax
.byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,73 // jmp fc03 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
+ .byte 235,73 // jmp 100b3 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
.byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6
.byte 15,16,100,183,16 // movups 0x10(%edi,%esi,4),%xmm4
- .byte 235,61 // jmp fc03 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
+ .byte 235,61 // jmp 100b3 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
.byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 102,15,18,52,183 // movlpd (%edi,%esi,4),%xmm6
- .byte 235,43 // jmp fc03 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
+ .byte 235,43 // jmp 100b3 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
.byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0
.byte 102,15,112,224,69 // pshufd $0x45,%xmm0,%xmm4
.byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0
@@ -79379,7 +81336,7 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,244 // packssdw %xmm4,%xmm6
- .byte 102,15,111,153,92,9,0,0 // movdqa 0x95c(%ecx),%xmm3
+ .byte 102,15,111,153,156,9,0,0 // movdqa 0x99c(%ecx),%xmm3
.byte 102,15,114,208,16 // psrld $0x10,%xmm0
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
@@ -79431,18 +81388,18 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
.byte 102,15,235,222 // por %xmm6,%xmm3
.byte 128,251,6 // cmp $0x6,%bl
- .byte 119,16 // ja fd46 <_sk_srcover_bgra_8888_sse2_lowp+0x1f2>
+ .byte 119,16 // ja 101f6 <_sk_srcover_bgra_8888_sse2_lowp+0x1f2>
.byte 3,140,145,108,2,0,0 // add 0x26c(%ecx,%edx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4)
- .byte 235,64 // jmp fd86 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
+ .byte 235,64 // jmp 10236 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
.byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
.byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4)
- .byte 235,51 // jmp fd86 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
+ .byte 235,51 // jmp 10236 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4)
.byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4)
- .byte 235,33 // jmp fd86 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
+ .byte 235,33 // jmp 10236 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
.byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
.byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4)
.byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2
@@ -79562,11 +81519,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%eax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne fef8 <.literal16+0xd8>
+ .byte 224,64 // loopne 103a8 <.literal16+0xd8>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne fefc <.literal16+0xdc>
+ .byte 224,64 // loopne 103ac <.literal16+0xdc>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne ff00 <.literal16+0xe0>
+ .byte 224,64 // loopne 103b0 <.literal16+0xe0>
.byte 154,153,153,62,154,153,153 // lcall $0x9999,$0x9a3e9999
.byte 62,154,153,153,62,154,153,153 // ds lcall $0x9999,$0x9a3e9999
.byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax
@@ -79577,16 +81534,16 @@ BALIGN16
.byte 63 // aas
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope ff21 <.literal16+0x101>
+ .byte 225,61 // loope 103d1 <.literal16+0x101>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope ff25 <.literal16+0x105>
+ .byte 225,61 // loope 103d5 <.literal16+0x105>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope ff29 <.literal16+0x109>
+ .byte 225,61 // loope 103d9 <.literal16+0x109>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope ff2d <.literal16+0x10d>
+ .byte 225,61 // loope 103dd <.literal16+0x10d>
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 255,0 // incl (%eax)
@@ -79596,13 +81553,13 @@ BALIGN16
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg ff47 <.literal16+0x127>
+ .byte 127,67 // jg 103f7 <.literal16+0x127>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg ff4b <.literal16+0x12b>
+ .byte 127,67 // jg 103fb <.literal16+0x12b>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg ff4f <.literal16+0x12f>
+ .byte 127,67 // jg 103ff <.literal16+0x12f>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg ff53 <.literal16+0x133>
+ .byte 127,67 // jg 10403 <.literal16+0x133>
.byte 0,0 // add %al,(%eax)
.byte 128,127,0,0 // cmpb $0x0,0x0(%edi)
.byte 128,127,0,0 // cmpb $0x0,0x0(%edi)
@@ -79758,13 +81715,13 @@ BALIGN16
.byte 132,55 // test %dh,(%edi)
.byte 8,33 // or %ah,(%ecx)
.byte 132,55 // test %dh,(%edi)
- .byte 224,7 // loopne 10069 <.literal16+0x249>
+ .byte 224,7 // loopne 10519 <.literal16+0x249>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 1006d <.literal16+0x24d>
+ .byte 224,7 // loopne 1051d <.literal16+0x24d>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 10071 <.literal16+0x251>
+ .byte 224,7 // loopne 10521 <.literal16+0x251>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 10075 <.literal16+0x255>
+ .byte 224,7 // loopne 10525 <.literal16+0x255>
.byte 0,0 // add %al,(%eax)
.byte 33,8 // and %ecx,(%eax)
.byte 2,58 // add (%edx),%bh
@@ -79813,17 +81770,17 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 100d4 <.literal16+0x2b4>
+ .byte 127,0 // jg 10584 <.literal16+0x2b4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 100d8 <.literal16+0x2b8>
+ .byte 127,0 // jg 10588 <.literal16+0x2b8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 100dc <.literal16+0x2bc>
+ .byte 127,0 // jg 1058c <.literal16+0x2bc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 100e0 <.literal16+0x2c0>
- .byte 119,115 // ja 10155 <.literal16+0x335>
+ .byte 127,0 // jg 10590 <.literal16+0x2c0>
+ .byte 119,115 // ja 10605 <.literal16+0x335>
.byte 248 // clc
.byte 194,119,115 // ret $0x7377
.byte 248 // clc
@@ -79834,7 +81791,7 @@ BALIGN16
.byte 194,117,191 // ret $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
- .byte 117,191 // jne 100b9 <.literal16+0x299>
+ .byte 117,191 // jne 10569 <.literal16+0x299>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
.byte 249 // stc
@@ -79850,7 +81807,7 @@ BALIGN16
.byte 68 // inc %esp
.byte 180,62 // mov $0x3e,%ah
.byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a440f6 <_sk_srcover_bgra_8888_sse2_lowp+0xe9a345a2>
+ .byte 233,220,63,163,233 // jmp e9a445a6 <_sk_srcover_bgra_8888_sse2_lowp+0xe9a345a2>
.byte 220,63 // fdivrl (%edi)
.byte 163,233,220,63,81 // mov %eax,0x513fdce9
.byte 140,242 // mov %?,%edx
@@ -79946,16 +81903,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%ebx)
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 10243 <.literal16+0x423>
+ .byte 118,63 // jbe 106f3 <.literal16+0x423>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 10247 <.literal16+0x427>
+ .byte 118,63 // jbe 106f7 <.literal16+0x427>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 1024b <.literal16+0x42b>
+ .byte 118,63 // jbe 106fb <.literal16+0x42b>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 1024f <.literal16+0x42f>
+ .byte 118,63 // jbe 106ff <.literal16+0x42f>
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
@@ -79981,13 +81938,13 @@ BALIGN16
.byte 248 // clc
.byte 65 // inc %ecx
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 10286 <.literal16+0x466>
+ .byte 124,66 // jl 10736 <.literal16+0x466>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 1028a <.literal16+0x46a>
+ .byte 124,66 // jl 1073a <.literal16+0x46a>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 1028e <.literal16+0x46e>
+ .byte 124,66 // jl 1073e <.literal16+0x46e>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 10292 <.literal16+0x472>
+ .byte 124,66 // jl 10742 <.literal16+0x472>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%eax)
.byte 0,240 // add %dh,%al
@@ -80033,25 +81990,57 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%eax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 10315 <.literal16+0x4f5>
+ .byte 112,65 // jo 107c5 <.literal16+0x4f5>
+ .byte 0,0 // add %al,(%eax)
+ .byte 112,65 // jo 107c9 <.literal16+0x4f9>
+ .byte 0,0 // add %al,(%eax)
+ .byte 112,65 // jo 107cd <.literal16+0x4fd>
+ .byte 0,0 // add %al,(%eax)
+ .byte 112,65 // jo 107d1 <.literal16+0x501>
+ .byte 255,3 // incl (%ebx)
+ .byte 0,0 // add %al,(%eax)
+ .byte 255,3 // incl (%ebx)
+ .byte 0,0 // add %al,(%eax)
+ .byte 255,3 // incl (%ebx)
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 10319 <.literal16+0x4f9>
+ .byte 255,3 // incl (%ebx)
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 1031d <.literal16+0x4fd>
+ .byte 8,32 // or %ah,(%eax)
+ .byte 128,58,8 // cmpb $0x8,(%edx)
+ .byte 32,128,58,8,32,128 // and %al,-0x7fdff7c6(%eax)
+ .byte 58,8 // cmp (%eax),%cl
+ .byte 32,128,58,0,192,127 // and %al,0x7fc0003a(%eax)
+ .byte 68 // inc %esp
+ .byte 0,192 // add %al,%al
+ .byte 127,68 // jg 107fc <.literal16+0x52c>
+ .byte 0,192 // add %al,%al
+ .byte 127,68 // jg 10800 <.literal16+0x530>
+ .byte 0,192 // add %al,%al
+ .byte 127,68 // jg 10804 <.literal16+0x534>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 10321 <.literal16+0x501>
+ .byte 64 // inc %eax
+ .byte 64 // inc %eax
+ .byte 0,0 // add %al,(%eax)
+ .byte 64 // inc %eax
+ .byte 64 // inc %eax
+ .byte 0,0 // add %al,(%eax)
+ .byte 64 // inc %eax
+ .byte 64 // inc %eax
+ .byte 0,0 // add %al,(%eax)
+ .byte 64 // inc %eax
+ .byte 64 // inc %eax
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 255 // (bad)
- .byte 127,0 // jg 102f3 <.literal16+0x4d3>
+ .byte 127,0 // jg 107e3 <.literal16+0x513>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 102f7 <.literal16+0x4d7>
+ .byte 127,0 // jg 107e7 <.literal16+0x517>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 102fb <.literal16+0x4db>
+ .byte 127,0 // jg 107eb <.literal16+0x51b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 102ff <.literal16+0x4df>
+ .byte 127,0 // jg 107ef <.literal16+0x51f>
.byte 0,0 // add %al,(%eax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%eax)
@@ -80077,13 +82066,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 10338 <.literal16+0x518>
+ .byte 127,255 // jg 10828 <.literal16+0x558>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 1033c <.literal16+0x51c>
+ .byte 127,255 // jg 1082c <.literal16+0x55c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 10341 <.literal16+0x521>
+ .byte 127,0 // jg 10831 <.literal16+0x561>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
.byte 56,0 // cmp %al,(%eax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
@@ -80097,21 +82086,17 @@ BALIGN16
.byte 0,255 // add %bh,%bh
.byte 255,0 // incl (%eax)
.byte 255 // (bad)
- .byte 127,71 // jg 103ab <.literal16+0x58b>
+ .byte 127,71 // jg 1089b <.literal16+0x5cb>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 103af <.literal16+0x58f>
+ .byte 127,71 // jg 1089f <.literal16+0x5cf>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 103b3 <.literal16+0x593>
+ .byte 127,71 // jg 108a3 <.literal16+0x5d3>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 103b7 <.literal16+0x597>
- .byte 208 // (bad)
- .byte 179,89 // mov $0x59,%bl
- .byte 62,208 // ds (bad)
- .byte 179,89 // mov $0x59,%bl
- .byte 62,208 // ds (bad)
- .byte 179,89 // mov $0x59,%bl
- .byte 62,208 // ds (bad)
- .byte 179,89 // mov $0x59,%bl
+ .byte 127,71 // jg 108a7 <.literal16+0x5d7>
+ .byte 208,179,89,62,208,179 // shlb -0x4c2fc1a7(%ebx)
+ .byte 89 // pop %ecx
+ .byte 62,208,179,89,62,208,179 // shlb %ds:-0x4c2fc1a7(%ebx)
+ .byte 89 // pop %ecx
.byte 62,89 // ds pop %ecx
.byte 23 // pop %ss
.byte 55 // aaa
@@ -80188,13 +82173,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%edi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb 1045e <.literal16+0x63e>
+ .byte 114,28 // jb 1094e <.literal16+0x67e>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 10462 <.literal16+0x642>
+ .byte 62,114,28 // jb,pt 10952 <.literal16+0x682>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 10466 <.literal16+0x646>
+ .byte 62,114,28 // jb,pt 10956 <.literal16+0x686>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 1046a <.literal16+0x64a>
+ .byte 62,114,28 // jb,pt 1095a <.literal16+0x68a>
.byte 199 // (bad)
.byte 62,85 // ds push %ebp
.byte 85 // push %ebp
@@ -80215,13 +82200,13 @@ BALIGN16
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%esi)
.byte 99,61,57,142,99,61 // arpl %di,0x3d638e39
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%esi)
- .byte 127,63 // jg 104c3 <.literal16+0x6a3>
- .byte 114,249 // jb 1047f <.literal16+0x65f>
- .byte 127,63 // jg 104c7 <.literal16+0x6a7>
- .byte 114,249 // jb 10483 <.literal16+0x663>
- .byte 127,63 // jg 104cb <.literal16+0x6ab>
- .byte 114,249 // jb 10487 <.literal16+0x667>
- .byte 127,63 // jg 104cf <.literal16+0x6af>
+ .byte 127,63 // jg 109b3 <.literal16+0x6e3>
+ .byte 114,249 // jb 1096f <.literal16+0x69f>
+ .byte 127,63 // jg 109b7 <.literal16+0x6e7>
+ .byte 114,249 // jb 10973 <.literal16+0x6a3>
+ .byte 127,63 // jg 109bb <.literal16+0x6eb>
+ .byte 114,249 // jb 10977 <.literal16+0x6a7>
+ .byte 127,63 // jg 109bf <.literal16+0x6ef>
.byte 3,0 // add (%eax),%eax
.byte 0,0 // add %al,(%eax)
.byte 3,0 // add (%eax),%eax
@@ -80317,14 +82302,14 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne 10571 <.literal16+0x751>
- .byte 224,255 // loopne 10573 <.literal16+0x753>
- .byte 224,255 // loopne 10575 <.literal16+0x755>
- .byte 224,255 // loopne 10577 <.literal16+0x757>
- .byte 224,255 // loopne 10579 <.literal16+0x759>
- .byte 224,255 // loopne 1057b <.literal16+0x75b>
- .byte 224,255 // loopne 1057d <.literal16+0x75d>
- .byte 224,255 // loopne 1057f <.literal16+0x75f>
+ .byte 224,255 // loopne 10a61 <.literal16+0x791>
+ .byte 224,255 // loopne 10a63 <.literal16+0x793>
+ .byte 224,255 // loopne 10a65 <.literal16+0x795>
+ .byte 224,255 // loopne 10a67 <.literal16+0x797>
+ .byte 224,255 // loopne 10a69 <.literal16+0x799>
+ .byte 224,255 // loopne 10a6b <.literal16+0x79b>
+ .byte 224,255 // loopne 10a6d <.literal16+0x79d>
+ .byte 224,255 // loopne 10a6f <.literal16+0x79f>
.byte 15,0,15 // str (%edi)
.byte 0,15 // add %cl,(%edi)
.byte 0,15 // add %cl,(%edi)
@@ -80381,5 +82366,5 @@ BALIGN4
.byte 0,0 // add %al,(%eax)
.byte 0,191,0,0,128,63 // add %bh,0x3f800000(%edi)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 10643 <_sk_srcover_bgra_8888_sse2_lowp+0xaef>
+ .byte 127,67 // jg 10b33 <_sk_srcover_bgra_8888_sse2_lowp+0xb2f>
#endif