aboutsummaryrefslogtreecommitdiffhomepage
path: root/src/jumper/SkJumper_generated.S
diff options
context:
space:
mode:
authorGravatar Mike Klein <mtklein@chromium.org>2017-09-15 14:57:02 -0400
committerGravatar Skia Commit-Bot <skia-commit-bot@chromium.org>2017-09-16 00:23:46 +0000
commitd286bfbd96f8b7ccf1cbce74f07d2f3917dbec30 (patch)
tree316ad4fc24fc15cac4938873fecb24bc9b53860b /src/jumper/SkJumper_generated.S
parent57372152b2e1960b6a831b83a088e8910ac120d2 (diff)
Bump stored lowp uniform color to 16-bit storage.
This makes loading into 16-bit channels more natural in _lowp.cpp. Change-Id: I1ed393873654060ef52f4632d670465528006bbd Reviewed-on: https://skia-review.googlesource.com/47261 Reviewed-by: Mike Reed <reed@google.com> Commit-Queue: Mike Klein <mtklein@chromium.org>
Diffstat (limited to 'src/jumper/SkJumper_generated.S')
-rw-r--r--src/jumper/SkJumper_generated.S4856
1 files changed, 2421 insertions, 2435 deletions
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
index 17cbf25201..656f3e6229 100644
--- a/src/jumper/SkJumper_generated.S
+++ b/src/jumper/SkJumper_generated.S
@@ -9384,14 +9384,14 @@ _sk_seed_shader_hsw:
.byte 197,249,110,194 // vmovd %edx,%xmm0
.byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,88,5,214,149,2,0 // vaddps 0x295d6(%rip),%ymm0,%ymm0 # 29680 <_sk_srcover_rgba_8888_sse2_lowp+0x2c4>
+ .byte 197,252,88,5,150,149,2,0 // vaddps 0x29596(%rip),%ymm0,%ymm0 # 29640 <_sk_srcover_rgba_8888_sse2_lowp+0x2bc>
.byte 197,249,110,201 // vmovd %ecx,%xmm1
.byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,36,155,2,0 // vbroadcastss 0x29b24(%rip),%ymm2 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,226,125,24,21,228,154,2,0 // vbroadcastss 0x29ae4(%rip),%ymm2 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,25,155,2,0 // vbroadcastss 0x29b19(%rip),%ymm2 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,21,217,154,2,0 // vbroadcastss 0x29ad9(%rip),%ymm2 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -9406,17 +9406,17 @@ _sk_dither_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,61,254,5,168,149,2,0 // vpaddd 0x295a8(%rip),%ymm8,%ymm8 # 296a0 <_sk_srcover_rgba_8888_sse2_lowp+0x2e4>
+ .byte 197,61,254,5,104,149,2,0 // vpaddd 0x29568(%rip),%ymm8,%ymm8 # 29660 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 197,121,110,201 // vmovd %ecx,%xmm9
.byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,221,154,2,0 // vpbroadcastd 0x29add(%rip),%ymm10 # 29bec <_sk_srcover_rgba_8888_sse2_lowp+0x830>
+ .byte 196,98,125,88,21,157,154,2,0 // vpbroadcastd 0x29a9d(%rip),%ymm10 # 29bac <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,194,154,2,0 // vpbroadcastd 0x29ac2(%rip),%ymm12 # 29bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x834>
- .byte 196,98,125,88,45,189,154,2,0 // vpbroadcastd 0x29abd(%rip),%ymm13 # 29bf4 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
+ .byte 196,98,125,88,37,130,154,2,0 // vpbroadcastd 0x29a82(%rip),%ymm12 # 29bb0 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,88,45,125,154,2,0 // vpbroadcastd 0x29a7d(%rip),%ymm13 # 29bb4 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
@@ -9431,8 +9431,8 @@ _sk_dither_hsw:
.byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,111,154,2,0 // vbroadcastss 0x29a6f(%rip),%ymm9 # 29bf8 <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
- .byte 196,98,125,24,21,106,154,2,0 // vbroadcastss 0x29a6a(%rip),%ymm10 # 29bfc <_sk_srcover_rgba_8888_sse2_lowp+0x840>
+ .byte 196,98,125,24,13,47,154,2,0 // vbroadcastss 0x29a2f(%rip),%ymm9 # 29bb8 <_sk_srcover_rgba_8888_sse2_lowp+0x834>
+ .byte 196,98,125,24,21,42,154,2,0 // vbroadcastss 0x29a2a(%rip),%ymm10 # 29bbc <_sk_srcover_rgba_8888_sse2_lowp+0x838>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,44,89,192 // vmulps %ymm8,%ymm10,%ymm8
@@ -9466,7 +9466,7 @@ HIDDEN _sk_black_color_hsw
FUNCTION(_sk_black_color_hsw)
_sk_black_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,242,153,2,0 // vbroadcastss 0x299f2(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,29,178,153,2,0 // vbroadcastss 0x299b2(%rip),%ymm3 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -9477,7 +9477,7 @@ HIDDEN _sk_white_color_hsw
FUNCTION(_sk_white_color_hsw)
_sk_white_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,217,153,2,0 // vbroadcastss 0x299d9(%rip),%ymm0 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,5,153,153,2,0 // vbroadcastss 0x29999(%rip),%ymm0 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -9523,7 +9523,7 @@ HIDDEN _sk_srcatop_hsw
FUNCTION(_sk_srcatop_hsw)
_sk_srcatop_hsw:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,120,153,2,0 // vbroadcastss 0x29978(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,56,153,2,0 // vbroadcastss 0x29938(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -9539,7 +9539,7 @@ HIDDEN _sk_dstatop_hsw
.globl _sk_dstatop_hsw
FUNCTION(_sk_dstatop_hsw)
_sk_dstatop_hsw:
- .byte 196,98,125,24,5,71,153,2,0 // vbroadcastss 0x29947(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,7,153,2,0 // vbroadcastss 0x29907(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -9578,7 +9578,7 @@ HIDDEN _sk_srcout_hsw
.globl _sk_srcout_hsw
FUNCTION(_sk_srcout_hsw)
_sk_srcout_hsw:
- .byte 196,98,125,24,5,234,152,2,0 // vbroadcastss 0x298ea(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,170,152,2,0 // vbroadcastss 0x298aa(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -9591,7 +9591,7 @@ HIDDEN _sk_dstout_hsw
.globl _sk_dstout_hsw
FUNCTION(_sk_dstout_hsw)
_sk_dstout_hsw:
- .byte 196,226,125,24,5,201,152,2,0 // vbroadcastss 0x298c9(%rip),%ymm0 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,5,137,152,2,0 // vbroadcastss 0x29889(%rip),%ymm0 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -9604,7 +9604,7 @@ HIDDEN _sk_srcover_hsw
.globl _sk_srcover_hsw
FUNCTION(_sk_srcover_hsw)
_sk_srcover_hsw:
- .byte 196,98,125,24,5,168,152,2,0 // vbroadcastss 0x298a8(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,104,152,2,0 // vbroadcastss 0x29868(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -9617,7 +9617,7 @@ HIDDEN _sk_dstover_hsw
.globl _sk_dstover_hsw
FUNCTION(_sk_dstover_hsw)
_sk_dstover_hsw:
- .byte 196,98,125,24,5,131,152,2,0 // vbroadcastss 0x29883(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,67,152,2,0 // vbroadcastss 0x29843(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -9641,7 +9641,7 @@ HIDDEN _sk_multiply_hsw
.globl _sk_multiply_hsw
FUNCTION(_sk_multiply_hsw)
_sk_multiply_hsw:
- .byte 196,98,125,24,5,74,152,2,0 // vbroadcastss 0x2984a(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,10,152,2,0 // vbroadcastss 0x2980a(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -9664,7 +9664,7 @@ HIDDEN _sk_plus__hsw
FUNCTION(_sk_plus__hsw)
_sk_plus__hsw:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,249,151,2,0 // vbroadcastss 0x297f9(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,185,151,2,0 // vbroadcastss 0x297b9(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -9694,7 +9694,7 @@ HIDDEN _sk_xor__hsw
.globl _sk_xor__hsw
FUNCTION(_sk_xor__hsw)
_sk_xor__hsw:
- .byte 196,98,125,24,5,164,151,2,0 // vbroadcastss 0x297a4(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,100,151,2,0 // vbroadcastss 0x29764(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -9728,7 +9728,7 @@ _sk_darken_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,40,151,2,0 // vbroadcastss 0x29728(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,232,150,2,0 // vbroadcastss 0x296e8(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9753,7 +9753,7 @@ _sk_lighten_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,211,150,2,0 // vbroadcastss 0x296d3(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,147,150,2,0 // vbroadcastss 0x29693(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9781,7 +9781,7 @@ _sk_difference_hsw:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,114,150,2,0 // vbroadcastss 0x29672(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,50,150,2,0 // vbroadcastss 0x29632(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9803,7 +9803,7 @@ _sk_exclusion_hsw:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,44,150,2,0 // vbroadcastss 0x2962c(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,236,149,2,0 // vbroadcastss 0x295ec(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9813,7 +9813,7 @@ HIDDEN _sk_colorburn_hsw
.globl _sk_colorburn_hsw
FUNCTION(_sk_colorburn_hsw)
_sk_colorburn_hsw:
- .byte 196,98,125,24,5,22,150,2,0 // vbroadcastss 0x29616(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,214,149,2,0 // vbroadcastss 0x295d6(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -9871,7 +9871,7 @@ HIDDEN _sk_colordodge_hsw
FUNCTION(_sk_colordodge_hsw)
_sk_colordodge_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,38,149,2,0 // vbroadcastss 0x29526(%rip),%ymm9 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,13,230,148,2,0 // vbroadcastss 0x294e6(%rip),%ymm9 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -9924,7 +9924,7 @@ HIDDEN _sk_hardlight_hsw
.globl _sk_hardlight_hsw
FUNCTION(_sk_hardlight_hsw)
_sk_hardlight_hsw:
- .byte 196,98,125,24,5,64,148,2,0 // vbroadcastss 0x29440(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,0,148,2,0 // vbroadcastss 0x29400(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -9975,7 +9975,7 @@ HIDDEN _sk_overlay_hsw
.globl _sk_overlay_hsw
FUNCTION(_sk_overlay_hsw)
_sk_overlay_hsw:
- .byte 196,98,125,24,5,116,147,2,0 // vbroadcastss 0x29374(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,52,147,2,0 // vbroadcastss 0x29334(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -10036,10 +10036,10 @@ _sk_softlight_hsw:
.byte 196,65,20,88,197 // vaddps %ymm13,%ymm13,%ymm8
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,66,61,168,192 // vfmadd213ps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,29,143,146,2,0 // vbroadcastss 0x2928f(%rip),%ymm11 # 29c00 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,29,79,146,2,0 // vbroadcastss 0x2924f(%rip),%ymm11 # 29bc0 <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
.byte 196,65,20,88,227 // vaddps %ymm11,%ymm13,%ymm12
.byte 196,65,28,89,192 // vmulps %ymm8,%ymm12,%ymm8
- .byte 196,98,125,24,37,128,146,2,0 // vbroadcastss 0x29280(%rip),%ymm12 # 29c04 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,37,64,146,2,0 // vbroadcastss 0x29240(%rip),%ymm12 # 29bc4 <_sk_srcover_rgba_8888_sse2_lowp+0x840>
.byte 196,66,21,184,196 // vfmadd231ps %ymm12,%ymm13,%ymm8
.byte 196,65,124,82,245 // vrsqrtps %ymm13,%ymm14
.byte 196,65,124,83,246 // vrcpps %ymm14,%ymm14
@@ -10049,7 +10049,7 @@ _sk_softlight_hsw:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,47,146,2,0 // vbroadcastss 0x2922f(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,239,145,2,0 // vbroadcastss 0x291ef(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,65,60,92,237 // vsubps %ymm13,%ymm8,%ymm13
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,98,125,168,235 // vfmadd213ps %ymm3,%ymm0,%ymm13
@@ -10162,11 +10162,11 @@ _sk_hue_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,71,144,2,0 // vbroadcastss 0x29047(%rip),%ymm14 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
- .byte 196,98,125,24,61,66,144,2,0 // vbroadcastss 0x29042(%rip),%ymm15 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ .byte 196,98,125,24,53,7,144,2,0 // vbroadcastss 0x29007(%rip),%ymm14 # 29bc8 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,61,2,144,2,0 // vbroadcastss 0x29002(%rip),%ymm15 # 29bcc <_sk_srcover_rgba_8888_sse2_lowp+0x848>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,51,144,2,0 // vbroadcastss 0x29033(%rip),%ymm0 # 29c10 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+ .byte 196,226,125,24,5,243,143,2,0 // vbroadcastss 0x28ff3(%rip),%ymm0 # 29bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -10221,7 +10221,7 @@ _sk_hue_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,244,142,2,0 // vbroadcastss 0x28ef4(%rip),%ymm1 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,13,180,142,2,0 // vbroadcastss 0x28eb4(%rip),%ymm1 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -10275,11 +10275,11 @@ _sk_saturation_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,39,142,2,0 // vbroadcastss 0x28e27(%rip),%ymm14 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
- .byte 196,98,125,24,61,34,142,2,0 // vbroadcastss 0x28e22(%rip),%ymm15 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ .byte 196,98,125,24,53,231,141,2,0 // vbroadcastss 0x28de7(%rip),%ymm14 # 29bc8 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,61,226,141,2,0 // vbroadcastss 0x28de2(%rip),%ymm15 # 29bcc <_sk_srcover_rgba_8888_sse2_lowp+0x848>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,19,142,2,0 // vbroadcastss 0x28e13(%rip),%ymm0 # 29c10 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+ .byte 196,226,125,24,5,211,141,2,0 // vbroadcastss 0x28dd3(%rip),%ymm0 # 29bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -10334,7 +10334,7 @@ _sk_saturation_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,212,140,2,0 // vbroadcastss 0x28cd4(%rip),%ymm1 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,13,148,140,2,0 // vbroadcastss 0x28c94(%rip),%ymm1 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -10362,11 +10362,11 @@ _sk_color_hsw:
.byte 197,108,89,199 // vmulps %ymm7,%ymm2,%ymm8
.byte 197,116,89,215 // vmulps %ymm7,%ymm1,%ymm10
.byte 197,52,89,223 // vmulps %ymm7,%ymm9,%ymm11
- .byte 196,98,125,24,45,137,140,2,0 // vbroadcastss 0x28c89(%rip),%ymm13 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
- .byte 196,98,125,24,53,132,140,2,0 // vbroadcastss 0x28c84(%rip),%ymm14 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ .byte 196,98,125,24,45,73,140,2,0 // vbroadcastss 0x28c49(%rip),%ymm13 # 29bc8 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,53,68,140,2,0 // vbroadcastss 0x28c44(%rip),%ymm14 # 29bcc <_sk_srcover_rgba_8888_sse2_lowp+0x848>
.byte 196,65,84,89,230 // vmulps %ymm14,%ymm5,%ymm12
.byte 196,66,93,184,229 // vfmadd231ps %ymm13,%ymm4,%ymm12
- .byte 196,98,125,24,61,117,140,2,0 // vbroadcastss 0x28c75(%rip),%ymm15 # 29c10 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+ .byte 196,98,125,24,61,53,140,2,0 // vbroadcastss 0x28c35(%rip),%ymm15 # 29bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
.byte 196,66,77,184,231 // vfmadd231ps %ymm15,%ymm6,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -10422,7 +10422,7 @@ _sk_color_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,43,139,2,0 // vbroadcastss 0x28b2b(%rip),%ymm0 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,5,235,138,2,0 // vbroadcastss 0x28aeb(%rip),%ymm0 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -10450,11 +10450,11 @@ _sk_luminosity_hsw:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,45,224,138,2,0 // vbroadcastss 0x28ae0(%rip),%ymm13 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
- .byte 196,98,125,24,53,219,138,2,0 // vbroadcastss 0x28adb(%rip),%ymm14 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ .byte 196,98,125,24,45,160,138,2,0 // vbroadcastss 0x28aa0(%rip),%ymm13 # 29bc8 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,53,155,138,2,0 // vbroadcastss 0x28a9b(%rip),%ymm14 # 29bcc <_sk_srcover_rgba_8888_sse2_lowp+0x848>
.byte 196,65,116,89,230 // vmulps %ymm14,%ymm1,%ymm12
.byte 196,66,109,184,229 // vfmadd231ps %ymm13,%ymm2,%ymm12
- .byte 196,98,125,24,61,204,138,2,0 // vbroadcastss 0x28acc(%rip),%ymm15 # 29c10 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+ .byte 196,98,125,24,61,140,138,2,0 // vbroadcastss 0x28a8c(%rip),%ymm15 # 29bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
.byte 196,66,53,184,231 // vfmadd231ps %ymm15,%ymm9,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -10510,7 +10510,7 @@ _sk_luminosity_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,130,137,2,0 // vbroadcastss 0x28982(%rip),%ymm0 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,5,66,137,2,0 // vbroadcastss 0x28942(%rip),%ymm0 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -10541,17 +10541,17 @@ _sk_srcover_rgba_8888_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 15,133,179,0,0,0 // jne 137b <_sk_srcover_rgba_8888_hsw+0xd3>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,234,131,2,0 // vpand 0x283ea(%rip),%ymm7,%ymm4 # 296c0 <_sk_srcover_rgba_8888_sse2_lowp+0x304>
+ .byte 197,197,219,37,170,131,2,0 // vpand 0x283aa(%rip),%ymm7,%ymm4 # 29680 <_sk_srcover_rgba_8888_sse2_lowp+0x2fc>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,69,0,45,253,131,2,0 // vpshufb 0x283fd(%rip),%ymm7,%ymm5 # 296e0 <_sk_srcover_rgba_8888_sse2_lowp+0x324>
+ .byte 196,226,69,0,45,189,131,2,0 // vpshufb 0x283bd(%rip),%ymm7,%ymm5 # 296a0 <_sk_srcover_rgba_8888_sse2_lowp+0x31c>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,69,0,53,16,132,2,0 // vpshufb 0x28410(%rip),%ymm7,%ymm6 # 29700 <_sk_srcover_rgba_8888_sse2_lowp+0x344>
+ .byte 196,226,69,0,53,208,131,2,0 // vpshufb 0x283d0(%rip),%ymm7,%ymm6 # 296c0 <_sk_srcover_rgba_8888_sse2_lowp+0x33c>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,226,136,2,0 // vbroadcastss 0x288e2(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,162,136,2,0 // vbroadcastss 0x288a2(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,1,137,2,0 // vbroadcastss 0x28901(%rip),%ymm9 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 196,98,125,24,13,193,136,2,0 // vbroadcastss 0x288c1(%rip),%ymm9 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -10679,7 +10679,7 @@ HIDDEN _sk_clamp_1_hsw
.globl _sk_clamp_1_hsw
FUNCTION(_sk_clamp_1_hsw)
_sk_clamp_1_hsw:
- .byte 196,98,125,24,5,238,134,2,0 // vbroadcastss 0x286ee(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,174,134,2,0 // vbroadcastss 0x286ae(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -10691,7 +10691,7 @@ HIDDEN _sk_clamp_a_hsw
.globl _sk_clamp_a_hsw
FUNCTION(_sk_clamp_a_hsw)
_sk_clamp_a_hsw:
- .byte 196,98,125,24,5,205,134,2,0 // vbroadcastss 0x286cd(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,141,134,2,0 // vbroadcastss 0x2868d(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -10703,7 +10703,7 @@ HIDDEN _sk_clamp_a_dst_hsw
.globl _sk_clamp_a_dst_hsw
FUNCTION(_sk_clamp_a_dst_hsw)
_sk_clamp_a_dst_hsw:
- .byte 196,98,125,24,5,175,134,2,0 // vbroadcastss 0x286af(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,111,134,2,0 // vbroadcastss 0x2866f(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -10736,7 +10736,7 @@ HIDDEN _sk_invert_hsw
.globl _sk_invert_hsw
FUNCTION(_sk_invert_hsw)
_sk_invert_hsw:
- .byte 196,98,125,24,5,106,134,2,0 // vbroadcastss 0x2866a(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,42,134,2,0 // vbroadcastss 0x2862a(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -10792,7 +10792,7 @@ FUNCTION(_sk_unpremul_hsw)
_sk_unpremul_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,65,100,194,200,0 // vcmpeqps %ymm8,%ymm3,%ymm9
- .byte 196,98,125,24,21,250,133,2,0 // vbroadcastss 0x285fa(%rip),%ymm10 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,21,186,133,2,0 // vbroadcastss 0x285ba(%rip),%ymm10 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,44,94,211 // vdivps %ymm3,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
@@ -10805,16 +10805,16 @@ HIDDEN _sk_from_srgb_hsw
.globl _sk_from_srgb_hsw
FUNCTION(_sk_from_srgb_hsw)
_sk_from_srgb_hsw:
- .byte 196,98,125,24,5,7,134,2,0 // vbroadcastss 0x28607(%rip),%ymm8 # 29c18 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
+ .byte 196,98,125,24,5,199,133,2,0 // vbroadcastss 0x285c7(%rip),%ymm8 # 29bd8 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,249,133,2,0 // vbroadcastss 0x285f9(%rip),%ymm11 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x860>
- .byte 196,98,125,24,37,220,133,2,0 // vbroadcastss 0x285dc(%rip),%ymm12 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+ .byte 196,98,125,24,29,185,133,2,0 // vbroadcastss 0x285b9(%rip),%ymm11 # 29bdc <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 196,98,125,24,37,156,133,2,0 // vbroadcastss 0x2859c(%rip),%ymm12 # 29bc8 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,225,133,2,0 // vbroadcastss 0x285e1(%rip),%ymm14 # 29c20 <_sk_srcover_rgba_8888_sse2_lowp+0x864>
+ .byte 196,98,125,24,53,161,133,2,0 // vbroadcastss 0x285a1(%rip),%ymm14 # 29be0 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,215,133,2,0 // vbroadcastss 0x285d7(%rip),%ymm10 # 29c24 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+ .byte 196,98,125,24,21,151,133,2,0 // vbroadcastss 0x28597(%rip),%ymm10 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x860>
.byte 196,193,124,194,194,1 // vcmpltps %ymm10,%ymm0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -10837,16 +10837,16 @@ HIDDEN _sk_from_srgb_dst_hsw
.globl _sk_from_srgb_dst_hsw
FUNCTION(_sk_from_srgb_dst_hsw)
_sk_from_srgb_dst_hsw:
- .byte 196,98,125,24,5,111,133,2,0 // vbroadcastss 0x2856f(%rip),%ymm8 # 29c18 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
+ .byte 196,98,125,24,5,47,133,2,0 // vbroadcastss 0x2852f(%rip),%ymm8 # 29bd8 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,97,133,2,0 // vbroadcastss 0x28561(%rip),%ymm11 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x860>
- .byte 196,98,125,24,37,68,133,2,0 // vbroadcastss 0x28544(%rip),%ymm12 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+ .byte 196,98,125,24,29,33,133,2,0 // vbroadcastss 0x28521(%rip),%ymm11 # 29bdc <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 196,98,125,24,37,4,133,2,0 // vbroadcastss 0x28504(%rip),%ymm12 # 29bc8 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,73,133,2,0 // vbroadcastss 0x28549(%rip),%ymm14 # 29c20 <_sk_srcover_rgba_8888_sse2_lowp+0x864>
+ .byte 196,98,125,24,53,9,133,2,0 // vbroadcastss 0x28509(%rip),%ymm14 # 29be0 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,63,133,2,0 // vbroadcastss 0x2853f(%rip),%ymm10 # 29c24 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+ .byte 196,98,125,24,21,255,132,2,0 // vbroadcastss 0x284ff(%rip),%ymm10 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x860>
.byte 196,193,92,194,226,1 // vcmpltps %ymm10,%ymm4,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -10870,19 +10870,19 @@ HIDDEN _sk_to_srgb_hsw
FUNCTION(_sk_to_srgb_hsw)
_sk_to_srgb_hsw:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,227,132,2,0 // vbroadcastss 0x284e3(%rip),%ymm8 # 29c28 <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
+ .byte 196,98,125,24,5,163,132,2,0 // vbroadcastss 0x284a3(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x864>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,217,132,2,0 // vbroadcastss 0x284d9(%rip),%ymm11 # 29c2c <_sk_srcover_rgba_8888_sse2_lowp+0x870>
- .byte 196,98,125,24,37,212,132,2,0 // vbroadcastss 0x284d4(%rip),%ymm12 # 29c30 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+ .byte 196,98,125,24,29,153,132,2,0 // vbroadcastss 0x28499(%rip),%ymm11 # 29bec <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+ .byte 196,98,125,24,37,148,132,2,0 // vbroadcastss 0x28494(%rip),%ymm12 # 29bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,53,168,235 // vfmadd213ps %ymm11,%ymm9,%ymm13
- .byte 196,98,125,24,53,197,132,2,0 // vbroadcastss 0x284c5(%rip),%ymm14 # 29c34 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,53,133,132,2,0 // vbroadcastss 0x28485(%rip),%ymm14 # 29bf4 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
.byte 196,66,53,168,238 // vfmadd213ps %ymm14,%ymm9,%ymm13
- .byte 196,98,125,24,61,187,132,2,0 // vbroadcastss 0x284bb(%rip),%ymm15 # 29c38 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,61,123,132,2,0 // vbroadcastss 0x2847b(%rip),%ymm15 # 29bf8 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,20,89,201 // vmulps %ymm9,%ymm13,%ymm9
- .byte 196,98,125,24,45,167,132,2,0 // vbroadcastss 0x284a7(%rip),%ymm13 # 29c3c <_sk_srcover_rgba_8888_sse2_lowp+0x880>
+ .byte 196,98,125,24,45,103,132,2,0 // vbroadcastss 0x28467(%rip),%ymm13 # 29bfc <_sk_srcover_rgba_8888_sse2_lowp+0x878>
.byte 196,193,124,194,197,1 // vcmpltps %ymm13,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -10916,26 +10916,26 @@ _sk_rgb_to_hsl_hsw:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,194,131,2,0 // vbroadcastss 0x283c2(%rip),%ymm11 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,29,130,131,2,0 // vbroadcastss 0x28382(%rip),%ymm11 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 197,116,194,234,1 // vcmpltps %ymm2,%ymm1,%ymm13
- .byte 196,98,125,24,53,3,132,2,0 // vbroadcastss 0x28403(%rip),%ymm14 # 29c40 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,53,195,131,2,0 // vbroadcastss 0x283c3(%rip),%ymm14 # 29c00 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
.byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
.byte 196,67,5,74,238,208 // vblendvps %ymm13,%ymm14,%ymm15,%ymm13
.byte 196,66,37,168,229 // vfmadd213ps %ymm13,%ymm11,%ymm12
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
.byte 197,124,92,233 // vsubps %ymm1,%ymm0,%ymm13
- .byte 196,98,125,24,53,234,131,2,0 // vbroadcastss 0x283ea(%rip),%ymm14 # 29c48 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,53,170,131,2,0 // vbroadcastss 0x283aa(%rip),%ymm14 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,66,37,168,238 // vfmadd213ps %ymm14,%ymm11,%ymm13
- .byte 196,98,125,24,53,216,131,2,0 // vbroadcastss 0x283d8(%rip),%ymm14 # 29c44 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,53,152,131,2,0 // vbroadcastss 0x28398(%rip),%ymm14 # 29c04 <_sk_srcover_rgba_8888_sse2_lowp+0x880>
.byte 196,194,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm2
.byte 197,188,194,201,0 // vcmpeqps %ymm1,%ymm8,%ymm1
.byte 196,227,21,74,202,16 // vblendvps %ymm1,%ymm2,%ymm13,%ymm1
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,195,117,74,196,0 // vblendvps %ymm0,%ymm12,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,29,79,131,2,0 // vbroadcastss 0x2834f(%rip),%ymm11 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,29,15,131,2,0 // vbroadcastss 0x2830f(%rip),%ymm11 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 197,36,194,218,1 // vcmpltps %ymm2,%ymm11,%ymm11
.byte 196,65,12,92,224 // vsubps %ymm8,%ymm14,%ymm12
@@ -10945,7 +10945,7 @@ _sk_rgb_to_hsl_hsw:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,199,128 // vblendvps %ymm8,%ymm15,%ymm0,%ymm0
.byte 196,195,117,74,207,128 // vblendvps %ymm8,%ymm15,%ymm1,%ymm1
- .byte 196,98,125,24,5,126,131,2,0 // vbroadcastss 0x2837e(%rip),%ymm8 # 29c4c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,98,125,24,5,62,131,2,0 // vbroadcastss 0x2833e(%rip),%ymm8 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10962,30 +10962,30 @@ _sk_hsl_to_rgb_hsw:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 197,252,40,224 // vmovaps %ymm0,%ymm4
- .byte 196,98,125,24,5,219,130,2,0 // vbroadcastss 0x282db(%rip),%ymm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,5,155,130,2,0 // vbroadcastss 0x2829b(%rip),%ymm8 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,84,89,210 // vmulps %ymm2,%ymm5,%ymm10
.byte 196,65,84,92,218 // vsubps %ymm10,%ymm5,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
- .byte 196,98,125,24,13,26,131,2,0 // vbroadcastss 0x2831a(%rip),%ymm9 # 29c44 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,13,218,130,2,0 // vbroadcastss 0x282da(%rip),%ymm9 # 29c04 <_sk_srcover_rgba_8888_sse2_lowp+0x880>
.byte 196,66,109,170,202 // vfmsub213ps %ymm10,%ymm2,%ymm9
- .byte 196,98,125,24,29,24,131,2,0 // vbroadcastss 0x28318(%rip),%ymm11 # 29c50 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,24,29,216,130,2,0 // vbroadcastss 0x282d8(%rip),%ymm11 # 29c10 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,65,92,88,219 // vaddps %ymm11,%ymm4,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,45,234,130,2,0 // vbroadcastss 0x282ea(%rip),%ymm13 # 29c40 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,45,170,130,2,0 // vbroadcastss 0x282aa(%rip),%ymm13 # 29c00 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
.byte 196,193,4,89,197 // vmulps %ymm13,%ymm15,%ymm0
- .byte 196,98,125,24,53,228,130,2,0 // vbroadcastss 0x282e4(%rip),%ymm14 # 29c48 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,53,164,130,2,0 // vbroadcastss 0x282a4(%rip),%ymm14 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,12,92,224 // vsubps %ymm0,%ymm14,%ymm12
.byte 196,66,37,168,225 // vfmadd213ps %ymm9,%ymm11,%ymm12
- .byte 196,226,125,24,29,222,130,2,0 // vbroadcastss 0x282de(%rip),%ymm3 # 29c54 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 196,226,125,24,29,158,130,2,0 // vbroadcastss 0x2829e(%rip),%ymm3 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x890>
.byte 196,193,100,194,255,2 // vcmpleps %ymm15,%ymm3,%ymm7
.byte 196,195,29,74,249,112 // vblendvps %ymm7,%ymm9,%ymm12,%ymm7
.byte 196,65,60,194,231,2 // vcmpleps %ymm15,%ymm8,%ymm12
.byte 196,227,45,74,255,192 // vblendvps %ymm12,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,37,181,130,2,0 // vbroadcastss 0x282b5(%rip),%ymm12 # 29c4c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,98,125,24,37,117,130,2,0 // vbroadcastss 0x28275(%rip),%ymm12 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,28,194,255,2 // vcmpleps %ymm15,%ymm12,%ymm15
.byte 196,194,37,168,193 // vfmadd213ps %ymm9,%ymm11,%ymm0
.byte 196,99,125,74,255,240 // vblendvps %ymm15,%ymm7,%ymm0,%ymm15
@@ -11001,7 +11001,7 @@ _sk_hsl_to_rgb_hsw:
.byte 197,156,194,192,2 // vcmpleps %ymm0,%ymm12,%ymm0
.byte 196,194,37,168,249 // vfmadd213ps %ymm9,%ymm11,%ymm7
.byte 196,227,69,74,201,0 // vblendvps %ymm0,%ymm1,%ymm7,%ymm1
- .byte 196,226,125,24,5,105,130,2,0 // vbroadcastss 0x28269(%rip),%ymm0 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,226,125,24,5,41,130,2,0 // vbroadcastss 0x28229(%rip),%ymm0 # 29c18 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
.byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
.byte 196,227,125,8,224,1 // vroundps $0x1,%ymm0,%ymm4
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
@@ -11055,10 +11055,10 @@ _sk_scale_u8_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,58 // jne 1ade <_sk_scale_u8_hsw+0x52>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,206,130,2,0 // vpand 0x282ce(%rip),%xmm8,%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 197,57,219,5,142,130,2,0 // vpand 0x2828e(%rip),%xmm8,%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,151,129,2,0 // vbroadcastss 0x28197(%rip),%ymm9 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,13,87,129,2,0 // vbroadcastss 0x28157(%rip),%ymm9 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -11107,7 +11107,7 @@ _sk_scale_u8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf001b88 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd87cc>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf001b88 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8804>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -11133,20 +11133,20 @@ _sk_scale_565_hsw:
.byte 15,133,161,0,0,0 // jne 1c54 <_sk_scale_565_hsw+0xc0>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,153,128,2,0 // vpbroadcastd 0x28099(%rip),%ymm9 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,88,13,89,128,2,0 // vpbroadcastd 0x28059(%rip),%ymm9 # 29c20 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,138,128,2,0 // vbroadcastss 0x2808a(%rip),%ymm10 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,21,74,128,2,0 // vbroadcastss 0x2804a(%rip),%ymm10 # 29c24 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,128,128,2,0 // vpbroadcastd 0x28080(%rip),%ymm10 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,88,21,64,128,2,0 // vpbroadcastd 0x28040(%rip),%ymm10 # 29c28 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,113,128,2,0 // vbroadcastss 0x28071(%rip),%ymm11 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,29,49,128,2,0 // vbroadcastss 0x28031(%rip),%ymm11 # 29c2c <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,103,128,2,0 // vpbroadcastd 0x28067(%rip),%ymm11 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,88,29,39,128,2,0 // vpbroadcastd 0x28027(%rip),%ymm11 # 29c30 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,88,128,2,0 // vbroadcastss 0x28058(%rip),%ymm11 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,29,24,128,2,0 // vbroadcastss 0x28018(%rip),%ymm11 # 29c34 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -11237,10 +11237,10 @@ _sk_lerp_u8_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,78 // jne 1d8d <_sk_lerp_u8_hsw+0x66>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,51,128,2,0 // vpand 0x28033(%rip),%xmm8,%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 197,57,219,5,243,127,2,0 // vpand 0x27ff3(%rip),%xmm8,%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,252,126,2,0 // vbroadcastss 0x27efc(%rip),%ymm9 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,13,188,126,2,0 // vbroadcastss 0x27ebc(%rip),%ymm9 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
@@ -11292,7 +11292,7 @@ _sk_lerp_u8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde001e38 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd8a7c>
+ .byte 232,255,255,255,221 // callq ffffffffde001e38 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd8ab4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -11318,20 +11318,20 @@ _sk_lerp_565_hsw:
.byte 15,133,181,0,0,0 // jne 1f18 <_sk_lerp_565_hsw+0xd4>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,233,125,2,0 // vpbroadcastd 0x27de9(%rip),%ymm9 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,88,13,169,125,2,0 // vpbroadcastd 0x27da9(%rip),%ymm9 # 29c20 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,218,125,2,0 // vbroadcastss 0x27dda(%rip),%ymm10 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,21,154,125,2,0 // vbroadcastss 0x27d9a(%rip),%ymm10 # 29c24 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,208,125,2,0 // vpbroadcastd 0x27dd0(%rip),%ymm10 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,88,21,144,125,2,0 // vpbroadcastd 0x27d90(%rip),%ymm10 # 29c28 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,193,125,2,0 // vbroadcastss 0x27dc1(%rip),%ymm11 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,29,129,125,2,0 // vbroadcastss 0x27d81(%rip),%ymm11 # 29c2c <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,183,125,2,0 // vpbroadcastd 0x27db7(%rip),%ymm11 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,88,29,119,125,2,0 // vpbroadcastd 0x27d77(%rip),%ymm11 # 29c30 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,168,125,2,0 // vbroadcastss 0x27da8(%rip),%ymm11 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,29,104,125,2,0 // vbroadcastss 0x27d68(%rip),%ymm11 # 29c34 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -11405,7 +11405,7 @@ _sk_load_tables_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,116 // jne 203a <_sk_load_tables_hsw+0x7e>
.byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 197,229,219,13,76,119,2,0 // vpand 0x2774c(%rip),%ymm3,%ymm1 # 29720 <_sk_srcover_rgba_8888_sse2_lowp+0x364>
+ .byte 197,229,219,13,12,119,2,0 // vpand 0x2770c(%rip),%ymm3,%ymm1 # 296e0 <_sk_srcover_rgba_8888_sse2_lowp+0x35c>
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
@@ -11413,16 +11413,16 @@ _sk_load_tables_hsw:
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
.byte 196,194,53,146,4,136 // vgatherdps %ymm9,(%r8,%ymm1,4),%ymm0
- .byte 196,98,101,0,13,67,119,2,0 // vpshufb 0x27743(%rip),%ymm3,%ymm9 # 29740 <_sk_srcover_rgba_8888_sse2_lowp+0x384>
+ .byte 196,98,101,0,13,3,119,2,0 // vpshufb 0x27703(%rip),%ymm3,%ymm9 # 29700 <_sk_srcover_rgba_8888_sse2_lowp+0x37c>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
.byte 196,130,45,146,12,137 // vgatherdps %ymm10,(%r9,%ymm9,4),%ymm1
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,98,101,0,13,71,119,2,0 // vpshufb 0x27747(%rip),%ymm3,%ymm9 # 29760 <_sk_srcover_rgba_8888_sse2_lowp+0x3a4>
+ .byte 196,98,101,0,13,7,119,2,0 // vpshufb 0x27707(%rip),%ymm3,%ymm9 # 29720 <_sk_srcover_rgba_8888_sse2_lowp+0x39c>
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,43,124,2,0 // vbroadcastss 0x27c2b(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,5,235,123,2,0 // vbroadcastss 0x27beb(%rip),%ymm8 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11503,7 +11503,7 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
.byte 196,65,49,108,214 // vpunpcklqdq %xmm14,%xmm9,%xmm10
- .byte 197,121,111,29,20,124,2,0 // vmovdqa 0x27c14(%rip),%xmm11 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 197,121,111,29,212,123,2,0 // vmovdqa 0x27bd4(%rip),%xmm11 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 196,193,113,219,195 // vpand %xmm11,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -11528,7 +11528,7 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,144,122,2,0 // vbroadcastss 0x27a90(%rip),%ymm8 # 29c78 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,5,80,122,2,0 // vbroadcastss 0x27a50(%rip),%ymm8 # 29c38 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11588,7 +11588,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 197,105,108,192 // vpunpcklqdq %xmm0,%xmm2,%xmm8
.byte 197,241,108,195 // vpunpcklqdq %xmm3,%xmm1,%xmm0
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,249,111,29,148,122,2,0 // vmovdqa 0x27a94(%rip),%xmm3 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 197,249,111,29,84,122,2,0 // vmovdqa 0x27a54(%rip),%xmm3 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 197,249,219,195 // vpand %xmm3,%xmm0,%xmm0
.byte 196,98,125,51,200 // vpmovzxwd %xmm0,%ymm9
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
@@ -11608,7 +11608,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 196,226,45,146,20,152 // vgatherdps %ymm10,(%rax,%ymm3,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,157,120,2,0 // vbroadcastss 0x2789d(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,29,93,120,2,0 // vbroadcastss 0x2785d(%rip),%ymm3 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
@@ -11677,7 +11677,7 @@ HIDDEN _sk_byte_tables_hsw
FUNCTION(_sk_byte_tables_hsw)
_sk_byte_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,146,119,2,0 // vbroadcastss 0x27792(%rip),%ymm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 196,98,125,24,5,82,119,2,0 // vbroadcastss 0x27752(%rip),%ymm8 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,200 // vmovq %xmm9,%r8
@@ -11807,7 +11807,7 @@ _sk_byte_tables_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,96,117,2,0 // vbroadcastss 0x27560(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,5,32,117,2,0 // vbroadcastss 0x27520(%rip),%ymm8 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -11929,7 +11929,7 @@ _sk_byte_tables_rgb_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,52,115,2,0 // vbroadcastss 0x27334(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,5,244,114,2,0 // vbroadcastss 0x272f4(%rip),%ymm8 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -12032,33 +12032,33 @@ _sk_parametric_r_hsw:
.byte 196,66,125,168,211 // vfmadd213ps %ymm11,%ymm0,%ymm10
.byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,26,114,2,0 // vbroadcastss 0x2721a(%rip),%ymm12 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
- .byte 196,98,125,24,45,21,114,2,0 // vbroadcastss 0x27215(%rip),%ymm13 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,37,218,113,2,0 // vbroadcastss 0x271da(%rip),%ymm12 # 29c3c <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,45,213,113,2,0 // vbroadcastss 0x271d5(%rip),%ymm13 # 29c40 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,107,113,2,0 // vbroadcastss 0x2716b(%rip),%ymm13 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,45,43,113,2,0 // vbroadcastss 0x2712b(%rip),%ymm13 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,253,113,2,0 // vbroadcastss 0x271fd(%rip),%ymm13 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,45,189,113,2,0 // vbroadcastss 0x271bd(%rip),%ymm13 # 29c44 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,243,113,2,0 // vbroadcastss 0x271f3(%rip),%ymm11 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,29,179,113,2,0 // vbroadcastss 0x271b3(%rip),%ymm11 # 29c48 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,233,113,2,0 // vbroadcastss 0x271e9(%rip),%ymm12 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,24,37,169,113,2,0 // vbroadcastss 0x271a9(%rip),%ymm12 # 29c4c <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,223,113,2,0 // vbroadcastss 0x271df(%rip),%ymm12 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,37,159,113,2,0 // vbroadcastss 0x2719f(%rip),%ymm12 # 29c50 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,192,113,2,0 // vbroadcastss 0x271c0(%rip),%ymm11 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,29,128,113,2,0 // vbroadcastss 0x27180(%rip),%ymm11 # 29c54 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,182,113,2,0 // vbroadcastss 0x271b6(%rip),%ymm11 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,29,118,113,2,0 // vbroadcastss 0x27176(%rip),%ymm11 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 196,98,45,172,216 // vfnmadd213ps %ymm0,%ymm10,%ymm11
- .byte 196,226,125,24,5,172,113,2,0 // vbroadcastss 0x271ac(%rip),%ymm0 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,226,125,24,5,108,113,2,0 // vbroadcastss 0x2716c(%rip),%ymm0 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,162,113,2,0 // vbroadcastss 0x271a2(%rip),%ymm10 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,21,98,113,2,0 // vbroadcastss 0x27162(%rip),%ymm10 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 197,172,94,192 // vdivps %ymm0,%ymm10,%ymm0
.byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,21,149,113,2,0 // vbroadcastss 0x27195(%rip),%ymm10 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,21,85,113,2,0 // vbroadcastss 0x27155(%rip),%ymm10 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -12066,7 +12066,7 @@ _sk_parametric_r_hsw:
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,173,112,2,0 // vbroadcastss 0x270ad(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,109,112,2,0 // vbroadcastss 0x2706d(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12086,33 +12086,33 @@ _sk_parametric_g_hsw:
.byte 196,66,117,168,211 // vfmadd213ps %ymm11,%ymm1,%ymm10
.byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,245,112,2,0 // vbroadcastss 0x270f5(%rip),%ymm12 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
- .byte 196,98,125,24,45,240,112,2,0 // vbroadcastss 0x270f0(%rip),%ymm13 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,37,181,112,2,0 // vbroadcastss 0x270b5(%rip),%ymm12 # 29c3c <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,45,176,112,2,0 // vbroadcastss 0x270b0(%rip),%ymm13 # 29c40 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,70,112,2,0 // vbroadcastss 0x27046(%rip),%ymm13 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,45,6,112,2,0 // vbroadcastss 0x27006(%rip),%ymm13 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,216,112,2,0 // vbroadcastss 0x270d8(%rip),%ymm13 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,45,152,112,2,0 // vbroadcastss 0x27098(%rip),%ymm13 # 29c44 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,206,112,2,0 // vbroadcastss 0x270ce(%rip),%ymm11 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,29,142,112,2,0 // vbroadcastss 0x2708e(%rip),%ymm11 # 29c48 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,196,112,2,0 // vbroadcastss 0x270c4(%rip),%ymm12 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,24,37,132,112,2,0 // vbroadcastss 0x27084(%rip),%ymm12 # 29c4c <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,186,112,2,0 // vbroadcastss 0x270ba(%rip),%ymm12 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,37,122,112,2,0 // vbroadcastss 0x2707a(%rip),%ymm12 # 29c50 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,155,112,2,0 // vbroadcastss 0x2709b(%rip),%ymm11 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,29,91,112,2,0 // vbroadcastss 0x2705b(%rip),%ymm11 # 29c54 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,145,112,2,0 // vbroadcastss 0x27091(%rip),%ymm11 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,29,81,112,2,0 // vbroadcastss 0x27051(%rip),%ymm11 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 196,98,45,172,217 // vfnmadd213ps %ymm1,%ymm10,%ymm11
- .byte 196,226,125,24,13,135,112,2,0 // vbroadcastss 0x27087(%rip),%ymm1 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,226,125,24,13,71,112,2,0 // vbroadcastss 0x27047(%rip),%ymm1 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,125,112,2,0 // vbroadcastss 0x2707d(%rip),%ymm10 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,21,61,112,2,0 // vbroadcastss 0x2703d(%rip),%ymm10 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
- .byte 196,98,125,24,21,112,112,2,0 // vbroadcastss 0x27070(%rip),%ymm10 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,21,48,112,2,0 // vbroadcastss 0x27030(%rip),%ymm10 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -12120,7 +12120,7 @@ _sk_parametric_g_hsw:
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,5,136,111,2,0 // vbroadcastss 0x26f88(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,72,111,2,0 // vbroadcastss 0x26f48(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12140,33 +12140,33 @@ _sk_parametric_b_hsw:
.byte 196,66,109,168,211 // vfmadd213ps %ymm11,%ymm2,%ymm10
.byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,208,111,2,0 // vbroadcastss 0x26fd0(%rip),%ymm12 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
- .byte 196,98,125,24,45,203,111,2,0 // vbroadcastss 0x26fcb(%rip),%ymm13 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,37,144,111,2,0 // vbroadcastss 0x26f90(%rip),%ymm12 # 29c3c <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,45,139,111,2,0 // vbroadcastss 0x26f8b(%rip),%ymm13 # 29c40 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,33,111,2,0 // vbroadcastss 0x26f21(%rip),%ymm13 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,45,225,110,2,0 // vbroadcastss 0x26ee1(%rip),%ymm13 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,179,111,2,0 // vbroadcastss 0x26fb3(%rip),%ymm13 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,45,115,111,2,0 // vbroadcastss 0x26f73(%rip),%ymm13 # 29c44 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,169,111,2,0 // vbroadcastss 0x26fa9(%rip),%ymm11 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,29,105,111,2,0 // vbroadcastss 0x26f69(%rip),%ymm11 # 29c48 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,159,111,2,0 // vbroadcastss 0x26f9f(%rip),%ymm12 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,24,37,95,111,2,0 // vbroadcastss 0x26f5f(%rip),%ymm12 # 29c4c <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,149,111,2,0 // vbroadcastss 0x26f95(%rip),%ymm12 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,37,85,111,2,0 // vbroadcastss 0x26f55(%rip),%ymm12 # 29c50 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,118,111,2,0 // vbroadcastss 0x26f76(%rip),%ymm11 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,29,54,111,2,0 // vbroadcastss 0x26f36(%rip),%ymm11 # 29c54 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,108,111,2,0 // vbroadcastss 0x26f6c(%rip),%ymm11 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,29,44,111,2,0 // vbroadcastss 0x26f2c(%rip),%ymm11 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 196,98,45,172,218 // vfnmadd213ps %ymm2,%ymm10,%ymm11
- .byte 196,226,125,24,21,98,111,2,0 // vbroadcastss 0x26f62(%rip),%ymm2 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,226,125,24,21,34,111,2,0 // vbroadcastss 0x26f22(%rip),%ymm2 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,193,108,92,210 // vsubps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,88,111,2,0 // vbroadcastss 0x26f58(%rip),%ymm10 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,21,24,111,2,0 // vbroadcastss 0x26f18(%rip),%ymm10 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 197,172,94,210 // vdivps %ymm2,%ymm10,%ymm2
.byte 197,164,88,210 // vaddps %ymm2,%ymm11,%ymm2
- .byte 196,98,125,24,21,75,111,2,0 // vbroadcastss 0x26f4b(%rip),%ymm10 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,21,11,111,2,0 // vbroadcastss 0x26f0b(%rip),%ymm10 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -12174,7 +12174,7 @@ _sk_parametric_b_hsw:
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,99,110,2,0 // vbroadcastss 0x26e63(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,35,110,2,0 // vbroadcastss 0x26e23(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12194,33 +12194,33 @@ _sk_parametric_a_hsw:
.byte 196,66,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm10
.byte 196,226,125,24,24 // vbroadcastss (%rax),%ymm3
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,171,110,2,0 // vbroadcastss 0x26eab(%rip),%ymm12 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
- .byte 196,98,125,24,45,166,110,2,0 // vbroadcastss 0x26ea6(%rip),%ymm13 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,37,107,110,2,0 // vbroadcastss 0x26e6b(%rip),%ymm12 # 29c3c <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,45,102,110,2,0 // vbroadcastss 0x26e66(%rip),%ymm13 # 29c40 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,252,109,2,0 // vbroadcastss 0x26dfc(%rip),%ymm13 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,45,188,109,2,0 // vbroadcastss 0x26dbc(%rip),%ymm13 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,142,110,2,0 // vbroadcastss 0x26e8e(%rip),%ymm13 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,45,78,110,2,0 // vbroadcastss 0x26e4e(%rip),%ymm13 # 29c44 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,132,110,2,0 // vbroadcastss 0x26e84(%rip),%ymm11 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,29,68,110,2,0 // vbroadcastss 0x26e44(%rip),%ymm11 # 29c48 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,122,110,2,0 // vbroadcastss 0x26e7a(%rip),%ymm12 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,24,37,58,110,2,0 // vbroadcastss 0x26e3a(%rip),%ymm12 # 29c4c <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,112,110,2,0 // vbroadcastss 0x26e70(%rip),%ymm12 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,37,48,110,2,0 // vbroadcastss 0x26e30(%rip),%ymm12 # 29c50 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,81,110,2,0 // vbroadcastss 0x26e51(%rip),%ymm11 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,29,17,110,2,0 // vbroadcastss 0x26e11(%rip),%ymm11 # 29c54 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,71,110,2,0 // vbroadcastss 0x26e47(%rip),%ymm11 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,29,7,110,2,0 // vbroadcastss 0x26e07(%rip),%ymm11 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 196,98,45,172,219 // vfnmadd213ps %ymm3,%ymm10,%ymm11
- .byte 196,226,125,24,29,61,110,2,0 // vbroadcastss 0x26e3d(%rip),%ymm3 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,226,125,24,29,253,109,2,0 // vbroadcastss 0x26dfd(%rip),%ymm3 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,193,100,92,218 // vsubps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,51,110,2,0 // vbroadcastss 0x26e33(%rip),%ymm10 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,21,243,109,2,0 // vbroadcastss 0x26df3(%rip),%ymm10 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 197,172,94,219 // vdivps %ymm3,%ymm10,%ymm3
.byte 197,164,88,219 // vaddps %ymm3,%ymm11,%ymm3
- .byte 196,98,125,24,21,38,110,2,0 // vbroadcastss 0x26e26(%rip),%ymm10 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,21,230,109,2,0 // vbroadcastss 0x26de6(%rip),%ymm10 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -12228,7 +12228,7 @@ _sk_parametric_a_hsw:
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 196,98,125,24,5,62,109,2,0 // vbroadcastss 0x26d3e(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,254,108,2,0 // vbroadcastss 0x26cfe(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12247,35 +12247,35 @@ _sk_gamma_hsw:
.byte 197,252,40,241 // vmovaps %ymm1,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 196,98,125,24,29,145,109,2,0 // vbroadcastss 0x26d91(%rip),%ymm11 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
- .byte 196,226,125,24,45,140,109,2,0 // vbroadcastss 0x26d8c(%rip),%ymm5 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,29,81,109,2,0 // vbroadcastss 0x26d51(%rip),%ymm11 # 29c3c <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,226,125,24,45,76,109,2,0 // vbroadcastss 0x26d4c(%rip),%ymm5 # 29c40 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 197,124,84,205 // vandps %ymm5,%ymm0,%ymm9
- .byte 196,226,125,24,37,227,108,2,0 // vbroadcastss 0x26ce3(%rip),%ymm4 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,226,125,24,37,163,108,2,0 // vbroadcastss 0x26ca3(%rip),%ymm4 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 197,52,86,228 // vorps %ymm4,%ymm9,%ymm12
- .byte 196,98,125,24,45,118,109,2,0 // vbroadcastss 0x26d76(%rip),%ymm13 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,45,54,109,2,0 // vbroadcastss 0x26d36(%rip),%ymm13 # 29c44 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10
- .byte 196,98,125,24,13,108,109,2,0 // vbroadcastss 0x26d6c(%rip),%ymm9 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,13,44,109,2,0 // vbroadcastss 0x26d2c(%rip),%ymm9 # 29c48 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,66,29,188,209 // vfnmadd231ps %ymm9,%ymm12,%ymm10
.byte 197,124,91,246 // vcvtdq2ps %ymm6,%ymm14
.byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14
.byte 197,124,91,255 // vcvtdq2ps %ymm7,%ymm15
.byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15
- .byte 196,98,125,24,29,80,109,2,0 // vbroadcastss 0x26d50(%rip),%ymm11 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,24,29,16,109,2,0 // vbroadcastss 0x26d10(%rip),%ymm11 # 29c4c <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,65,28,88,227 // vaddps %ymm11,%ymm12,%ymm12
- .byte 196,98,125,24,45,70,109,2,0 // vbroadcastss 0x26d46(%rip),%ymm13 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,45,6,109,2,0 // vbroadcastss 0x26d06(%rip),%ymm13 # 29c50 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
.byte 196,98,125,24,32 // vbroadcastss (%rax),%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
.byte 196,67,125,8,194,1 // vroundps $0x1,%ymm10,%ymm8
.byte 196,65,44,92,192 // vsubps %ymm8,%ymm10,%ymm8
- .byte 196,226,125,24,21,34,109,2,0 // vbroadcastss 0x26d22(%rip),%ymm2 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,226,125,24,21,226,108,2,0 // vbroadcastss 0x26ce2(%rip),%ymm2 # 29c54 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 197,44,88,210 // vaddps %ymm2,%ymm10,%ymm10
- .byte 196,226,125,24,29,25,109,2,0 // vbroadcastss 0x26d19(%rip),%ymm3 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,226,125,24,29,217,108,2,0 // vbroadcastss 0x26cd9(%rip),%ymm3 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 196,98,61,188,211 // vfnmadd231ps %ymm3,%ymm8,%ymm10
- .byte 196,226,125,24,13,15,109,2,0 // vbroadcastss 0x26d0f(%rip),%ymm1 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,226,125,24,13,207,108,2,0 // vbroadcastss 0x26ccf(%rip),%ymm1 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,65,116,92,192 // vsubps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,5,5,109,2,0 // vbroadcastss 0x26d05(%rip),%ymm0 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,226,125,24,5,197,108,2,0 // vbroadcastss 0x26cc5(%rip),%ymm0 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 196,65,124,94,192 // vdivps %ymm8,%ymm0,%ymm8
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 197,204,84,245 // vandps %ymm5,%ymm6,%ymm6
@@ -12306,7 +12306,7 @@ _sk_gamma_hsw:
.byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
.byte 197,252,94,193 // vdivps %ymm1,%ymm0,%ymm0
.byte 197,236,88,192 // vaddps %ymm0,%ymm2,%ymm0
- .byte 196,226,125,24,13,118,108,2,0 // vbroadcastss 0x26c76(%rip),%ymm1 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,226,125,24,13,54,108,2,0 // vbroadcastss 0x26c36(%rip),%ymm1 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 197,188,89,209 // vmulps %ymm1,%ymm8,%ymm2
.byte 197,204,89,217 // vmulps %ymm1,%ymm6,%ymm3
.byte 197,252,89,225 // vmulps %ymm1,%ymm0,%ymm4
@@ -12326,26 +12326,26 @@ HIDDEN _sk_lab_to_xyz_hsw
.globl _sk_lab_to_xyz_hsw
FUNCTION(_sk_lab_to_xyz_hsw)
_sk_lab_to_xyz_hsw:
- .byte 196,98,125,24,5,52,108,2,0 // vbroadcastss 0x26c34(%rip),%ymm8 # 29ca8 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
- .byte 196,98,125,24,13,151,107,2,0 // vbroadcastss 0x26b97(%rip),%ymm9 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
- .byte 196,98,125,24,21,38,108,2,0 // vbroadcastss 0x26c26(%rip),%ymm10 # 29cac <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,5,244,107,2,0 // vbroadcastss 0x26bf4(%rip),%ymm8 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,13,87,107,2,0 // vbroadcastss 0x26b57(%rip),%ymm9 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ .byte 196,98,125,24,21,230,107,2,0 // vbroadcastss 0x26be6(%rip),%ymm10 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 196,98,125,24,13,23,108,2,0 // vbroadcastss 0x26c17(%rip),%ymm9 # 29cb0 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,13,215,107,2,0 // vbroadcastss 0x26bd7(%rip),%ymm9 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
.byte 196,66,125,184,200 // vfmadd231ps %ymm8,%ymm0,%ymm9
- .byte 196,226,125,24,5,13,108,2,0 // vbroadcastss 0x26c0d(%rip),%ymm0 # 29cb4 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,226,125,24,5,205,107,2,0 // vbroadcastss 0x26bcd(%rip),%ymm0 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,5,4,108,2,0 // vbroadcastss 0x26c04(%rip),%ymm8 # 29cb8 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,5,196,107,2,0 // vbroadcastss 0x26bc4(%rip),%ymm8 # 29c78 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
.byte 196,98,117,168,192 // vfmadd213ps %ymm0,%ymm1,%ymm8
- .byte 196,98,125,24,13,250,107,2,0 // vbroadcastss 0x26bfa(%rip),%ymm9 # 29cbc <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,13,186,107,2,0 // vbroadcastss 0x26bba(%rip),%ymm9 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 196,98,109,172,200 // vfnmadd213ps %ymm0,%ymm2,%ymm9
.byte 196,193,60,89,200 // vmulps %ymm8,%ymm8,%ymm1
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 196,226,125,24,21,231,107,2,0 // vbroadcastss 0x26be7(%rip),%ymm2 # 29cc0 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,24,21,167,107,2,0 // vbroadcastss 0x26ba7(%rip),%ymm2 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,108,194,209,1 // vcmpltps %ymm1,%ymm2,%ymm10
- .byte 196,98,125,24,29,221,107,2,0 // vbroadcastss 0x26bdd(%rip),%ymm11 # 29cc4 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,98,125,24,29,157,107,2,0 // vbroadcastss 0x26b9d(%rip),%ymm11 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,37,211,107,2,0 // vbroadcastss 0x26bd3(%rip),%ymm12 # 29cc8 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,98,125,24,37,147,107,2,0 // vbroadcastss 0x26b93(%rip),%ymm12 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,65,60,89,196 // vmulps %ymm12,%ymm8,%ymm8
.byte 196,99,61,74,193,160 // vblendvps %ymm10,%ymm1,%ymm8,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -12360,9 +12360,9 @@ _sk_lab_to_xyz_hsw:
.byte 196,65,52,88,203 // vaddps %ymm11,%ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
.byte 196,227,53,74,208,32 // vblendvps %ymm2,%ymm0,%ymm9,%ymm2
- .byte 196,226,125,24,5,136,107,2,0 // vbroadcastss 0x26b88(%rip),%ymm0 # 29ccc <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,226,125,24,5,72,107,2,0 // vbroadcastss 0x26b48(%rip),%ymm0 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,127,107,2,0 // vbroadcastss 0x26b7f(%rip),%ymm8 # 29cd0 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,98,125,24,5,63,107,2,0 // vbroadcastss 0x26b3f(%rip),%ymm8 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12380,10 +12380,10 @@ _sk_load_a8_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,52 // jne 31a6 <_sk_load_a8_hsw+0x4c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,0,108,2,0 // vpand 0x26c00(%rip),%xmm0,%xmm0 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 197,249,219,5,192,107,2,0 // vpand 0x26bc0(%rip),%xmm0,%xmm0 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,202,106,2,0 // vbroadcastss 0x26aca(%rip),%ymm1 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,226,125,24,13,138,106,2,0 // vbroadcastss 0x26a8a(%rip),%ymm1 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -12456,10 +12456,10 @@ _sk_load_a8_dst_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,52 // jne 32a4 <_sk_load_a8_dst_hsw+0x4c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,2,107,2,0 // vpand 0x26b02(%rip),%xmm4,%xmm4 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 197,217,219,37,194,106,2,0 // vpand 0x26ac2(%rip),%xmm4,%xmm4 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,204,105,2,0 // vbroadcastss 0x269cc(%rip),%ymm5 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,226,125,24,45,140,105,2,0 // vbroadcastss 0x2698c(%rip),%ymm5 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -12507,7 +12507,7 @@ _sk_load_a8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00334c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd9f90>
+ .byte 232,255,255,255,221 // callq ffffffffde00334c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd9fc8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -12564,7 +12564,7 @@ _sk_gather_a8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,64,104,2,0 // vbroadcastss 0x26840(%rip),%ymm1 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,226,125,24,13,0,104,2,0 // vbroadcastss 0x26800(%rip),%ymm1 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -12586,7 +12586,7 @@ _sk_store_a8_hsw:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,193,103,2,0 // vbroadcastss 0x267c1(%rip),%ymm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 196,98,125,24,5,129,103,2,0 // vbroadcastss 0x26781(%rip),%ymm8 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -12611,13 +12611,13 @@ _sk_store_a8_hsw:
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
.byte 235,202 // jmp 3477 <_sk_store_a8_hsw+0x40>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,210,104,2,0 // vpshufb 0x268d2(%rip),%xmm8,%xmm8 # 29d90 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+ .byte 196,98,57,0,5,146,104,2,0 // vpshufb 0x26892(%rip),%xmm8,%xmm8 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
.byte 235,176 // jmp 3477 <_sk_store_a8_hsw+0x40>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,184,104,2,0 // vpshufb 0x268b8(%rip),%xmm8,%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,57,0,5,120,104,2,0 // vpshufb 0x26878(%rip),%xmm8,%xmm8 # 29d60 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
.byte 235,135 // jmp 3477 <_sk_store_a8_hsw+0x40>
.byte 180,255 // mov $0xff,%ah
@@ -12653,13 +12653,13 @@ _sk_load_g8_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,57 // jne 355d <_sk_load_g8_hsw+0x51>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,78,104,2,0 // vpand 0x2684e(%rip),%xmm0,%xmm0 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 197,249,219,5,14,104,2,0 // vpand 0x2680e(%rip),%xmm0,%xmm0 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,24,103,2,0 // vbroadcastss 0x26718(%rip),%ymm1 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,226,125,24,13,216,102,2,0 // vbroadcastss 0x266d8(%rip),%ymm1 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,149,102,2,0 // vbroadcastss 0x26695(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,29,85,102,2,0 // vbroadcastss 0x26655(%rip),%ymm3 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -12704,7 +12704,7 @@ _sk_load_g8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf003604 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefda248>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf003604 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefda280>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -12728,13 +12728,13 @@ _sk_load_g8_dst_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,57 // jne 3661 <_sk_load_g8_dst_hsw+0x51>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,74,103,2,0 // vpand 0x2674a(%rip),%xmm4,%xmm4 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 197,217,219,37,10,103,2,0 // vpand 0x2670a(%rip),%xmm4,%xmm4 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,20,102,2,0 // vbroadcastss 0x26614(%rip),%ymm5 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,226,125,24,45,212,101,2,0 // vbroadcastss 0x265d4(%rip),%ymm5 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,145,101,2,0 // vbroadcastss 0x26591(%rip),%ymm7 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,61,81,101,2,0 // vbroadcastss 0x26551(%rip),%ymm7 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -12779,7 +12779,7 @@ _sk_load_g8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf003708 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefda34c>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf003708 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefda384>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -12836,10 +12836,10 @@ _sk_gather_g8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,132,100,2,0 // vbroadcastss 0x26484(%rip),%ymm1 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,226,125,24,13,68,100,2,0 // vbroadcastss 0x26444(%rip),%ymm1 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,1,100,2,0 // vbroadcastss 0x26401(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,29,193,99,2,0 // vbroadcastss 0x263c1(%rip),%ymm3 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -12863,23 +12863,23 @@ _sk_load_565_hsw:
.byte 117,114 // jne 3885 <_sk_load_565_hsw+0x8d>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,57,100,2,0 // vpbroadcastd 0x26439(%rip),%ymm0 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,226,125,88,5,249,99,2,0 // vpbroadcastd 0x263f9(%rip),%ymm0 # 29c20 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,44,100,2,0 // vbroadcastss 0x2642c(%rip),%ymm1 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,226,125,24,13,236,99,2,0 // vbroadcastss 0x263ec(%rip),%ymm1 # 29c24 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,35,100,2,0 // vpbroadcastd 0x26423(%rip),%ymm1 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,226,125,88,13,227,99,2,0 // vpbroadcastd 0x263e3(%rip),%ymm1 # 29c28 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,22,100,2,0 // vbroadcastss 0x26416(%rip),%ymm3 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,226,125,24,29,214,99,2,0 // vbroadcastss 0x263d6(%rip),%ymm3 # 29c2c <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,13,100,2,0 // vpbroadcastd 0x2640d(%rip),%ymm3 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,226,125,88,29,205,99,2,0 // vpbroadcastd 0x263cd(%rip),%ymm3 # 29c30 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,0,100,2,0 // vbroadcastss 0x26400(%rip),%ymm3 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,226,125,24,29,192,99,2,0 // vbroadcastss 0x263c0(%rip),%ymm3 # 29c34 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,101,99,2,0 // vbroadcastss 0x26365(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,29,37,99,2,0 // vbroadcastss 0x26325(%rip),%ymm3 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
@@ -12945,23 +12945,23 @@ _sk_load_565_dst_hsw:
.byte 117,114 // jne 39b1 <_sk_load_565_dst_hsw+0x8d>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 196,226,125,88,37,13,99,2,0 // vpbroadcastd 0x2630d(%rip),%ymm4 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,226,125,88,37,205,98,2,0 // vpbroadcastd 0x262cd(%rip),%ymm4 # 29c20 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 197,205,219,228 // vpand %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,0,99,2,0 // vbroadcastss 0x26300(%rip),%ymm5 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,226,125,24,45,192,98,2,0 // vbroadcastss 0x262c0(%rip),%ymm5 # 29c24 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,247,98,2,0 // vpbroadcastd 0x262f7(%rip),%ymm5 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,226,125,88,45,183,98,2,0 // vpbroadcastd 0x262b7(%rip),%ymm5 # 29c28 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,234,98,2,0 // vbroadcastss 0x262ea(%rip),%ymm7 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,226,125,24,61,170,98,2,0 // vbroadcastss 0x262aa(%rip),%ymm7 # 29c2c <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,88,61,225,98,2,0 // vpbroadcastd 0x262e1(%rip),%ymm7 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,226,125,88,61,161,98,2,0 // vpbroadcastd 0x262a1(%rip),%ymm7 # 29c30 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,212,98,2,0 // vbroadcastss 0x262d4(%rip),%ymm7 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,226,125,24,61,148,98,2,0 // vbroadcastss 0x26294(%rip),%ymm7 # 29c34 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,57,98,2,0 // vbroadcastss 0x26239(%rip),%ymm7 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,61,249,97,2,0 // vbroadcastss 0x261f9(%rip),%ymm7 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
@@ -13057,23 +13057,23 @@ _sk_gather_565_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,85,97,2,0 // vpbroadcastd 0x26155(%rip),%ymm0 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,226,125,88,5,21,97,2,0 // vpbroadcastd 0x26115(%rip),%ymm0 # 29c20 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,72,97,2,0 // vbroadcastss 0x26148(%rip),%ymm1 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,226,125,24,13,8,97,2,0 // vbroadcastss 0x26108(%rip),%ymm1 # 29c24 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,63,97,2,0 // vpbroadcastd 0x2613f(%rip),%ymm1 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,226,125,88,13,255,96,2,0 // vpbroadcastd 0x260ff(%rip),%ymm1 # 29c28 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,50,97,2,0 // vbroadcastss 0x26132(%rip),%ymm3 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,226,125,24,29,242,96,2,0 // vbroadcastss 0x260f2(%rip),%ymm3 # 29c2c <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,41,97,2,0 // vpbroadcastd 0x26129(%rip),%ymm3 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,226,125,88,29,233,96,2,0 // vpbroadcastd 0x260e9(%rip),%ymm3 # 29c30 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,28,97,2,0 // vbroadcastss 0x2611c(%rip),%ymm3 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,226,125,24,29,220,96,2,0 // vbroadcastss 0x260dc(%rip),%ymm3 # 29c34 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,129,96,2,0 // vbroadcastss 0x26081(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,29,65,96,2,0 // vbroadcastss 0x26041(%rip),%ymm3 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -13091,11 +13091,11 @@ _sk_store_565_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,69,97,2,0 // vbroadcastss 0x26145(%rip),%ymm8 # 29cd4 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,5,5,97,2,0 // vbroadcastss 0x26105(%rip),%ymm8 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
- .byte 196,98,125,24,21,48,97,2,0 // vbroadcastss 0x26130(%rip),%ymm10 # 29cd8 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,21,240,96,2,0 // vbroadcastss 0x260f0(%rip),%ymm10 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,45,114,242,5 // vpslld $0x5,%ymm10,%ymm10
@@ -13170,25 +13170,25 @@ _sk_load_4444_hsw:
.byte 15,133,138,0,0,0 // jne 3d09 <_sk_load_4444_hsw+0xa9>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,73,96,2,0 // vpbroadcastd 0x26049(%rip),%ymm0 # 29cdc <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,226,125,88,5,9,96,2,0 // vpbroadcastd 0x26009(%rip),%ymm0 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,60,96,2,0 // vbroadcastss 0x2603c(%rip),%ymm1 # 29ce0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,226,125,24,13,252,95,2,0 // vbroadcastss 0x25ffc(%rip),%ymm1 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,51,96,2,0 // vpbroadcastd 0x26033(%rip),%ymm1 # 29ce4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,226,125,88,13,243,95,2,0 // vpbroadcastd 0x25ff3(%rip),%ymm1 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,38,96,2,0 // vbroadcastss 0x26026(%rip),%ymm2 # 29ce8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,226,125,24,21,230,95,2,0 // vbroadcastss 0x25fe6(%rip),%ymm2 # 29ca8 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,29,96,2,0 // vpbroadcastd 0x2601d(%rip),%ymm2 # 29cec <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,226,125,88,21,221,95,2,0 // vpbroadcastd 0x25fdd(%rip),%ymm2 # 29cac <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,16,96,2,0 // vbroadcastss 0x26010(%rip),%ymm8 # 29cf0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,5,208,95,2,0 // vbroadcastss 0x25fd0(%rip),%ymm8 # 29cb0 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,6,96,2,0 // vpbroadcastd 0x26006(%rip),%ymm8 # 29cf4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,88,5,198,95,2,0 // vpbroadcastd 0x25fc6(%rip),%ymm8 # 29cb4 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,248,95,2,0 // vbroadcastss 0x25ff8(%rip),%ymm8 # 29cf8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,5,184,95,2,0 // vbroadcastss 0x25fb8(%rip),%ymm8 # 29cb8 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13256,25 +13256,25 @@ _sk_load_4444_dst_hsw:
.byte 15,133,138,0,0,0 // jne 3e55 <_sk_load_4444_dst_hsw+0xa9>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 196,226,125,88,37,253,94,2,0 // vpbroadcastd 0x25efd(%rip),%ymm4 # 29cdc <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,226,125,88,37,189,94,2,0 // vpbroadcastd 0x25ebd(%rip),%ymm4 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,197,219,228 // vpand %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,240,94,2,0 // vbroadcastss 0x25ef0(%rip),%ymm5 # 29ce0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,226,125,24,45,176,94,2,0 // vbroadcastss 0x25eb0(%rip),%ymm5 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,231,94,2,0 // vpbroadcastd 0x25ee7(%rip),%ymm5 # 29ce4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,226,125,88,45,167,94,2,0 // vpbroadcastd 0x25ea7(%rip),%ymm5 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 197,197,219,237 // vpand %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,218,94,2,0 // vbroadcastss 0x25eda(%rip),%ymm6 # 29ce8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,226,125,24,53,154,94,2,0 // vbroadcastss 0x25e9a(%rip),%ymm6 # 29ca8 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,88,53,209,94,2,0 // vpbroadcastd 0x25ed1(%rip),%ymm6 # 29cec <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,226,125,88,53,145,94,2,0 // vpbroadcastd 0x25e91(%rip),%ymm6 # 29cac <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 197,197,219,246 // vpand %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,196,94,2,0 // vbroadcastss 0x25ec4(%rip),%ymm8 # 29cf0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,5,132,94,2,0 // vbroadcastss 0x25e84(%rip),%ymm8 # 29cb0 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,88,5,186,94,2,0 // vpbroadcastd 0x25eba(%rip),%ymm8 # 29cf4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,88,5,122,94,2,0 // vpbroadcastd 0x25e7a(%rip),%ymm8 # 29cb4 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,193,69,219,248 // vpand %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,172,94,2,0 // vbroadcastss 0x25eac(%rip),%ymm8 # 29cf8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,5,108,94,2,0 // vbroadcastss 0x25e6c(%rip),%ymm8 # 29cb8 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13372,25 +13372,25 @@ _sk_gather_4444_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,41,93,2,0 // vpbroadcastd 0x25d29(%rip),%ymm0 # 29cdc <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,226,125,88,5,233,92,2,0 // vpbroadcastd 0x25ce9(%rip),%ymm0 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,28,93,2,0 // vbroadcastss 0x25d1c(%rip),%ymm1 # 29ce0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,226,125,24,13,220,92,2,0 // vbroadcastss 0x25cdc(%rip),%ymm1 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,19,93,2,0 // vpbroadcastd 0x25d13(%rip),%ymm1 # 29ce4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,226,125,88,13,211,92,2,0 // vpbroadcastd 0x25cd3(%rip),%ymm1 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,6,93,2,0 // vbroadcastss 0x25d06(%rip),%ymm2 # 29ce8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,226,125,24,21,198,92,2,0 // vbroadcastss 0x25cc6(%rip),%ymm2 # 29ca8 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,253,92,2,0 // vpbroadcastd 0x25cfd(%rip),%ymm2 # 29cec <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,226,125,88,21,189,92,2,0 // vpbroadcastd 0x25cbd(%rip),%ymm2 # 29cac <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,240,92,2,0 // vbroadcastss 0x25cf0(%rip),%ymm8 # 29cf0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,5,176,92,2,0 // vbroadcastss 0x25cb0(%rip),%ymm8 # 29cb0 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,230,92,2,0 // vpbroadcastd 0x25ce6(%rip),%ymm8 # 29cf4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,88,5,166,92,2,0 // vpbroadcastd 0x25ca6(%rip),%ymm8 # 29cb4 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,216,92,2,0 // vbroadcastss 0x25cd8(%rip),%ymm8 # 29cf8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,5,152,92,2,0 // vbroadcastss 0x25c98(%rip),%ymm8 # 29cb8 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -13410,7 +13410,7 @@ _sk_store_4444_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,173,92,2,0 // vbroadcastss 0x25cad(%rip),%ymm8 # 29cfc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,5,109,92,2,0 // vbroadcastss 0x25c6d(%rip),%ymm8 # 29cbc <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
@@ -13491,14 +13491,14 @@ _sk_load_8888_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,86 // jne 419e <_sk_load_8888_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,42,86,2,0 // vpand 0x2562a(%rip),%ymm3,%ymm0 # 29780 <_sk_srcover_rgba_8888_sse2_lowp+0x3c4>
+ .byte 197,229,219,5,234,85,2,0 // vpand 0x255ea(%rip),%ymm3,%ymm0 # 29740 <_sk_srcover_rgba_8888_sse2_lowp+0x3bc>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,249,90,2,0 // vbroadcastss 0x25af9(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,5,185,90,2,0 // vbroadcastss 0x25ab9(%rip),%ymm8 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,101,0,13,47,86,2,0 // vpshufb 0x2562f(%rip),%ymm3,%ymm1 # 297a0 <_sk_srcover_rgba_8888_sse2_lowp+0x3e4>
+ .byte 196,226,101,0,13,239,85,2,0 // vpshufb 0x255ef(%rip),%ymm3,%ymm1 # 29760 <_sk_srcover_rgba_8888_sse2_lowp+0x3dc>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,101,0,21,61,86,2,0 // vpshufb 0x2563d(%rip),%ymm3,%ymm2 # 297c0 <_sk_srcover_rgba_8888_sse2_lowp+0x404>
+ .byte 196,226,101,0,21,253,85,2,0 // vpshufb 0x255fd(%rip),%ymm3,%ymm2 # 29780 <_sk_srcover_rgba_8888_sse2_lowp+0x3fc>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -13574,14 +13574,14 @@ _sk_load_8888_dst_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,86 // jne 42d2 <_sk_load_8888_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,86,85,2,0 // vpand 0x25556(%rip),%ymm7,%ymm4 # 297e0 <_sk_srcover_rgba_8888_sse2_lowp+0x424>
+ .byte 197,197,219,37,22,85,2,0 // vpand 0x25516(%rip),%ymm7,%ymm4 # 297a0 <_sk_srcover_rgba_8888_sse2_lowp+0x41c>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,197,89,2,0 // vbroadcastss 0x259c5(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,5,133,89,2,0 // vbroadcastss 0x25985(%rip),%ymm8 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 196,226,69,0,45,91,85,2,0 // vpshufb 0x2555b(%rip),%ymm7,%ymm5 # 29800 <_sk_srcover_rgba_8888_sse2_lowp+0x444>
+ .byte 196,226,69,0,45,27,85,2,0 // vpshufb 0x2551b(%rip),%ymm7,%ymm5 # 297c0 <_sk_srcover_rgba_8888_sse2_lowp+0x43c>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
.byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
- .byte 196,226,69,0,53,105,85,2,0 // vpshufb 0x25569(%rip),%ymm7,%ymm6 # 29820 <_sk_srcover_rgba_8888_sse2_lowp+0x464>
+ .byte 196,226,69,0,53,41,85,2,0 // vpshufb 0x25529(%rip),%ymm7,%ymm6 # 297e0 <_sk_srcover_rgba_8888_sse2_lowp+0x45c>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -13657,14 +13657,14 @@ _sk_gather_8888_hsw:
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 196,194,117,144,28,128 // vpgatherdd %ymm1,(%r8,%ymm0,4),%ymm3
- .byte 197,229,219,5,122,84,2,0 // vpand 0x2547a(%rip),%ymm3,%ymm0 # 29840 <_sk_srcover_rgba_8888_sse2_lowp+0x484>
+ .byte 197,229,219,5,58,84,2,0 // vpand 0x2543a(%rip),%ymm3,%ymm0 # 29800 <_sk_srcover_rgba_8888_sse2_lowp+0x47c>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,137,88,2,0 // vbroadcastss 0x25889(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,5,73,88,2,0 // vbroadcastss 0x25849(%rip),%ymm8 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,101,0,13,127,84,2,0 // vpshufb 0x2547f(%rip),%ymm3,%ymm1 # 29860 <_sk_srcover_rgba_8888_sse2_lowp+0x4a4>
+ .byte 196,226,101,0,13,63,84,2,0 // vpshufb 0x2543f(%rip),%ymm3,%ymm1 # 29820 <_sk_srcover_rgba_8888_sse2_lowp+0x49c>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,101,0,21,141,84,2,0 // vpshufb 0x2548d(%rip),%ymm3,%ymm2 # 29880 <_sk_srcover_rgba_8888_sse2_lowp+0x4c4>
+ .byte 196,226,101,0,21,77,84,2,0 // vpshufb 0x2544d(%rip),%ymm3,%ymm2 # 29840 <_sk_srcover_rgba_8888_sse2_lowp+0x4bc>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -13684,7 +13684,7 @@ _sk_store_8888_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,230,87,2,0 // vbroadcastss 0x257e6(%rip),%ymm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 196,98,125,24,5,166,87,2,0 // vbroadcastss 0x257a6(%rip),%ymm8 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -13763,14 +13763,14 @@ _sk_load_bgra_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,86 // jne 4582 <_sk_load_bgra_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,102,83,2,0 // vpand 0x25366(%rip),%ymm3,%ymm0 # 298a0 <_sk_srcover_rgba_8888_sse2_lowp+0x4e4>
+ .byte 197,229,219,5,38,83,2,0 // vpand 0x25326(%rip),%ymm3,%ymm0 # 29860 <_sk_srcover_rgba_8888_sse2_lowp+0x4dc>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,21,87,2,0 // vbroadcastss 0x25715(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,5,213,86,2,0 // vbroadcastss 0x256d5(%rip),%ymm8 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
- .byte 196,226,101,0,5,107,83,2,0 // vpshufb 0x2536b(%rip),%ymm3,%ymm0 # 298c0 <_sk_srcover_rgba_8888_sse2_lowp+0x504>
+ .byte 196,226,101,0,5,43,83,2,0 // vpshufb 0x2532b(%rip),%ymm3,%ymm0 # 29880 <_sk_srcover_rgba_8888_sse2_lowp+0x4fc>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1
- .byte 196,226,101,0,5,121,83,2,0 // vpshufb 0x25379(%rip),%ymm3,%ymm0 # 298e0 <_sk_srcover_rgba_8888_sse2_lowp+0x524>
+ .byte 196,226,101,0,5,57,83,2,0 // vpshufb 0x25339(%rip),%ymm3,%ymm0 # 298a0 <_sk_srcover_rgba_8888_sse2_lowp+0x51c>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -13846,14 +13846,14 @@ _sk_load_bgra_dst_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,86 // jne 46b6 <_sk_load_bgra_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,146,82,2,0 // vpand 0x25292(%rip),%ymm7,%ymm4 # 29900 <_sk_srcover_rgba_8888_sse2_lowp+0x544>
+ .byte 197,197,219,37,82,82,2,0 // vpand 0x25252(%rip),%ymm7,%ymm4 # 298c0 <_sk_srcover_rgba_8888_sse2_lowp+0x53c>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,225,85,2,0 // vbroadcastss 0x255e1(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,5,161,85,2,0 // vbroadcastss 0x255a1(%rip),%ymm8 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
- .byte 196,226,69,0,37,151,82,2,0 // vpshufb 0x25297(%rip),%ymm7,%ymm4 # 29920 <_sk_srcover_rgba_8888_sse2_lowp+0x564>
+ .byte 196,226,69,0,37,87,82,2,0 // vpshufb 0x25257(%rip),%ymm7,%ymm4 # 298e0 <_sk_srcover_rgba_8888_sse2_lowp+0x55c>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,232 // vmulps %ymm8,%ymm4,%ymm5
- .byte 196,226,69,0,37,165,82,2,0 // vpshufb 0x252a5(%rip),%ymm7,%ymm4 # 29940 <_sk_srcover_rgba_8888_sse2_lowp+0x584>
+ .byte 196,226,69,0,37,101,82,2,0 // vpshufb 0x25265(%rip),%ymm7,%ymm4 # 29900 <_sk_srcover_rgba_8888_sse2_lowp+0x57c>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -13929,14 +13929,14 @@ _sk_gather_bgra_hsw:
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 196,194,117,144,28,128 // vpgatherdd %ymm1,(%r8,%ymm0,4),%ymm3
- .byte 197,229,219,5,182,81,2,0 // vpand 0x251b6(%rip),%ymm3,%ymm0 # 29960 <_sk_srcover_rgba_8888_sse2_lowp+0x5a4>
+ .byte 197,229,219,5,118,81,2,0 // vpand 0x25176(%rip),%ymm3,%ymm0 # 29920 <_sk_srcover_rgba_8888_sse2_lowp+0x59c>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,165,84,2,0 // vbroadcastss 0x254a5(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,5,101,84,2,0 // vbroadcastss 0x25465(%rip),%ymm8 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
- .byte 196,226,101,0,5,187,81,2,0 // vpshufb 0x251bb(%rip),%ymm3,%ymm0 # 29980 <_sk_srcover_rgba_8888_sse2_lowp+0x5c4>
+ .byte 196,226,101,0,5,123,81,2,0 // vpshufb 0x2517b(%rip),%ymm3,%ymm0 # 29940 <_sk_srcover_rgba_8888_sse2_lowp+0x5bc>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1
- .byte 196,226,101,0,5,201,81,2,0 // vpshufb 0x251c9(%rip),%ymm3,%ymm0 # 299a0 <_sk_srcover_rgba_8888_sse2_lowp+0x5e4>
+ .byte 196,226,101,0,5,137,81,2,0 // vpshufb 0x25189(%rip),%ymm3,%ymm0 # 29960 <_sk_srcover_rgba_8888_sse2_lowp+0x5dc>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -13956,7 +13956,7 @@ _sk_store_bgra_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,2,84,2,0 // vbroadcastss 0x25402(%rip),%ymm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 196,98,125,24,5,194,83,2,0 // vbroadcastss 0x253c2(%rip),%ymm8 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -14266,7 +14266,7 @@ _sk_load_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,166,79,2,0 // vbroadcastss 0x24fa6(%rip),%ymm10 # 29c78 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,21,102,79,2,0 // vbroadcastss 0x24f66(%rip),%ymm10 # 29c38 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -14358,7 +14358,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,21,78,2,0 // vbroadcastss 0x24e15(%rip),%ymm9 # 29c78 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,13,213,77,2,0 // vbroadcastss 0x24dd5(%rip),%ymm9 # 29c38 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -14374,7 +14374,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,57,77,2,0 // vbroadcastss 0x24d39(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,29,249,76,2,0 // vbroadcastss 0x24cf9(%rip),%ymm3 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
@@ -14450,7 +14450,7 @@ _sk_store_u16_be_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,254,76,2,0 // vbroadcastss 0x24cfe(%rip),%ymm8 # 29d00 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,5,190,76,2,0 // vbroadcastss 0x24cbe(%rip),%ymm8 # 29cc0 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
@@ -14844,7 +14844,7 @@ _sk_mirror_x_hsw:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,195,69,2,0 // vmulss 0x245c3(%rip),%xmm9,%xmm0 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 197,178,89,5,131,69,2,0 // vmulss 0x24583(%rip),%xmm9,%xmm0 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -14871,7 +14871,7 @@ _sk_mirror_y_hsw:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,95,69,2,0 // vmulss 0x2455f(%rip),%xmm9,%xmm1 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 197,178,89,13,31,69,2,0 // vmulss 0x2451f(%rip),%xmm9,%xmm1 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -14893,7 +14893,7 @@ FUNCTION(_sk_clamp_x_1_hsw)
_sk_clamp_x_1_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,20,69,2,0 // vbroadcastss 0x24514(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,212,68,2,0 // vbroadcastss 0x244d4(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14911,9 +14911,9 @@ HIDDEN _sk_mirror_x_1_hsw
.globl _sk_mirror_x_1_hsw
FUNCTION(_sk_mirror_x_1_hsw)
_sk_mirror_x_1_hsw:
- .byte 196,98,125,24,5,11,69,2,0 // vbroadcastss 0x2450b(%rip),%ymm8 # 29c00 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,5,203,68,2,0 // vbroadcastss 0x244cb(%rip),%ymm8 # 29bc0 <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,225,68,2,0 // vbroadcastss 0x244e1(%rip),%ymm9 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,13,161,68,2,0 // vbroadcastss 0x244a1(%rip),%ymm9 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -14929,11 +14929,11 @@ HIDDEN _sk_luminance_to_alpha_hsw
.globl _sk_luminance_to_alpha_hsw
FUNCTION(_sk_luminance_to_alpha_hsw)
_sk_luminance_to_alpha_hsw:
- .byte 196,226,125,24,29,205,69,2,0 // vbroadcastss 0x245cd(%rip),%ymm3 # 29d04 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
- .byte 196,98,125,24,5,200,69,2,0 // vbroadcastss 0x245c8(%rip),%ymm8 # 29d08 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+ .byte 196,226,125,24,29,141,69,2,0 // vbroadcastss 0x2458d(%rip),%ymm3 # 29cc4 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,5,136,69,2,0 // vbroadcastss 0x24588(%rip),%ymm8 # 29cc8 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 196,226,125,184,203 // vfmadd231ps %ymm3,%ymm0,%ymm1
- .byte 196,226,125,24,29,185,69,2,0 // vbroadcastss 0x245b9(%rip),%ymm3 # 29d0c <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+ .byte 196,226,125,24,29,121,69,2,0 // vbroadcastss 0x24579(%rip),%ymm3 # 29ccc <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 196,226,109,168,217 // vfmadd213ps %ymm1,%ymm2,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -15205,14 +15205,14 @@ HIDDEN _sk_gauss_a_to_rgba_hsw
.globl _sk_gauss_a_to_rgba_hsw
FUNCTION(_sk_gauss_a_to_rgba_hsw)
_sk_gauss_a_to_rgba_hsw:
- .byte 196,226,125,24,5,155,65,2,0 // vbroadcastss 0x2419b(%rip),%ymm0 # 29d10 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
- .byte 196,226,125,24,13,150,65,2,0 // vbroadcastss 0x24196(%rip),%ymm1 # 29d14 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+ .byte 196,226,125,24,5,91,65,2,0 // vbroadcastss 0x2415b(%rip),%ymm0 # 29cd0 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+ .byte 196,226,125,24,13,86,65,2,0 // vbroadcastss 0x24156(%rip),%ymm1 # 29cd4 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
.byte 196,226,101,168,200 // vfmadd213ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,140,65,2,0 // vbroadcastss 0x2418c(%rip),%ymm0 # 29d18 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
+ .byte 196,226,125,24,5,76,65,2,0 // vbroadcastss 0x2414c(%rip),%ymm0 # 29cd8 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
- .byte 196,226,125,24,13,130,65,2,0 // vbroadcastss 0x24182(%rip),%ymm1 # 29d1c <_sk_srcover_rgba_8888_sse2_lowp+0x960>
+ .byte 196,226,125,24,13,66,65,2,0 // vbroadcastss 0x24142(%rip),%ymm1 # 29cdc <_sk_srcover_rgba_8888_sse2_lowp+0x958>
.byte 196,226,101,184,200 // vfmadd231ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,120,65,2,0 // vbroadcastss 0x24178(%rip),%ymm0 # 29d20 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
+ .byte 196,226,125,24,5,56,65,2,0 // vbroadcastss 0x24138(%rip),%ymm0 # 29ce0 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -15231,7 +15231,7 @@ _sk_gradient_hsw:
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,9,64,2,0 // vbroadcastss 0x24009(%rip),%ymm2 # 29bec <_sk_srcover_rgba_8888_sse2_lowp+0x830>
+ .byte 196,226,125,24,21,201,63,2,0 // vbroadcastss 0x23fc9(%rip),%ymm2 # 29bac <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
.byte 197,228,194,216,2 // vcmpleps %ymm0,%ymm3,%ymm3
@@ -15334,24 +15334,24 @@ _sk_xy_to_unit_angle_hsw:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,148,63,2,0 // vbroadcastss 0x23f94(%rip),%ymm13 # 29d24 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
- .byte 196,98,125,24,53,143,63,2,0 // vbroadcastss 0x23f8f(%rip),%ymm14 # 29d28 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
+ .byte 196,98,125,24,45,84,63,2,0 // vbroadcastss 0x23f54(%rip),%ymm13 # 29ce4 <_sk_srcover_rgba_8888_sse2_lowp+0x960>
+ .byte 196,98,125,24,53,79,63,2,0 // vbroadcastss 0x23f4f(%rip),%ymm14 # 29ce8 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
- .byte 196,98,125,24,45,133,63,2,0 // vbroadcastss 0x23f85(%rip),%ymm13 # 29d2c <_sk_srcover_rgba_8888_sse2_lowp+0x970>
+ .byte 196,98,125,24,45,69,63,2,0 // vbroadcastss 0x23f45(%rip),%ymm13 # 29cec <_sk_srcover_rgba_8888_sse2_lowp+0x968>
.byte 196,66,29,184,238 // vfmadd231ps %ymm14,%ymm12,%ymm13
- .byte 196,98,125,24,53,123,63,2,0 // vbroadcastss 0x23f7b(%rip),%ymm14 # 29d30 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 196,98,125,24,53,59,63,2,0 // vbroadcastss 0x23f3b(%rip),%ymm14 # 29cf0 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
.byte 196,65,36,89,222 // vmulps %ymm14,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,102,63,2,0 // vbroadcastss 0x23f66(%rip),%ymm10 # 29d34 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+ .byte 196,98,125,24,21,38,63,2,0 // vbroadcastss 0x23f26(%rip),%ymm10 # 29cf4 <_sk_srcover_rgba_8888_sse2_lowp+0x970>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,252,61,2,0 // vbroadcastss 0x23dfc(%rip),%ymm10 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,21,188,61,2,0 // vbroadcastss 0x23dbc(%rip),%ymm10 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,230,61,2,0 // vbroadcastss 0x23de6(%rip),%ymm10 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,21,166,61,2,0 // vbroadcastss 0x23da6(%rip),%ymm10 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -15379,23 +15379,23 @@ _sk_xy_to_2pt_conical_quadratic_max_hsw:
.byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,230,62,2,0 // vbroadcastss 0x23ee6(%rip),%ymm11 # 29d38 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,98,125,24,29,166,62,2,0 // vbroadcastss 0x23ea6(%rip),%ymm11 # 29cf8 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,197,62,2,0 // vbroadcastss 0x23ec5(%rip),%ymm9 # 29d3c <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,98,125,24,13,133,62,2,0 // vbroadcastss 0x23e85(%rip),%ymm9 # 29cfc <_sk_srcover_rgba_8888_sse2_lowp+0x978>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,168,62,2,0 // vbroadcastss 0x23ea8(%rip),%ymm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,98,125,24,13,104,62,2,0 // vbroadcastss 0x23e68(%rip),%ymm9 # 29d00 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,57,61,2,0 // vbroadcastss 0x23d39(%rip),%ymm11 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,29,249,60,2,0 // vbroadcastss 0x23cf9(%rip),%ymm11 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -15414,23 +15414,23 @@ _sk_xy_to_2pt_conical_quadratic_min_hsw:
.byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,78,62,2,0 // vbroadcastss 0x23e4e(%rip),%ymm11 # 29d38 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,98,125,24,29,14,62,2,0 // vbroadcastss 0x23e0e(%rip),%ymm11 # 29cf8 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,45,62,2,0 // vbroadcastss 0x23e2d(%rip),%ymm9 # 29d3c <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,98,125,24,13,237,61,2,0 // vbroadcastss 0x23ded(%rip),%ymm9 # 29cfc <_sk_srcover_rgba_8888_sse2_lowp+0x978>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,16,62,2,0 // vbroadcastss 0x23e10(%rip),%ymm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,98,125,24,13,208,61,2,0 // vbroadcastss 0x23dd0(%rip),%ymm9 # 29d00 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,161,60,2,0 // vbroadcastss 0x23ca1(%rip),%ymm11 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,29,97,60,2,0 // vbroadcastss 0x23c61(%rip),%ymm11 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -15448,14 +15448,14 @@ _sk_xy_to_2pt_conical_linear_hsw:
.byte 197,58,89,72,44 // vmulss 0x2c(%rax),%xmm8,%xmm9
.byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,188,61,2,0 // vbroadcastss 0x23dbc(%rip),%ymm10 # 29d38 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,98,125,24,21,124,61,2,0 // vbroadcastss 0x23d7c(%rip),%ymm10 # 29cf8 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
.byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10
.byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,159,61,2,0 // vbroadcastss 0x23d9f(%rip),%ymm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,98,125,24,5,95,61,2,0 // vbroadcastss 0x23d5f(%rip),%ymm8 # 29d00 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15495,7 +15495,7 @@ HIDDEN _sk_save_xy_hsw
FUNCTION(_sk_save_xy_hsw)
_sk_save_xy_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,223,59,2,0 // vbroadcastss 0x23bdf(%rip),%ymm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,5,159,59,2,0 // vbroadcastss 0x23b9f(%rip),%ymm8 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -15529,9 +15529,9 @@ HIDDEN _sk_bilinear_nx_hsw
FUNCTION(_sk_bilinear_nx_hsw)
_sk_bilinear_nx_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,207,60,2,0 // vbroadcastss 0x23ccf(%rip),%ymm0 # 29d44 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,24,5,143,60,2,0 // vbroadcastss 0x23c8f(%rip),%ymm0 # 29d04 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,102,59,2,0 // vbroadcastss 0x23b66(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,38,59,2,0 // vbroadcastss 0x23b26(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15542,7 +15542,7 @@ HIDDEN _sk_bilinear_px_hsw
FUNCTION(_sk_bilinear_px_hsw)
_sk_bilinear_px_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,70,59,2,0 // vbroadcastss 0x23b46(%rip),%ymm0 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,226,125,24,5,6,59,2,0 // vbroadcastss 0x23b06(%rip),%ymm0 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -15554,9 +15554,9 @@ HIDDEN _sk_bilinear_ny_hsw
FUNCTION(_sk_bilinear_ny_hsw)
_sk_bilinear_ny_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,134,60,2,0 // vbroadcastss 0x23c86(%rip),%ymm1 # 29d44 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,24,13,70,60,2,0 // vbroadcastss 0x23c46(%rip),%ymm1 # 29d04 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,28,59,2,0 // vbroadcastss 0x23b1c(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,220,58,2,0 // vbroadcastss 0x23adc(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15567,7 +15567,7 @@ HIDDEN _sk_bilinear_py_hsw
FUNCTION(_sk_bilinear_py_hsw)
_sk_bilinear_py_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,252,58,2,0 // vbroadcastss 0x23afc(%rip),%ymm1 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,226,125,24,13,188,58,2,0 // vbroadcastss 0x23abc(%rip),%ymm1 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -15579,13 +15579,13 @@ HIDDEN _sk_bicubic_n3x_hsw
FUNCTION(_sk_bicubic_n3x_hsw)
_sk_bicubic_n3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,63,60,2,0 // vbroadcastss 0x23c3f(%rip),%ymm0 # 29d48 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,226,125,24,5,255,59,2,0 // vbroadcastss 0x23bff(%rip),%ymm0 # 29d08 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,210,58,2,0 // vbroadcastss 0x23ad2(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,146,58,2,0 // vbroadcastss 0x23a92(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,47,59,2,0 // vbroadcastss 0x23b2f(%rip),%ymm10 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
- .byte 196,98,125,24,29,26,60,2,0 // vbroadcastss 0x23c1a(%rip),%ymm11 # 29d4c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,21,239,58,2,0 // vbroadcastss 0x23aef(%rip),%ymm10 # 29c18 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,24,29,218,59,2,0 // vbroadcastss 0x23bda(%rip),%ymm11 # 29d0c <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -15597,16 +15597,16 @@ HIDDEN _sk_bicubic_n1x_hsw
FUNCTION(_sk_bicubic_n1x_hsw)
_sk_bicubic_n1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,241,59,2,0 // vbroadcastss 0x23bf1(%rip),%ymm0 # 29d44 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,24,5,177,59,2,0 // vbroadcastss 0x23bb1(%rip),%ymm0 # 29d04 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,136,58,2,0 // vbroadcastss 0x23a88(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,72,58,2,0 // vbroadcastss 0x23a48(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,226,59,2,0 // vbroadcastss 0x23be2(%rip),%ymm9 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
- .byte 196,98,125,24,21,221,59,2,0 // vbroadcastss 0x23bdd(%rip),%ymm10 # 29d54 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,13,162,59,2,0 // vbroadcastss 0x23ba2(%rip),%ymm9 # 29d10 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,98,125,24,21,157,59,2,0 // vbroadcastss 0x23b9d(%rip),%ymm10 # 29d14 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,95,58,2,0 // vbroadcastss 0x23a5f(%rip),%ymm9 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,13,31,58,2,0 // vbroadcastss 0x23a1f(%rip),%ymm9 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,197,59,2,0 // vbroadcastss 0x23bc5(%rip),%ymm10 # 29d58 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,21,133,59,2,0 // vbroadcastss 0x23b85(%rip),%ymm10 # 29d18 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,128,0,0,0 // vmovups %ymm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15617,14 +15617,14 @@ HIDDEN _sk_bicubic_p1x_hsw
FUNCTION(_sk_bicubic_p1x_hsw)
_sk_bicubic_p1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,53,58,2,0 // vbroadcastss 0x23a35(%rip),%ymm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,5,245,57,2,0 // vbroadcastss 0x239f5(%rip),%ymm8 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,72,64 // vmovups 0x40(%rax),%ymm9
- .byte 196,98,125,24,21,143,59,2,0 // vbroadcastss 0x23b8f(%rip),%ymm10 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
- .byte 196,98,125,24,29,138,59,2,0 // vbroadcastss 0x23b8a(%rip),%ymm11 # 29d54 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,21,79,59,2,0 // vbroadcastss 0x23b4f(%rip),%ymm10 # 29d10 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,98,125,24,29,74,59,2,0 // vbroadcastss 0x23b4a(%rip),%ymm11 # 29d14 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,123,59,2,0 // vbroadcastss 0x23b7b(%rip),%ymm8 # 29d58 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,5,59,59,2,0 // vbroadcastss 0x23b3b(%rip),%ymm8 # 29d18 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15635,12 +15635,12 @@ HIDDEN _sk_bicubic_p3x_hsw
FUNCTION(_sk_bicubic_p3x_hsw)
_sk_bicubic_p3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,87,59,2,0 // vbroadcastss 0x23b57(%rip),%ymm0 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,226,125,24,5,23,59,2,0 // vbroadcastss 0x23b17(%rip),%ymm0 # 29d10 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,72,58,2,0 // vbroadcastss 0x23a48(%rip),%ymm10 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
- .byte 196,98,125,24,29,51,59,2,0 // vbroadcastss 0x23b33(%rip),%ymm11 # 29d4c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,21,8,58,2,0 // vbroadcastss 0x23a08(%rip),%ymm10 # 29c18 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,24,29,243,58,2,0 // vbroadcastss 0x23af3(%rip),%ymm11 # 29d0c <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -15652,13 +15652,13 @@ HIDDEN _sk_bicubic_n3y_hsw
FUNCTION(_sk_bicubic_n3y_hsw)
_sk_bicubic_n3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,14,59,2,0 // vbroadcastss 0x23b0e(%rip),%ymm1 # 29d48 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,226,125,24,13,206,58,2,0 // vbroadcastss 0x23ace(%rip),%ymm1 # 29d08 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,160,57,2,0 // vbroadcastss 0x239a0(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,96,57,2,0 // vbroadcastss 0x23960(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,253,57,2,0 // vbroadcastss 0x239fd(%rip),%ymm10 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
- .byte 196,98,125,24,29,232,58,2,0 // vbroadcastss 0x23ae8(%rip),%ymm11 # 29d4c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,21,189,57,2,0 // vbroadcastss 0x239bd(%rip),%ymm10 # 29c18 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,24,29,168,58,2,0 // vbroadcastss 0x23aa8(%rip),%ymm11 # 29d0c <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -15670,16 +15670,16 @@ HIDDEN _sk_bicubic_n1y_hsw
FUNCTION(_sk_bicubic_n1y_hsw)
_sk_bicubic_n1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,191,58,2,0 // vbroadcastss 0x23abf(%rip),%ymm1 # 29d44 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,24,13,127,58,2,0 // vbroadcastss 0x23a7f(%rip),%ymm1 # 29d04 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,85,57,2,0 // vbroadcastss 0x23955(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,21,57,2,0 // vbroadcastss 0x23915(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,175,58,2,0 // vbroadcastss 0x23aaf(%rip),%ymm9 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
- .byte 196,98,125,24,21,170,58,2,0 // vbroadcastss 0x23aaa(%rip),%ymm10 # 29d54 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,13,111,58,2,0 // vbroadcastss 0x23a6f(%rip),%ymm9 # 29d10 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,98,125,24,21,106,58,2,0 // vbroadcastss 0x23a6a(%rip),%ymm10 # 29d14 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,44,57,2,0 // vbroadcastss 0x2392c(%rip),%ymm9 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,13,236,56,2,0 // vbroadcastss 0x238ec(%rip),%ymm9 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,146,58,2,0 // vbroadcastss 0x23a92(%rip),%ymm10 # 29d58 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,21,82,58,2,0 // vbroadcastss 0x23a52(%rip),%ymm10 # 29d18 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,160,0,0,0 // vmovups %ymm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15690,14 +15690,14 @@ HIDDEN _sk_bicubic_p1y_hsw
FUNCTION(_sk_bicubic_p1y_hsw)
_sk_bicubic_p1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,2,57,2,0 // vbroadcastss 0x23902(%rip),%ymm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,5,194,56,2,0 // vbroadcastss 0x238c2(%rip),%ymm8 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 197,188,88,72,32 // vaddps 0x20(%rax),%ymm8,%ymm1
.byte 197,124,16,72,96 // vmovups 0x60(%rax),%ymm9
- .byte 196,98,125,24,21,91,58,2,0 // vbroadcastss 0x23a5b(%rip),%ymm10 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
- .byte 196,98,125,24,29,86,58,2,0 // vbroadcastss 0x23a56(%rip),%ymm11 # 29d54 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,21,27,58,2,0 // vbroadcastss 0x23a1b(%rip),%ymm10 # 29d10 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,98,125,24,29,22,58,2,0 // vbroadcastss 0x23a16(%rip),%ymm11 # 29d14 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,71,58,2,0 // vbroadcastss 0x23a47(%rip),%ymm8 # 29d58 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,5,7,58,2,0 // vbroadcastss 0x23a07(%rip),%ymm8 # 29d18 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15708,12 +15708,12 @@ HIDDEN _sk_bicubic_p3y_hsw
FUNCTION(_sk_bicubic_p3y_hsw)
_sk_bicubic_p3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,35,58,2,0 // vbroadcastss 0x23a23(%rip),%ymm1 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,226,125,24,13,227,57,2,0 // vbroadcastss 0x239e3(%rip),%ymm1 # 29d10 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,19,57,2,0 // vbroadcastss 0x23913(%rip),%ymm10 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
- .byte 196,98,125,24,29,254,57,2,0 // vbroadcastss 0x239fe(%rip),%ymm11 # 29d4c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,21,211,56,2,0 // vbroadcastss 0x238d3(%rip),%ymm10 # 29c18 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,24,29,190,57,2,0 // vbroadcastss 0x239be(%rip),%ymm11 # 29d0c <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -15853,7 +15853,7 @@ _sk_clut_3D_hsw:
.byte 196,98,93,64,218 // vpmulld %ymm2,%ymm4,%ymm11
.byte 72,139,0 // mov (%rax),%rax
.byte 197,165,254,193 // vpaddd %ymm1,%ymm11,%ymm0
- .byte 196,98,125,88,61,192,55,2,0 // vpbroadcastd 0x237c0(%rip),%ymm15 # 29d60 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,98,125,88,61,128,55,2,0 // vpbroadcastd 0x23780(%rip),%ymm15 # 29d20 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,194,125,64,199 // vpmulld %ymm15,%ymm0,%ymm0
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
@@ -15865,13 +15865,13 @@ _sk_clut_3D_hsw:
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,60,144 // vgatherdps %ymm5,(%rax,%ymm2,4),%ymm7
.byte 197,252,17,188,36,0,2,0,0 // vmovups %ymm7,0x200(%rsp)
- .byte 196,226,125,88,61,14,54,2,0 // vpbroadcastd 0x2360e(%rip),%ymm7 # 29bf4 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
+ .byte 196,226,125,88,61,206,53,2,0 // vpbroadcastd 0x235ce(%rip),%ymm7 # 29bb4 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
.byte 197,253,254,199 // vpaddd %ymm7,%ymm0,%ymm0
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,20,128 // vgatherdps %ymm5,(%rax,%ymm0,4),%ymm2
.byte 197,252,17,148,36,32,1,0,0 // vmovups %ymm2,0x120(%rsp)
- .byte 196,226,125,24,5,82,55,2,0 // vbroadcastss 0x23752(%rip),%ymm0 # 29d5c <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+ .byte 196,226,125,24,5,18,55,2,0 // vbroadcastss 0x23712(%rip),%ymm0 # 29d1c <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 197,172,88,232 // vaddps %ymm0,%ymm10,%ymm5
.byte 197,254,91,237 // vcvttps2dq %ymm5,%ymm5
.byte 196,226,93,64,213 // vpmulld %ymm5,%ymm4,%ymm2
@@ -16133,7 +16133,7 @@ _sk_clut_4D_hsw:
.byte 197,254,127,132,36,0,1,0,0 // vmovdqu %ymm0,0x100(%rsp)
.byte 196,98,109,64,200 // vpmulld %ymm0,%ymm2,%ymm9
.byte 197,181,254,199 // vpaddd %ymm7,%ymm9,%ymm0
- .byte 196,98,125,88,21,235,49,2,0 // vpbroadcastd 0x231eb(%rip),%ymm10 # 29d60 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,98,125,88,21,171,49,2,0 // vpbroadcastd 0x231ab(%rip),%ymm10 # 29d20 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -16145,13 +16145,13 @@ _sk_clut_4D_hsw:
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,98,61,146,28,168 // vgatherdps %ymm8,(%rax,%ymm5,4),%ymm11
.byte 197,124,17,156,36,192,0,0,0 // vmovups %ymm11,0xc0(%rsp)
- .byte 196,98,125,88,29,54,48,2,0 // vpbroadcastd 0x23036(%rip),%ymm11 # 29bf4 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
+ .byte 196,98,125,88,29,246,47,2,0 // vpbroadcastd 0x22ff6(%rip),%ymm11 # 29bb4 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
.byte 196,193,125,254,195 // vpaddd %ymm11,%ymm0,%ymm0
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,226,61,146,44,128 // vgatherdps %ymm8,(%rax,%ymm0,4),%ymm5
.byte 197,252,17,108,36,32 // vmovups %ymm5,0x20(%rsp)
- .byte 196,226,125,24,5,123,49,2,0 // vbroadcastss 0x2317b(%rip),%ymm0 # 29d5c <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+ .byte 196,226,125,24,5,59,49,2,0 // vbroadcastss 0x2313b(%rip),%ymm0 # 29d1c <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 197,116,88,192 // vaddps %ymm0,%ymm1,%ymm8
.byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
.byte 196,194,109,64,232 // vpmulld %ymm8,%ymm2,%ymm5
@@ -16584,7 +16584,7 @@ _sk_clut_4D_hsw:
.byte 196,193,100,92,210 // vsubps %ymm10,%ymm3,%ymm2
.byte 196,194,77,168,210 // vfmadd213ps %ymm10,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,89,38,2,0 // vbroadcastss 0x22659(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,29,25,38,2,0 // vbroadcastss 0x22619(%rip),%ymm3 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,252,16,164,36,96,6,0,0 // vmovups 0x660(%rsp),%ymm4
.byte 197,252,16,172,36,128,6,0,0 // vmovups 0x680(%rsp),%ymm5
.byte 197,252,16,180,36,160,6,0,0 // vmovups 0x6a0(%rsp),%ymm6
@@ -16664,15 +16664,15 @@ _sk_seed_shader_avx:
.byte 197,249,112,192,0 // vpshufd $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,88,5,84,35,2,0 // vaddps 0x22354(%rip),%ymm0,%ymm0 # 299c0 <_sk_srcover_rgba_8888_sse2_lowp+0x604>
+ .byte 197,252,88,5,20,35,2,0 // vaddps 0x22314(%rip),%ymm0,%ymm0 # 29980 <_sk_srcover_rgba_8888_sse2_lowp+0x5fc>
.byte 197,249,110,201 // vmovd %ecx,%xmm1
.byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,92,37,2,0 // vbroadcastss 0x2255c(%rip),%ymm2 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,226,125,24,21,28,37,2,0 // vbroadcastss 0x2251c(%rip),%ymm2 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,81,37,2,0 // vbroadcastss 0x22551(%rip),%ymm2 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,21,17,37,2,0 // vbroadcastss 0x22511(%rip),%ymm2 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -16686,46 +16686,46 @@ FUNCTION(_sk_dither_avx)
_sk_dither_avx:
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
- .byte 197,57,254,13,241,38,2,0 // vpaddd 0x226f1(%rip),%xmm8,%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
- .byte 197,57,254,5,249,38,2,0 // vpaddd 0x226f9(%rip),%xmm8,%xmm8 # 29dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
+ .byte 197,57,254,13,177,38,2,0 // vpaddd 0x226b1(%rip),%xmm8,%xmm9 # 29d70 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 197,57,254,5,185,38,2,0 // vpaddd 0x226b9(%rip),%xmm8,%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 196,67,53,24,208,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm10
.byte 197,121,110,217 // vmovd %ecx,%xmm11
.byte 196,65,121,112,219,0 // vpshufd $0x0,%xmm11,%xmm11
.byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
.byte 196,65,36,87,218 // vxorps %ymm10,%ymm11,%ymm11
- .byte 196,98,125,24,21,1,37,2,0 // vbroadcastss 0x22501(%rip),%ymm10 # 29bec <_sk_srcover_rgba_8888_sse2_lowp+0x830>
+ .byte 196,98,125,24,21,193,36,2,0 // vbroadcastss 0x224c1(%rip),%ymm10 # 29bac <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,65,36,84,210 // vandps %ymm10,%ymm11,%ymm10
.byte 196,193,25,114,242,5 // vpslld $0x5,%xmm10,%xmm12
.byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
.byte 196,193,41,114,242,5 // vpslld $0x5,%xmm10,%xmm10
.byte 196,67,29,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm12,%ymm10
- .byte 197,123,18,37,128,46,2,0 // vmovddup 0x22e80(%rip),%xmm12 # 2a590 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 197,123,18,37,64,46,2,0 // vmovddup 0x22e40(%rip),%xmm12 # 2a550 <_sk_srcover_rgba_8888_sse2_lowp+0x11cc>
.byte 196,65,49,219,236 // vpand %xmm12,%xmm9,%xmm13
.byte 196,193,17,114,245,4 // vpslld $0x4,%xmm13,%xmm13
.byte 196,65,57,219,228 // vpand %xmm12,%xmm8,%xmm12
.byte 196,193,25,114,244,4 // vpslld $0x4,%xmm12,%xmm12
.byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,191,36,2,0 // vbroadcastss 0x224bf(%rip),%ymm13 # 29bf4 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
+ .byte 196,98,125,24,45,127,36,2,0 // vbroadcastss 0x2247f(%rip),%ymm13 # 29bb4 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
.byte 196,65,36,84,237 // vandps %ymm13,%ymm11,%ymm13
.byte 196,193,9,114,245,2 // vpslld $0x2,%xmm13,%xmm14
.byte 196,67,125,25,237,1 // vextractf128 $0x1,%ymm13,%xmm13
.byte 196,193,17,114,245,2 // vpslld $0x2,%xmm13,%xmm13
.byte 196,67,13,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm14,%ymm13
- .byte 197,123,18,53,62,46,2,0 // vmovddup 0x22e3e(%rip),%xmm14 # 2a598 <_sk_srcover_rgba_8888_sse2_lowp+0x11dc>
+ .byte 197,123,18,53,254,45,2,0 // vmovddup 0x22dfe(%rip),%xmm14 # 2a558 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
.byte 196,65,49,219,254 // vpand %xmm14,%xmm9,%xmm15
.byte 196,65,1,254,255 // vpaddd %xmm15,%xmm15,%xmm15
.byte 196,65,57,219,246 // vpand %xmm14,%xmm8,%xmm14
.byte 196,65,9,254,246 // vpaddd %xmm14,%xmm14,%xmm14
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
.byte 196,65,12,86,228 // vorps %ymm12,%ymm14,%ymm12
- .byte 196,98,125,24,53,110,36,2,0 // vbroadcastss 0x2246e(%rip),%ymm14 # 29bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x834>
+ .byte 196,98,125,24,53,46,36,2,0 // vbroadcastss 0x2242e(%rip),%ymm14 # 29bb0 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
.byte 196,193,9,114,211,1 // vpsrld $0x1,%xmm11,%xmm14
.byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
.byte 196,193,33,114,211,1 // vpsrld $0x1,%xmm11,%xmm11
.byte 196,67,13,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm14,%ymm11
.byte 196,65,20,86,219 // vorps %ymm11,%ymm13,%ymm11
- .byte 197,123,18,45,244,45,2,0 // vmovddup 0x22df4(%rip),%xmm13 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 197,123,18,45,180,45,2,0 // vmovddup 0x22db4(%rip),%xmm13 # 2a560 <_sk_srcover_rgba_8888_sse2_lowp+0x11dc>
.byte 196,65,49,219,205 // vpand %xmm13,%xmm9,%xmm9
.byte 196,65,57,219,197 // vpand %xmm13,%xmm8,%xmm8
.byte 196,193,49,114,209,2 // vpsrld $0x2,%xmm9,%xmm9
@@ -16736,9 +16736,9 @@ _sk_dither_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,60,86,195 // vorps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,17,36,2,0 // vbroadcastss 0x22411(%rip),%ymm9 # 29bf8 <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
+ .byte 196,98,125,24,13,209,35,2,0 // vbroadcastss 0x223d1(%rip),%ymm9 # 29bb8 <_sk_srcover_rgba_8888_sse2_lowp+0x834>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,7,36,2,0 // vbroadcastss 0x22407(%rip),%ymm9 # 29bfc <_sk_srcover_rgba_8888_sse2_lowp+0x840>
+ .byte 196,98,125,24,13,199,35,2,0 // vbroadcastss 0x223c7(%rip),%ymm9 # 29bbc <_sk_srcover_rgba_8888_sse2_lowp+0x838>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
@@ -16772,7 +16772,7 @@ HIDDEN _sk_black_color_avx
FUNCTION(_sk_black_color_avx)
_sk_black_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,143,35,2,0 // vbroadcastss 0x2238f(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,29,79,35,2,0 // vbroadcastss 0x2234f(%rip),%ymm3 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -16783,7 +16783,7 @@ HIDDEN _sk_white_color_avx
FUNCTION(_sk_white_color_avx)
_sk_white_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,118,35,2,0 // vbroadcastss 0x22376(%rip),%ymm0 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,5,54,35,2,0 // vbroadcastss 0x22336(%rip),%ymm0 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -16829,7 +16829,7 @@ HIDDEN _sk_srcatop_avx
FUNCTION(_sk_srcatop_avx)
_sk_srcatop_avx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,21,35,2,0 // vbroadcastss 0x22315(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,213,34,2,0 // vbroadcastss 0x222d5(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -16850,7 +16850,7 @@ HIDDEN _sk_dstatop_avx
FUNCTION(_sk_dstatop_avx)
_sk_dstatop_avx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
- .byte 196,98,125,24,13,211,34,2,0 // vbroadcastss 0x222d3(%rip),%ymm9 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,13,147,34,2,0 // vbroadcastss 0x22293(%rip),%ymm9 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,52,92,207 // vsubps %ymm7,%ymm9,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -16892,7 +16892,7 @@ HIDDEN _sk_srcout_avx
.globl _sk_srcout_avx
FUNCTION(_sk_srcout_avx)
_sk_srcout_avx:
- .byte 196,98,125,24,5,110,34,2,0 // vbroadcastss 0x2226e(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,46,34,2,0 // vbroadcastss 0x2222e(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -16905,7 +16905,7 @@ HIDDEN _sk_dstout_avx
.globl _sk_dstout_avx
FUNCTION(_sk_dstout_avx)
_sk_dstout_avx:
- .byte 196,226,125,24,5,77,34,2,0 // vbroadcastss 0x2224d(%rip),%ymm0 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,5,13,34,2,0 // vbroadcastss 0x2220d(%rip),%ymm0 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -16918,7 +16918,7 @@ HIDDEN _sk_srcover_avx
.globl _sk_srcover_avx
FUNCTION(_sk_srcover_avx)
_sk_srcover_avx:
- .byte 196,98,125,24,5,44,34,2,0 // vbroadcastss 0x2222c(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,236,33,2,0 // vbroadcastss 0x221ec(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -16935,7 +16935,7 @@ HIDDEN _sk_dstover_avx
.globl _sk_dstover_avx
FUNCTION(_sk_dstover_avx)
_sk_dstover_avx:
- .byte 196,98,125,24,5,251,33,2,0 // vbroadcastss 0x221fb(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,187,33,2,0 // vbroadcastss 0x221bb(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
@@ -16963,7 +16963,7 @@ HIDDEN _sk_multiply_avx
.globl _sk_multiply_avx
FUNCTION(_sk_multiply_avx)
_sk_multiply_avx:
- .byte 196,98,125,24,5,182,33,2,0 // vbroadcastss 0x221b6(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,118,33,2,0 // vbroadcastss 0x22176(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16994,7 +16994,7 @@ HIDDEN _sk_plus__avx
FUNCTION(_sk_plus__avx)
_sk_plus__avx:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,69,33,2,0 // vbroadcastss 0x22145(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,5,33,2,0 // vbroadcastss 0x22105(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -17028,7 +17028,7 @@ HIDDEN _sk_xor__avx
.globl _sk_xor__avx
FUNCTION(_sk_xor__avx)
_sk_xor__avx:
- .byte 196,98,125,24,5,228,32,2,0 // vbroadcastss 0x220e4(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,164,32,2,0 // vbroadcastss 0x220a4(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17065,7 +17065,7 @@ _sk_darken_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,96,32,2,0 // vbroadcastss 0x22060(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,32,32,2,0 // vbroadcastss 0x22020(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -17091,7 +17091,7 @@ _sk_lighten_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,8,32,2,0 // vbroadcastss 0x22008(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,200,31,2,0 // vbroadcastss 0x21fc8(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -17120,7 +17120,7 @@ _sk_difference_avx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,164,31,2,0 // vbroadcastss 0x21fa4(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,100,31,2,0 // vbroadcastss 0x21f64(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -17143,7 +17143,7 @@ _sk_exclusion_avx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,91,31,2,0 // vbroadcastss 0x21f5b(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,27,31,2,0 // vbroadcastss 0x21f1b(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -17154,7 +17154,7 @@ HIDDEN _sk_colorburn_avx
.globl _sk_colorburn_avx
FUNCTION(_sk_colorburn_avx)
_sk_colorburn_avx:
- .byte 196,98,125,24,5,66,31,2,0 // vbroadcastss 0x21f42(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,2,31,2,0 // vbroadcastss 0x21f02(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -17216,7 +17216,7 @@ HIDDEN _sk_colordodge_avx
FUNCTION(_sk_colordodge_avx)
_sk_colordodge_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,70,30,2,0 // vbroadcastss 0x21e46(%rip),%ymm9 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,13,6,30,2,0 // vbroadcastss 0x21e06(%rip),%ymm9 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -17273,7 +17273,7 @@ HIDDEN _sk_hardlight_avx
.globl _sk_hardlight_avx
FUNCTION(_sk_hardlight_avx)
_sk_hardlight_avx:
- .byte 196,98,125,24,5,81,29,2,0 // vbroadcastss 0x21d51(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,17,29,2,0 // vbroadcastss 0x21d11(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17328,7 +17328,7 @@ HIDDEN _sk_overlay_avx
.globl _sk_overlay_avx
FUNCTION(_sk_overlay_avx)
_sk_overlay_avx:
- .byte 196,98,125,24,5,118,28,2,0 // vbroadcastss 0x21c76(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,54,28,2,0 // vbroadcastss 0x21c36(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17394,10 +17394,10 @@ _sk_softlight_avx:
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,65,60,89,216 // vmulps %ymm8,%ymm8,%ymm11
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,29,125,27,2,0 // vbroadcastss 0x21b7d(%rip),%ymm11 # 29c00 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,29,61,27,2,0 // vbroadcastss 0x21b3d(%rip),%ymm11 # 29bc0 <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
.byte 196,65,28,88,235 // vaddps %ymm11,%ymm12,%ymm13
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,110,27,2,0 // vbroadcastss 0x21b6e(%rip),%ymm13 # 29c04 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,45,46,27,2,0 // vbroadcastss 0x21b2e(%rip),%ymm13 # 29bc4 <_sk_srcover_rgba_8888_sse2_lowp+0x840>
.byte 196,65,28,89,245 // vmulps %ymm13,%ymm12,%ymm14
.byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8
.byte 196,65,124,82,244 // vrsqrtps %ymm12,%ymm14
@@ -17408,7 +17408,7 @@ _sk_softlight_avx:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,24,27,2,0 // vbroadcastss 0x21b18(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,216,26,2,0 // vbroadcastss 0x21ad8(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,65,60,92,228 // vsubps %ymm12,%ymm8,%ymm12
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
@@ -17535,12 +17535,12 @@ _sk_hue_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,251,24,2,0 // vbroadcastss 0x218fb(%rip),%ymm14 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+ .byte 196,98,125,24,53,187,24,2,0 // vbroadcastss 0x218bb(%rip),%ymm14 # 29bc8 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,241,24,2,0 // vbroadcastss 0x218f1(%rip),%ymm15 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ .byte 196,98,125,24,61,177,24,2,0 // vbroadcastss 0x218b1(%rip),%ymm15 # 29bcc <_sk_srcover_rgba_8888_sse2_lowp+0x848>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,226,24,2,0 // vbroadcastss 0x218e2(%rip),%ymm0 # 29c10 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+ .byte 196,226,125,24,5,162,24,2,0 // vbroadcastss 0x218a2(%rip),%ymm0 # 29bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -17601,7 +17601,7 @@ _sk_hue_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,143,23,2,0 // vbroadcastss 0x2178f(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,79,23,2,0 // vbroadcastss 0x2174f(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17658,12 +17658,12 @@ _sk_saturation_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,185,22,2,0 // vbroadcastss 0x216b9(%rip),%ymm14 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+ .byte 196,98,125,24,53,121,22,2,0 // vbroadcastss 0x21679(%rip),%ymm14 # 29bc8 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,175,22,2,0 // vbroadcastss 0x216af(%rip),%ymm15 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ .byte 196,98,125,24,61,111,22,2,0 // vbroadcastss 0x2166f(%rip),%ymm15 # 29bcc <_sk_srcover_rgba_8888_sse2_lowp+0x848>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,160,22,2,0 // vbroadcastss 0x216a0(%rip),%ymm0 # 29c10 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+ .byte 196,226,125,24,5,96,22,2,0 // vbroadcastss 0x21660(%rip),%ymm0 # 29bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -17724,7 +17724,7 @@ _sk_saturation_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,77,21,2,0 // vbroadcastss 0x2154d(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,13,21,2,0 // vbroadcastss 0x2150d(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17753,12 +17753,12 @@ _sk_color_avx:
.byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp)
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
- .byte 196,98,125,24,45,255,20,2,0 // vbroadcastss 0x214ff(%rip),%ymm13 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+ .byte 196,98,125,24,45,191,20,2,0 // vbroadcastss 0x214bf(%rip),%ymm13 # 29bc8 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
.byte 196,65,92,89,213 // vmulps %ymm13,%ymm4,%ymm10
- .byte 196,98,125,24,53,245,20,2,0 // vbroadcastss 0x214f5(%rip),%ymm14 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ .byte 196,98,125,24,53,181,20,2,0 // vbroadcastss 0x214b5(%rip),%ymm14 # 29bcc <_sk_srcover_rgba_8888_sse2_lowp+0x848>
.byte 196,65,84,89,222 // vmulps %ymm14,%ymm5,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,230,20,2,0 // vbroadcastss 0x214e6(%rip),%ymm15 # 29c10 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+ .byte 196,98,125,24,61,166,20,2,0 // vbroadcastss 0x214a6(%rip),%ymm15 # 29bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
.byte 196,65,76,89,223 // vmulps %ymm15,%ymm6,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -17821,7 +17821,7 @@ _sk_color_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,129,19,2,0 // vbroadcastss 0x21381(%rip),%ymm0 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,5,65,19,2,0 // vbroadcastss 0x21341(%rip),%ymm0 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,84,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -17851,12 +17851,12 @@ _sk_luminosity_avx:
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,98,125,24,45,47,19,2,0 // vbroadcastss 0x2132f(%rip),%ymm13 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+ .byte 196,98,125,24,45,239,18,2,0 // vbroadcastss 0x212ef(%rip),%ymm13 # 29bc8 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
.byte 196,65,108,89,213 // vmulps %ymm13,%ymm2,%ymm10
- .byte 196,98,125,24,53,37,19,2,0 // vbroadcastss 0x21325(%rip),%ymm14 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ .byte 196,98,125,24,53,229,18,2,0 // vbroadcastss 0x212e5(%rip),%ymm14 # 29bcc <_sk_srcover_rgba_8888_sse2_lowp+0x848>
.byte 196,65,116,89,222 // vmulps %ymm14,%ymm1,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,22,19,2,0 // vbroadcastss 0x21316(%rip),%ymm15 # 29c10 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+ .byte 196,98,125,24,61,214,18,2,0 // vbroadcastss 0x212d6(%rip),%ymm15 # 29bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
.byte 196,65,28,89,223 // vmulps %ymm15,%ymm12,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -17919,7 +17919,7 @@ _sk_luminosity_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,177,17,2,0 // vbroadcastss 0x211b1(%rip),%ymm0 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,5,113,17,2,0 // vbroadcastss 0x21171(%rip),%ymm0 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -17953,7 +17953,7 @@ _sk_srcover_rgba_8888_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 15,133,42,1,0,0 // jne 8bcc <_sk_srcover_rgba_8888_avx+0x14a>
.byte 196,1,125,16,4,152 // vmovupd (%r8,%r11,4),%ymm8
- .byte 197,125,40,13,48,15,2,0 // vmovapd 0x20f30(%rip),%ymm9 # 299e0 <_sk_srcover_rgba_8888_sse2_lowp+0x624>
+ .byte 197,125,40,13,240,14,2,0 // vmovapd 0x20ef0(%rip),%ymm9 # 299a0 <_sk_srcover_rgba_8888_sse2_lowp+0x61c>
.byte 196,193,61,84,225 // vandpd %ymm9,%ymm8,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,81,114,208,8 // vpsrld $0x8,%xmm8,%xmm5
@@ -17971,9 +17971,9 @@ _sk_srcover_rgba_8888_avx:
.byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
.byte 196,227,61,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm8,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,215,16,2,0 // vbroadcastss 0x210d7(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,151,16,2,0 // vbroadcastss 0x21097(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,246,16,2,0 // vbroadcastss 0x210f6(%rip),%ymm9 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 196,98,125,24,13,182,16,2,0 // vbroadcastss 0x210b6(%rip),%ymm9 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,60,89,212 // vmulps %ymm4,%ymm8,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
@@ -18115,7 +18115,7 @@ HIDDEN _sk_clamp_1_avx
.globl _sk_clamp_1_avx
FUNCTION(_sk_clamp_1_avx)
_sk_clamp_1_avx:
- .byte 196,98,125,24,5,150,14,2,0 // vbroadcastss 0x20e96(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,86,14,2,0 // vbroadcastss 0x20e56(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -18127,7 +18127,7 @@ HIDDEN _sk_clamp_a_avx
.globl _sk_clamp_a_avx
FUNCTION(_sk_clamp_a_avx)
_sk_clamp_a_avx:
- .byte 196,98,125,24,5,117,14,2,0 // vbroadcastss 0x20e75(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,53,14,2,0 // vbroadcastss 0x20e35(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -18139,7 +18139,7 @@ HIDDEN _sk_clamp_a_dst_avx
.globl _sk_clamp_a_dst_avx
FUNCTION(_sk_clamp_a_dst_avx)
_sk_clamp_a_dst_avx:
- .byte 196,98,125,24,5,87,14,2,0 // vbroadcastss 0x20e57(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,23,14,2,0 // vbroadcastss 0x20e17(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -18172,7 +18172,7 @@ HIDDEN _sk_invert_avx
.globl _sk_invert_avx
FUNCTION(_sk_invert_avx)
_sk_invert_avx:
- .byte 196,98,125,24,5,18,14,2,0 // vbroadcastss 0x20e12(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,210,13,2,0 // vbroadcastss 0x20dd2(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -18228,7 +18228,7 @@ FUNCTION(_sk_unpremul_avx)
_sk_unpremul_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,65,100,194,200,0 // vcmpeqps %ymm8,%ymm3,%ymm9
- .byte 196,98,125,24,21,162,13,2,0 // vbroadcastss 0x20da2(%rip),%ymm10 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,21,98,13,2,0 // vbroadcastss 0x20d62(%rip),%ymm10 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,44,94,211 // vdivps %ymm3,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
@@ -18241,17 +18241,17 @@ HIDDEN _sk_from_srgb_avx
.globl _sk_from_srgb_avx
FUNCTION(_sk_from_srgb_avx)
_sk_from_srgb_avx:
- .byte 196,98,125,24,5,175,13,2,0 // vbroadcastss 0x20daf(%rip),%ymm8 # 29c18 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
+ .byte 196,98,125,24,5,111,13,2,0 // vbroadcastss 0x20d6f(%rip),%ymm8 # 29bd8 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,141,13,2,0 // vbroadcastss 0x20d8d(%rip),%ymm11 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+ .byte 196,98,125,24,29,77,13,2,0 // vbroadcastss 0x20d4d(%rip),%ymm11 # 29bc8 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
.byte 196,65,124,89,227 // vmulps %ymm11,%ymm0,%ymm12
- .byte 196,98,125,24,45,147,13,2,0 // vbroadcastss 0x20d93(%rip),%ymm13 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x860>
+ .byte 196,98,125,24,45,83,13,2,0 // vbroadcastss 0x20d53(%rip),%ymm13 # 29bdc <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,132,13,2,0 // vbroadcastss 0x20d84(%rip),%ymm12 # 29c20 <_sk_srcover_rgba_8888_sse2_lowp+0x864>
+ .byte 196,98,125,24,37,68,13,2,0 // vbroadcastss 0x20d44(%rip),%ymm12 # 29be0 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,122,13,2,0 // vbroadcastss 0x20d7a(%rip),%ymm14 # 29c24 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+ .byte 196,98,125,24,53,58,13,2,0 // vbroadcastss 0x20d3a(%rip),%ymm14 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x860>
.byte 196,193,124,194,198,1 // vcmpltps %ymm14,%ymm0,%ymm0
.byte 196,195,45,74,193,0 // vblendvps %ymm0,%ymm9,%ymm10,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -18277,17 +18277,17 @@ HIDDEN _sk_from_srgb_dst_avx
.globl _sk_from_srgb_dst_avx
FUNCTION(_sk_from_srgb_dst_avx)
_sk_from_srgb_dst_avx:
- .byte 196,98,125,24,5,3,13,2,0 // vbroadcastss 0x20d03(%rip),%ymm8 # 29c18 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
+ .byte 196,98,125,24,5,195,12,2,0 // vbroadcastss 0x20cc3(%rip),%ymm8 # 29bd8 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,225,12,2,0 // vbroadcastss 0x20ce1(%rip),%ymm11 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+ .byte 196,98,125,24,29,161,12,2,0 // vbroadcastss 0x20ca1(%rip),%ymm11 # 29bc8 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
.byte 196,65,92,89,227 // vmulps %ymm11,%ymm4,%ymm12
- .byte 196,98,125,24,45,231,12,2,0 // vbroadcastss 0x20ce7(%rip),%ymm13 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x860>
+ .byte 196,98,125,24,45,167,12,2,0 // vbroadcastss 0x20ca7(%rip),%ymm13 # 29bdc <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,216,12,2,0 // vbroadcastss 0x20cd8(%rip),%ymm12 # 29c20 <_sk_srcover_rgba_8888_sse2_lowp+0x864>
+ .byte 196,98,125,24,37,152,12,2,0 // vbroadcastss 0x20c98(%rip),%ymm12 # 29be0 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,206,12,2,0 // vbroadcastss 0x20cce(%rip),%ymm14 # 29c24 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+ .byte 196,98,125,24,53,142,12,2,0 // vbroadcastss 0x20c8e(%rip),%ymm14 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x860>
.byte 196,193,92,194,230,1 // vcmpltps %ymm14,%ymm4,%ymm4
.byte 196,195,45,74,225,64 // vblendvps %ymm4,%ymm9,%ymm10,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -18314,20 +18314,20 @@ HIDDEN _sk_to_srgb_avx
FUNCTION(_sk_to_srgb_avx)
_sk_to_srgb_avx:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,99,12,2,0 // vbroadcastss 0x20c63(%rip),%ymm8 # 29c28 <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
+ .byte 196,98,125,24,5,35,12,2,0 // vbroadcastss 0x20c23(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x864>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,93,12,2,0 // vbroadcastss 0x20c5d(%rip),%ymm11 # 29c30 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+ .byte 196,98,125,24,29,29,12,2,0 // vbroadcastss 0x20c1d(%rip),%ymm11 # 29bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
.byte 196,65,52,89,227 // vmulps %ymm11,%ymm9,%ymm12
- .byte 196,98,125,24,45,75,12,2,0 // vbroadcastss 0x20c4b(%rip),%ymm13 # 29c2c <_sk_srcover_rgba_8888_sse2_lowp+0x870>
+ .byte 196,98,125,24,45,11,12,2,0 // vbroadcastss 0x20c0b(%rip),%ymm13 # 29bec <_sk_srcover_rgba_8888_sse2_lowp+0x868>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,52,89,228 // vmulps %ymm12,%ymm9,%ymm12
- .byte 196,98,125,24,53,64,12,2,0 // vbroadcastss 0x20c40(%rip),%ymm14 # 29c34 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,53,0,12,2,0 // vbroadcastss 0x20c00(%rip),%ymm14 # 29bf4 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
.byte 196,65,28,88,230 // vaddps %ymm14,%ymm12,%ymm12
- .byte 196,98,125,24,61,54,12,2,0 // vbroadcastss 0x20c36(%rip),%ymm15 # 29c38 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,61,246,11,2,0 // vbroadcastss 0x20bf6(%rip),%ymm15 # 29bf8 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
- .byte 196,98,125,24,37,34,12,2,0 // vbroadcastss 0x20c22(%rip),%ymm12 # 29c3c <_sk_srcover_rgba_8888_sse2_lowp+0x880>
+ .byte 196,98,125,24,37,226,11,2,0 // vbroadcastss 0x20be2(%rip),%ymm12 # 29bfc <_sk_srcover_rgba_8888_sse2_lowp+0x878>
.byte 196,193,124,194,196,1 // vcmpltps %ymm12,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -18364,7 +18364,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,46,11,2,0 // vbroadcastss 0x20b2e(%rip),%ymm11 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,29,238,10,2,0 // vbroadcastss 0x20aee(%rip),%ymm11 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
@@ -18374,19 +18374,19 @@ _sk_rgb_to_hsl_avx:
.byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
.byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,91,11,2,0 // vbroadcastss 0x20b5b(%rip),%ymm11 # 29c48 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,29,27,11,2,0 // vbroadcastss 0x20b1b(%rip),%ymm11 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,73,11,2,0 // vbroadcastss 0x20b49(%rip),%ymm11 # 29c44 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,29,9,11,2,0 // vbroadcastss 0x20b09(%rip),%ymm11 # 29c04 <_sk_srcover_rgba_8888_sse2_lowp+0x880>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,227,117,74,202,224 // vblendvps %ymm14,%ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,49,11,2,0 // vbroadcastss 0x20b31(%rip),%ymm2 # 29c40 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,226,125,24,21,241,10,2,0 // vbroadcastss 0x20af1(%rip),%ymm2 # 29c00 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
.byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
.byte 196,227,13,74,210,208 // vblendvps %ymm13,%ymm2,%ymm14,%ymm2
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
.byte 196,227,117,74,194,0 // vblendvps %ymm0,%ymm2,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,37,172,10,2,0 // vbroadcastss 0x20aac(%rip),%ymm12 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,37,108,10,2,0 // vbroadcastss 0x20a6c(%rip),%ymm12 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2
.byte 197,28,194,226,1 // vcmpltps %ymm2,%ymm12,%ymm12
.byte 196,65,36,92,216 // vsubps %ymm8,%ymm11,%ymm11
@@ -18396,7 +18396,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,198,128 // vblendvps %ymm8,%ymm14,%ymm0,%ymm0
.byte 196,195,117,74,206,128 // vblendvps %ymm8,%ymm14,%ymm1,%ymm1
- .byte 196,98,125,24,5,219,10,2,0 // vbroadcastss 0x20adb(%rip),%ymm8 # 29c4c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,98,125,24,5,155,10,2,0 // vbroadcastss 0x20a9b(%rip),%ymm8 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18413,7 +18413,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 196,98,125,24,5,56,10,2,0 // vbroadcastss 0x20a38(%rip),%ymm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,5,248,9,2,0 // vbroadcastss 0x209f8(%rip),%ymm8 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,92,89,210 // vmulps %ymm2,%ymm4,%ymm10
.byte 196,65,92,92,218 // vsubps %ymm10,%ymm4,%ymm11
@@ -18421,23 +18421,23 @@ _sk_hsl_to_rgb_avx:
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
.byte 197,108,88,202 // vaddps %ymm2,%ymm2,%ymm9
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,122,10,2,0 // vbroadcastss 0x20a7a(%rip),%ymm11 # 29c50 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,24,29,58,10,2,0 // vbroadcastss 0x20a3a(%rip),%ymm11 # 29c10 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,65,100,88,219 // vaddps %ymm11,%ymm3,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,37,76,10,2,0 // vbroadcastss 0x20a4c(%rip),%ymm12 # 29c40 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,37,12,10,2,0 // vbroadcastss 0x20a0c(%rip),%ymm12 # 29c00 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
.byte 196,193,4,89,196 // vmulps %ymm12,%ymm15,%ymm0
- .byte 196,98,125,24,45,70,10,2,0 // vbroadcastss 0x20a46(%rip),%ymm13 # 29c48 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,45,6,10,2,0 // vbroadcastss 0x20a06(%rip),%ymm13 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,20,92,240 // vsubps %ymm0,%ymm13,%ymm14
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14
- .byte 196,226,125,24,13,59,10,2,0 // vbroadcastss 0x20a3b(%rip),%ymm1 # 29c54 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 196,226,125,24,13,251,9,2,0 // vbroadcastss 0x209fb(%rip),%ymm1 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x890>
.byte 196,193,116,194,255,2 // vcmpleps %ymm15,%ymm1,%ymm7
.byte 196,195,13,74,249,112 // vblendvps %ymm7,%ymm9,%ymm14,%ymm7
.byte 196,65,60,194,247,2 // vcmpleps %ymm15,%ymm8,%ymm14
.byte 196,227,45,74,255,224 // vblendvps %ymm14,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,53,18,10,2,0 // vbroadcastss 0x20a12(%rip),%ymm14 # 29c4c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,98,125,24,53,210,9,2,0 // vbroadcastss 0x209d2(%rip),%ymm14 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,12,194,255,2 // vcmpleps %ymm15,%ymm14,%ymm15
.byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -18456,7 +18456,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,164,89,247 // vmulps %ymm7,%ymm11,%ymm6
.byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6
.byte 196,227,77,74,237,0 // vblendvps %ymm0,%ymm5,%ymm6,%ymm5
- .byte 196,226,125,24,5,188,9,2,0 // vbroadcastss 0x209bc(%rip),%ymm0 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,226,125,24,5,124,9,2,0 // vbroadcastss 0x2097c(%rip),%ymm0 # 29c18 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
.byte 197,228,88,192 // vaddps %ymm0,%ymm3,%ymm0
.byte 196,227,125,8,216,1 // vroundps $0x1,%ymm0,%ymm3
.byte 197,252,92,195 // vsubps %ymm3,%ymm0,%ymm0
@@ -18512,13 +18512,13 @@ _sk_scale_u8_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,75 // jne 93a2 <_sk_scale_u8_avx+0x63>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,27,10,2,0 // vpand 0x20a1b(%rip),%xmm8,%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 197,57,219,5,219,9,2,0 // vpand 0x209db(%rip),%xmm8,%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,211,8,2,0 // vbroadcastss 0x208d3(%rip),%ymm9 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,13,147,8,2,0 // vbroadcastss 0x20893(%rip),%ymm9 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -18567,7 +18567,7 @@ _sk_scale_u8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00944c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0090>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00944c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe00c8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -18596,20 +18596,20 @@ _sk_scale_565_avx:
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,196,7,2,0 // vbroadcastss 0x207c4(%rip),%ymm9 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,24,13,132,7,2,0 // vbroadcastss 0x20784(%rip),%ymm9 # 29c20 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,181,7,2,0 // vbroadcastss 0x207b5(%rip),%ymm10 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,21,117,7,2,0 // vbroadcastss 0x20775(%rip),%ymm10 # 29c24 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,171,7,2,0 // vbroadcastss 0x207ab(%rip),%ymm10 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,21,107,7,2,0 // vbroadcastss 0x2076b(%rip),%ymm10 # 29c28 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,156,7,2,0 // vbroadcastss 0x2079c(%rip),%ymm11 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,29,92,7,2,0 // vbroadcastss 0x2075c(%rip),%ymm11 # 29c2c <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,146,7,2,0 // vbroadcastss 0x20792(%rip),%ymm11 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,29,82,7,2,0 // vbroadcastss 0x20752(%rip),%ymm11 # 29c30 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,131,7,2,0 // vbroadcastss 0x20783(%rip),%ymm11 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,29,67,7,2,0 // vbroadcastss 0x20743(%rip),%ymm11 # 29c34 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -18702,13 +18702,13 @@ _sk_lerp_u8_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,111 // jne 9692 <_sk_lerp_u8_avx+0x87>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,79,7,2,0 // vpand 0x2074f(%rip),%xmm8,%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 197,57,219,5,15,7,2,0 // vpand 0x2070f(%rip),%xmm8,%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,7,6,2,0 // vbroadcastss 0x20607(%rip),%ymm9 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,13,199,5,2,0 // vbroadcastss 0x205c7(%rip),%ymm9 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
@@ -18764,7 +18764,7 @@ _sk_lerp_u8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde009740 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfe0384>
+ .byte 232,255,255,255,221 // callq ffffffffde009740 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfe03bc>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -18793,20 +18793,20 @@ _sk_lerp_565_avx:
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,208,4,2,0 // vbroadcastss 0x204d0(%rip),%ymm9 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,24,13,144,4,2,0 // vbroadcastss 0x20490(%rip),%ymm9 # 29c20 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,193,4,2,0 // vbroadcastss 0x204c1(%rip),%ymm10 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,21,129,4,2,0 // vbroadcastss 0x20481(%rip),%ymm10 # 29c24 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,183,4,2,0 // vbroadcastss 0x204b7(%rip),%ymm10 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,21,119,4,2,0 // vbroadcastss 0x20477(%rip),%ymm10 # 29c28 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,168,4,2,0 // vbroadcastss 0x204a8(%rip),%ymm11 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,29,104,4,2,0 // vbroadcastss 0x20468(%rip),%ymm11 # 29c2c <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,158,4,2,0 // vbroadcastss 0x2049e(%rip),%ymm11 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,29,94,4,2,0 // vbroadcastss 0x2045e(%rip),%ymm11 # 29c30 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,143,4,2,0 // vbroadcastss 0x2048f(%rip),%ymm11 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,29,79,4,2,0 // vbroadcastss 0x2044f(%rip),%ymm11 # 29c34 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -18883,7 +18883,7 @@ _sk_load_tables_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 15,133,4,2,0,0 // jne 9afc <_sk_load_tables_avx+0x218>
.byte 196,65,125,16,20,144 // vmovupd (%r8,%rdx,4),%ymm10
- .byte 197,125,40,13,250,0,2,0 // vmovapd 0x200fa(%rip),%ymm9 # 29a00 <_sk_srcover_rgba_8888_sse2_lowp+0x644>
+ .byte 197,125,40,13,186,0,2,0 // vmovapd 0x200ba(%rip),%ymm9 # 299c0 <_sk_srcover_rgba_8888_sse2_lowp+0x63c>
.byte 196,193,45,84,201 // vandpd %ymm9,%ymm10,%ymm1
.byte 196,227,125,25,200,1 // vextractf128 $0x1,%ymm1,%xmm0
.byte 196,193,249,126,192 // vmovq %xmm0,%r8
@@ -18975,7 +18975,7 @@ _sk_load_tables_avx:
.byte 196,193,65,114,213,24 // vpsrld $0x18,%xmm13,%xmm7
.byte 196,227,101,24,223,1 // vinsertf128 $0x1,%xmm7,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,61,110,1,2,0 // vbroadcastss 0x2016e(%rip),%ymm7 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,226,125,24,61,46,1,2,0 // vbroadcastss 0x2012e(%rip),%ymm7 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
@@ -19061,7 +19061,7 @@ _sk_load_tables_u16_be_avx:
.byte 197,177,108,208 // vpunpcklqdq %xmm0,%xmm9,%xmm2
.byte 197,49,109,232 // vpunpckhqdq %xmm0,%xmm9,%xmm13
.byte 196,65,57,108,212 // vpunpcklqdq %xmm12,%xmm8,%xmm10
- .byte 197,121,111,29,60,1,2,0 // vmovdqa 0x2013c(%rip),%xmm11 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 197,121,111,29,252,0,2,0 // vmovdqa 0x200fc(%rip),%xmm11 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 196,193,105,219,195 // vpand %xmm11,%xmm2,%xmm0
.byte 197,249,112,208,78 // vpshufd $0x4e,%xmm0,%xmm2
.byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
@@ -19155,7 +19155,7 @@ _sk_load_tables_u16_be_avx:
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
.byte 196,227,77,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm6,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,53,79,254,1,0 // vbroadcastss 0x1fe4f(%rip),%ymm6 # 29c78 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,226,125,24,53,15,254,1,0 // vbroadcastss 0x1fe0f(%rip),%ymm6 # 29c38 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 197,228,89,222 // vmulps %ymm6,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
@@ -19219,7 +19219,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 197,105,108,216 // vpunpcklqdq %xmm0,%xmm2,%xmm11
.byte 197,241,108,211 // vpunpcklqdq %xmm3,%xmm1,%xmm2
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,121,111,53,60,254,1,0 // vmovdqa 0x1fe3c(%rip),%xmm14 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 197,121,111,53,252,253,1,0 // vmovdqa 0x1fdfc(%rip),%xmm14 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 196,193,105,219,214 // vpand %xmm14,%xmm2,%xmm2
.byte 197,249,112,218,78 // vpshufd $0x4e,%xmm2,%xmm3
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
@@ -19305,7 +19305,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,233,250,1,0 // vbroadcastss 0x1fae9(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,29,169,250,1,0 // vbroadcastss 0x1faa9(%rip),%ymm3 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
.byte 255,224 // jmpq *%rax
@@ -19376,7 +19376,7 @@ HIDDEN _sk_byte_tables_avx
FUNCTION(_sk_byte_tables_avx)
_sk_byte_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,210,249,1,0 // vbroadcastss 0x1f9d2(%rip),%ymm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 196,98,125,24,5,146,249,1,0 // vbroadcastss 0x1f992(%rip),%ymm8 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,200 // vmovq %xmm9,%r8
@@ -19511,7 +19511,7 @@ _sk_byte_tables_avx:
.byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1
.byte 196,194,121,49,213 // vpmovzxbd %xmm13,%xmm2
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 196,98,125,24,13,138,247,1,0 // vbroadcastss 0x1f78a(%rip),%ymm9 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,13,74,247,1,0 // vbroadcastss 0x1f74a(%rip),%ymm9 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -19639,7 +19639,7 @@ _sk_byte_tables_rgb_avx:
.byte 196,194,121,49,203 // vpmovzxbd %xmm11,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,63,245,1,0 // vbroadcastss 0x1f53f(%rip),%ymm9 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,13,255,244,1,0 // vbroadcastss 0x1f4ff(%rip),%ymm9 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,121,49,202 // vpmovzxbd %xmm10,%xmm1
.byte 196,194,121,49,212 // vpmovzxbd %xmm12,%xmm2
@@ -19876,36 +19876,36 @@ _sk_parametric_r_avx:
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,216 // vcvtdq2ps %ymm0,%ymm11
- .byte 196,98,125,24,37,208,241,1,0 // vbroadcastss 0x1f1d0(%rip),%ymm12 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,37,144,241,1,0 // vbroadcastss 0x1f190(%rip),%ymm12 # 29c3c <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,198,241,1,0 // vbroadcastss 0x1f1c6(%rip),%ymm12 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,37,134,241,1,0 // vbroadcastss 0x1f186(%rip),%ymm12 # 29c40 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,193,124,84,196 // vandps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,28,241,1,0 // vbroadcastss 0x1f11c(%rip),%ymm12 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,37,220,240,1,0 // vbroadcastss 0x1f0dc(%rip),%ymm12 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,193,124,86,196 // vorps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,174,241,1,0 // vbroadcastss 0x1f1ae(%rip),%ymm12 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,37,110,241,1,0 // vbroadcastss 0x1f16e(%rip),%ymm12 # 29c44 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,164,241,1,0 // vbroadcastss 0x1f1a4(%rip),%ymm12 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,37,100,241,1,0 // vbroadcastss 0x1f164(%rip),%ymm12 # 29c48 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,149,241,1,0 // vbroadcastss 0x1f195(%rip),%ymm12 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,24,37,85,241,1,0 // vbroadcastss 0x1f155(%rip),%ymm12 # 29c4c <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,139,241,1,0 // vbroadcastss 0x1f18b(%rip),%ymm12 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,37,75,241,1,0 // vbroadcastss 0x1f14b(%rip),%ymm12 # 29c50 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 197,156,94,192 // vdivps %ymm0,%ymm12,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,111,241,1,0 // vbroadcastss 0x1f16f(%rip),%ymm11 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,29,47,241,1,0 // vbroadcastss 0x1f12f(%rip),%ymm11 # 29c54 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,101,241,1,0 // vbroadcastss 0x1f165(%rip),%ymm11 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,29,37,241,1,0 // vbroadcastss 0x1f125(%rip),%ymm11 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,124,92,195 // vsubps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,86,241,1,0 // vbroadcastss 0x1f156(%rip),%ymm11 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,29,22,241,1,0 // vbroadcastss 0x1f116(%rip),%ymm11 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,76,241,1,0 // vbroadcastss 0x1f14c(%rip),%ymm11 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,29,12,241,1,0 // vbroadcastss 0x1f10c(%rip),%ymm11 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,61,241,1,0 // vbroadcastss 0x1f13d(%rip),%ymm10 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,21,253,240,1,0 // vbroadcastss 0x1f0fd(%rip),%ymm10 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19913,7 +19913,7 @@ _sk_parametric_r_avx:
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,85,240,1,0 // vbroadcastss 0x1f055(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,21,240,1,0 // vbroadcastss 0x1f015(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19935,36 +19935,36 @@ _sk_parametric_g_avx:
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,217 // vcvtdq2ps %ymm1,%ymm11
- .byte 196,98,125,24,37,150,240,1,0 // vbroadcastss 0x1f096(%rip),%ymm12 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,37,86,240,1,0 // vbroadcastss 0x1f056(%rip),%ymm12 # 29c3c <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,140,240,1,0 // vbroadcastss 0x1f08c(%rip),%ymm12 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,37,76,240,1,0 // vbroadcastss 0x1f04c(%rip),%ymm12 # 29c40 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,193,116,84,204 // vandps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,226,239,1,0 // vbroadcastss 0x1efe2(%rip),%ymm12 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,37,162,239,1,0 // vbroadcastss 0x1efa2(%rip),%ymm12 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,193,116,86,204 // vorps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,116,240,1,0 // vbroadcastss 0x1f074(%rip),%ymm12 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,37,52,240,1,0 // vbroadcastss 0x1f034(%rip),%ymm12 # 29c44 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,106,240,1,0 // vbroadcastss 0x1f06a(%rip),%ymm12 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,37,42,240,1,0 // vbroadcastss 0x1f02a(%rip),%ymm12 # 29c48 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,65,116,89,228 // vmulps %ymm12,%ymm1,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,91,240,1,0 // vbroadcastss 0x1f05b(%rip),%ymm12 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,24,37,27,240,1,0 // vbroadcastss 0x1f01b(%rip),%ymm12 # 29c4c <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,193,116,88,204 // vaddps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,81,240,1,0 // vbroadcastss 0x1f051(%rip),%ymm12 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,37,17,240,1,0 // vbroadcastss 0x1f011(%rip),%ymm12 # 29c50 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 197,156,94,201 // vdivps %ymm1,%ymm12,%ymm1
.byte 197,164,92,201 // vsubps %ymm1,%ymm11,%ymm1
.byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,53,240,1,0 // vbroadcastss 0x1f035(%rip),%ymm11 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,29,245,239,1,0 // vbroadcastss 0x1eff5(%rip),%ymm11 # 29c54 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,43,240,1,0 // vbroadcastss 0x1f02b(%rip),%ymm11 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,29,235,239,1,0 // vbroadcastss 0x1efeb(%rip),%ymm11 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,116,92,203 // vsubps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,28,240,1,0 // vbroadcastss 0x1f01c(%rip),%ymm11 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,29,220,239,1,0 // vbroadcastss 0x1efdc(%rip),%ymm11 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,18,240,1,0 // vbroadcastss 0x1f012(%rip),%ymm11 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,29,210,239,1,0 // vbroadcastss 0x1efd2(%rip),%ymm11 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,3,240,1,0 // vbroadcastss 0x1f003(%rip),%ymm10 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,21,195,239,1,0 // vbroadcastss 0x1efc3(%rip),%ymm10 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19972,7 +19972,7 @@ _sk_parametric_g_avx:
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,5,27,239,1,0 // vbroadcastss 0x1ef1b(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,219,238,1,0 // vbroadcastss 0x1eedb(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19994,36 +19994,36 @@ _sk_parametric_b_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,218 // vcvtdq2ps %ymm2,%ymm11
- .byte 196,98,125,24,37,92,239,1,0 // vbroadcastss 0x1ef5c(%rip),%ymm12 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,37,28,239,1,0 // vbroadcastss 0x1ef1c(%rip),%ymm12 # 29c3c <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,82,239,1,0 // vbroadcastss 0x1ef52(%rip),%ymm12 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,37,18,239,1,0 // vbroadcastss 0x1ef12(%rip),%ymm12 # 29c40 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,193,108,84,212 // vandps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,168,238,1,0 // vbroadcastss 0x1eea8(%rip),%ymm12 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,37,104,238,1,0 // vbroadcastss 0x1ee68(%rip),%ymm12 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,193,108,86,212 // vorps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,58,239,1,0 // vbroadcastss 0x1ef3a(%rip),%ymm12 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,37,250,238,1,0 // vbroadcastss 0x1eefa(%rip),%ymm12 # 29c44 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,48,239,1,0 // vbroadcastss 0x1ef30(%rip),%ymm12 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,37,240,238,1,0 // vbroadcastss 0x1eef0(%rip),%ymm12 # 29c48 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,65,108,89,228 // vmulps %ymm12,%ymm2,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,33,239,1,0 // vbroadcastss 0x1ef21(%rip),%ymm12 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,24,37,225,238,1,0 // vbroadcastss 0x1eee1(%rip),%ymm12 # 29c4c <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,23,239,1,0 // vbroadcastss 0x1ef17(%rip),%ymm12 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,37,215,238,1,0 // vbroadcastss 0x1eed7(%rip),%ymm12 # 29c50 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 197,156,94,210 // vdivps %ymm2,%ymm12,%ymm2
.byte 197,164,92,210 // vsubps %ymm2,%ymm11,%ymm2
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,251,238,1,0 // vbroadcastss 0x1eefb(%rip),%ymm11 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,29,187,238,1,0 // vbroadcastss 0x1eebb(%rip),%ymm11 # 29c54 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,241,238,1,0 // vbroadcastss 0x1eef1(%rip),%ymm11 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,29,177,238,1,0 // vbroadcastss 0x1eeb1(%rip),%ymm11 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,108,92,211 // vsubps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,226,238,1,0 // vbroadcastss 0x1eee2(%rip),%ymm11 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,29,162,238,1,0 // vbroadcastss 0x1eea2(%rip),%ymm11 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,216,238,1,0 // vbroadcastss 0x1eed8(%rip),%ymm11 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,29,152,238,1,0 // vbroadcastss 0x1ee98(%rip),%ymm11 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,201,238,1,0 // vbroadcastss 0x1eec9(%rip),%ymm10 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,21,137,238,1,0 // vbroadcastss 0x1ee89(%rip),%ymm10 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -20031,7 +20031,7 @@ _sk_parametric_b_avx:
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,225,237,1,0 // vbroadcastss 0x1ede1(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,161,237,1,0 // vbroadcastss 0x1eda1(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20053,36 +20053,36 @@ _sk_parametric_a_avx:
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,219 // vcvtdq2ps %ymm3,%ymm11
- .byte 196,98,125,24,37,34,238,1,0 // vbroadcastss 0x1ee22(%rip),%ymm12 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,37,226,237,1,0 // vbroadcastss 0x1ede2(%rip),%ymm12 # 29c3c <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,24,238,1,0 // vbroadcastss 0x1ee18(%rip),%ymm12 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,37,216,237,1,0 // vbroadcastss 0x1edd8(%rip),%ymm12 # 29c40 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,193,100,84,220 // vandps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,110,237,1,0 // vbroadcastss 0x1ed6e(%rip),%ymm12 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,37,46,237,1,0 // vbroadcastss 0x1ed2e(%rip),%ymm12 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,193,100,86,220 // vorps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,0,238,1,0 // vbroadcastss 0x1ee00(%rip),%ymm12 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,37,192,237,1,0 // vbroadcastss 0x1edc0(%rip),%ymm12 # 29c44 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,246,237,1,0 // vbroadcastss 0x1edf6(%rip),%ymm12 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,37,182,237,1,0 // vbroadcastss 0x1edb6(%rip),%ymm12 # 29c48 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,65,100,89,228 // vmulps %ymm12,%ymm3,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,231,237,1,0 // vbroadcastss 0x1ede7(%rip),%ymm12 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,24,37,167,237,1,0 // vbroadcastss 0x1eda7(%rip),%ymm12 # 29c4c <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,193,100,88,220 // vaddps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,221,237,1,0 // vbroadcastss 0x1eddd(%rip),%ymm12 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,37,157,237,1,0 // vbroadcastss 0x1ed9d(%rip),%ymm12 # 29c50 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 197,156,94,219 // vdivps %ymm3,%ymm12,%ymm3
.byte 197,164,92,219 // vsubps %ymm3,%ymm11,%ymm3
.byte 197,172,89,219 // vmulps %ymm3,%ymm10,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,193,237,1,0 // vbroadcastss 0x1edc1(%rip),%ymm11 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,29,129,237,1,0 // vbroadcastss 0x1ed81(%rip),%ymm11 # 29c54 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,183,237,1,0 // vbroadcastss 0x1edb7(%rip),%ymm11 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,29,119,237,1,0 // vbroadcastss 0x1ed77(%rip),%ymm11 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,100,92,219 // vsubps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,168,237,1,0 // vbroadcastss 0x1eda8(%rip),%ymm11 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,29,104,237,1,0 // vbroadcastss 0x1ed68(%rip),%ymm11 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,158,237,1,0 // vbroadcastss 0x1ed9e(%rip),%ymm11 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,29,94,237,1,0 // vbroadcastss 0x1ed5e(%rip),%ymm11 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,143,237,1,0 // vbroadcastss 0x1ed8f(%rip),%ymm10 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,21,79,237,1,0 // vbroadcastss 0x1ed4f(%rip),%ymm10 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -20090,7 +20090,7 @@ _sk_parametric_a_avx:
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 196,98,125,24,5,167,236,1,0 // vbroadcastss 0x1eca7(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,103,236,1,0 // vbroadcastss 0x1ec67(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20109,34 +20109,34 @@ _sk_gamma_avx:
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,91,200 // vcvtdq2ps %ymm0,%ymm1
- .byte 196,98,125,24,5,250,236,1,0 // vbroadcastss 0x1ecfa(%rip),%ymm8 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,5,186,236,1,0 // vbroadcastss 0x1ecba(%rip),%ymm8 # 29c3c <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,240,236,1,0 // vbroadcastss 0x1ecf0(%rip),%ymm9 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,13,176,236,1,0 // vbroadcastss 0x1ecb0(%rip),%ymm9 # 29c40 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
- .byte 196,226,125,24,37,70,236,1,0 // vbroadcastss 0x1ec46(%rip),%ymm4 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,226,125,24,37,6,236,1,0 // vbroadcastss 0x1ec06(%rip),%ymm4 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 197,252,86,196 // vorps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,21,217,236,1,0 // vbroadcastss 0x1ecd9(%rip),%ymm10 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,21,153,236,1,0 // vbroadcastss 0x1ec99(%rip),%ymm10 # 29c44 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,29,207,236,1,0 // vbroadcastss 0x1eccf(%rip),%ymm11 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,29,143,236,1,0 // vbroadcastss 0x1ec8f(%rip),%ymm11 # 29c48 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,193,124,89,211 // vmulps %ymm11,%ymm0,%ymm2
.byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1
- .byte 196,98,125,24,37,193,236,1,0 // vbroadcastss 0x1ecc1(%rip),%ymm12 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,24,37,129,236,1,0 // vbroadcastss 0x1ec81(%rip),%ymm12 # 29c4c <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,45,183,236,1,0 // vbroadcastss 0x1ecb7(%rip),%ymm13 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,45,119,236,1,0 // vbroadcastss 0x1ec77(%rip),%ymm13 # 29c50 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 197,148,94,192 // vdivps %ymm0,%ymm13,%ymm0
.byte 197,244,92,192 // vsubps %ymm0,%ymm1,%ymm0
.byte 196,98,125,24,48 // vbroadcastss (%rax),%ymm14
.byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
.byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1
.byte 197,252,92,241 // vsubps %ymm1,%ymm0,%ymm6
- .byte 196,98,125,24,61,150,236,1,0 // vbroadcastss 0x1ec96(%rip),%ymm15 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,61,86,236,1,0 // vbroadcastss 0x1ec56(%rip),%ymm15 # 29c54 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 196,226,125,24,29,140,236,1,0 // vbroadcastss 0x1ec8c(%rip),%ymm3 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,226,125,24,29,76,236,1,0 // vbroadcastss 0x1ec4c(%rip),%ymm3 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 197,204,89,203 // vmulps %ymm3,%ymm6,%ymm1
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 196,226,125,24,21,127,236,1,0 // vbroadcastss 0x1ec7f(%rip),%ymm2 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,226,125,24,21,63,236,1,0 // vbroadcastss 0x1ec3f(%rip),%ymm2 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 197,236,92,198 // vsubps %ymm6,%ymm2,%ymm0
- .byte 196,226,125,24,53,118,236,1,0 // vbroadcastss 0x1ec76(%rip),%ymm6 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,226,125,24,53,54,236,1,0 // vbroadcastss 0x1ec36(%rip),%ymm6 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 197,204,94,192 // vdivps %ymm0,%ymm6,%ymm0
.byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
@@ -20178,7 +20178,7 @@ _sk_gamma_avx:
.byte 197,236,92,212 // vsubps %ymm4,%ymm2,%ymm2
.byte 197,204,94,210 // vdivps %ymm2,%ymm6,%ymm2
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,185,235,1,0 // vbroadcastss 0x1ebb9(%rip),%ymm2 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,226,125,24,21,121,235,1,0 // vbroadcastss 0x1eb79(%rip),%ymm2 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 197,236,89,92,36,128 // vmulps -0x80(%rsp),%ymm2,%ymm3
.byte 197,252,89,226 // vmulps %ymm2,%ymm0,%ymm4
.byte 197,244,89,210 // vmulps %ymm2,%ymm1,%ymm2
@@ -20198,31 +20198,31 @@ HIDDEN _sk_lab_to_xyz_avx
.globl _sk_lab_to_xyz_avx
FUNCTION(_sk_lab_to_xyz_avx)
_sk_lab_to_xyz_avx:
- .byte 196,98,125,24,5,117,235,1,0 // vbroadcastss 0x1eb75(%rip),%ymm8 # 29ca8 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,5,53,235,1,0 // vbroadcastss 0x1eb35(%rip),%ymm8 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,211,234,1,0 // vbroadcastss 0x1ead3(%rip),%ymm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 196,98,125,24,5,147,234,1,0 // vbroadcastss 0x1ea93(%rip),%ymm8 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,93,235,1,0 // vbroadcastss 0x1eb5d(%rip),%ymm9 # 29cac <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,13,29,235,1,0 // vbroadcastss 0x1eb1d(%rip),%ymm9 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2
- .byte 196,98,125,24,5,73,235,1,0 // vbroadcastss 0x1eb49(%rip),%ymm8 # 29cb0 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,5,9,235,1,0 // vbroadcastss 0x1eb09(%rip),%ymm8 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,63,235,1,0 // vbroadcastss 0x1eb3f(%rip),%ymm8 # 29cb4 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,5,255,234,1,0 // vbroadcastss 0x1eaff(%rip),%ymm8 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,53,235,1,0 // vbroadcastss 0x1eb35(%rip),%ymm8 # 29cb8 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,5,245,234,1,0 // vbroadcastss 0x1eaf5(%rip),%ymm8 # 29c78 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 197,252,88,201 // vaddps %ymm1,%ymm0,%ymm1
- .byte 196,98,125,24,5,39,235,1,0 // vbroadcastss 0x1eb27(%rip),%ymm8 # 29cbc <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,5,231,234,1,0 // vbroadcastss 0x1eae7(%rip),%ymm8 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,252,92,210 // vsubps %ymm2,%ymm0,%ymm2
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,16,235,1,0 // vbroadcastss 0x1eb10(%rip),%ymm9 # 29cc0 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,24,13,208,234,1,0 // vbroadcastss 0x1ead0(%rip),%ymm9 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,65,52,194,208,1 // vcmpltps %ymm8,%ymm9,%ymm10
- .byte 196,98,125,24,29,5,235,1,0 // vbroadcastss 0x1eb05(%rip),%ymm11 # 29cc4 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,98,125,24,29,197,234,1,0 // vbroadcastss 0x1eac5(%rip),%ymm11 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,251,234,1,0 // vbroadcastss 0x1eafb(%rip),%ymm12 # 29cc8 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,98,125,24,37,187,234,1,0 // vbroadcastss 0x1eabb(%rip),%ymm12 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -20237,9 +20237,9 @@ _sk_lab_to_xyz_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 196,226,125,24,5,177,234,1,0 // vbroadcastss 0x1eab1(%rip),%ymm0 # 29ccc <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,226,125,24,5,113,234,1,0 // vbroadcastss 0x1ea71(%rip),%ymm0 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,168,234,1,0 // vbroadcastss 0x1eaa8(%rip),%ymm8 # 29cd0 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,98,125,24,5,104,234,1,0 // vbroadcastss 0x1ea68(%rip),%ymm8 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20257,13 +20257,13 @@ _sk_load_a8_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,68 // jne b28d <_sk_load_a8_avx+0x5c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,41,235,1,0 // vpand 0x1eb29(%rip),%xmm0,%xmm0 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 197,249,219,5,233,234,1,0 // vpand 0x1eae9(%rip),%xmm0,%xmm0 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,227,233,1,0 // vbroadcastss 0x1e9e3(%rip),%ymm1 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,226,125,24,13,163,233,1,0 // vbroadcastss 0x1e9a3(%rip),%ymm1 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -20311,7 +20311,7 @@ _sk_load_a8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00b334 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe1f78>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00b334 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe1fb0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -20335,13 +20335,13 @@ _sk_load_a8_dst_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,68 // jne b39c <_sk_load_a8_dst_avx+0x5c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,26,234,1,0 // vpand 0x1ea1a(%rip),%xmm4,%xmm4 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 197,217,219,37,218,233,1,0 // vpand 0x1e9da(%rip),%xmm4,%xmm4 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,212,232,1,0 // vbroadcastss 0x1e8d4(%rip),%ymm5 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,226,125,24,45,148,232,1,0 // vbroadcastss 0x1e894(%rip),%ymm5 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -20389,7 +20389,7 @@ _sk_load_a8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00b444 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfe2088>
+ .byte 232,255,255,255,221 // callq ffffffffde00b444 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfe20c0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -20453,7 +20453,7 @@ _sk_gather_a8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,44,231,1,0 // vbroadcastss 0x1e72c(%rip),%ymm1 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,226,125,24,13,236,230,1,0 // vbroadcastss 0x1e6ec(%rip),%ymm1 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -20476,7 +20476,7 @@ _sk_store_a8_avx:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,172,230,1,0 // vbroadcastss 0x1e6ac(%rip),%ymm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 196,98,125,24,5,108,230,1,0 // vbroadcastss 0x1e66c(%rip),%ymm8 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -20501,13 +20501,13 @@ _sk_store_a8_avx:
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
.byte 235,202 // jmp b58c <_sk_store_a8_avx+0x40>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,189,231,1,0 // vpshufb 0x1e7bd(%rip),%xmm8,%xmm8 # 29d90 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+ .byte 196,98,57,0,5,125,231,1,0 // vpshufb 0x1e77d(%rip),%xmm8,%xmm8 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
.byte 235,176 // jmp b58c <_sk_store_a8_avx+0x40>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,163,231,1,0 // vpshufb 0x1e7a3(%rip),%xmm8,%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,57,0,5,99,231,1,0 // vpshufb 0x1e763(%rip),%xmm8,%xmm8 # 29d60 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
.byte 235,135 // jmp b58c <_sk_store_a8_avx+0x40>
.byte 15,31,0 // nopl (%rax)
@@ -20544,16 +20544,16 @@ _sk_load_g8_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,73 // jne b685 <_sk_load_g8_avx+0x61>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,54,231,1,0 // vpand 0x1e736(%rip),%xmm0,%xmm0 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 197,249,219,5,246,230,1,0 // vpand 0x1e6f6(%rip),%xmm0,%xmm0 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,240,229,1,0 // vbroadcastss 0x1e5f0(%rip),%ymm1 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,226,125,24,13,176,229,1,0 // vbroadcastss 0x1e5b0(%rip),%ymm1 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,109,229,1,0 // vbroadcastss 0x1e56d(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,29,45,229,1,0 // vbroadcastss 0x1e52d(%rip),%ymm3 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -20598,7 +20598,7 @@ _sk_load_g8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00b72c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe2370>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00b72c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe23a8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -20622,16 +20622,16 @@ _sk_load_g8_dst_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,73 // jne b799 <_sk_load_g8_dst_avx+0x61>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,34,230,1,0 // vpand 0x1e622(%rip),%xmm4,%xmm4 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 197,217,219,37,226,229,1,0 // vpand 0x1e5e2(%rip),%xmm4,%xmm4 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,220,228,1,0 // vbroadcastss 0x1e4dc(%rip),%ymm5 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,226,125,24,45,156,228,1,0 // vbroadcastss 0x1e49c(%rip),%ymm5 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,89,228,1,0 // vbroadcastss 0x1e459(%rip),%ymm7 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,61,25,228,1,0 // vbroadcastss 0x1e419(%rip),%ymm7 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -20676,7 +20676,7 @@ _sk_load_g8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00b840 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe2484>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00b840 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe24bc>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -20740,10 +20740,10 @@ _sk_gather_g8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,48,227,1,0 // vbroadcastss 0x1e330(%rip),%ymm1 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,226,125,24,13,240,226,1,0 // vbroadcastss 0x1e2f0(%rip),%ymm1 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,173,226,1,0 // vbroadcastss 0x1e2ad(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,29,109,226,1,0 // vbroadcastss 0x1e26d(%rip),%ymm3 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -20771,23 +20771,23 @@ _sk_load_565_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,208,226,1,0 // vbroadcastss 0x1e2d0(%rip),%ymm0 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,226,125,24,5,144,226,1,0 // vbroadcastss 0x1e290(%rip),%ymm0 # 29c20 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,195,226,1,0 // vbroadcastss 0x1e2c3(%rip),%ymm1 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,226,125,24,13,131,226,1,0 // vbroadcastss 0x1e283(%rip),%ymm1 # 29c24 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,186,226,1,0 // vbroadcastss 0x1e2ba(%rip),%ymm1 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,226,125,24,13,122,226,1,0 // vbroadcastss 0x1e27a(%rip),%ymm1 # 29c28 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,173,226,1,0 // vbroadcastss 0x1e2ad(%rip),%ymm3 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,226,125,24,29,109,226,1,0 // vbroadcastss 0x1e26d(%rip),%ymm3 # 29c2c <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,164,226,1,0 // vbroadcastss 0x1e2a4(%rip),%ymm3 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,226,125,24,29,100,226,1,0 // vbroadcastss 0x1e264(%rip),%ymm3 # 29c30 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,151,226,1,0 // vbroadcastss 0x1e297(%rip),%ymm3 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,226,125,24,29,87,226,1,0 // vbroadcastss 0x1e257(%rip),%ymm3 # 29c34 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,252,225,1,0 // vbroadcastss 0x1e1fc(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,29,188,225,1,0 // vbroadcastss 0x1e1bc(%rip),%ymm3 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
@@ -20853,23 +20853,23 @@ _sk_load_565_dst_avx:
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,244,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm6
- .byte 196,226,125,24,37,141,225,1,0 // vbroadcastss 0x1e18d(%rip),%ymm4 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,226,125,24,37,77,225,1,0 // vbroadcastss 0x1e14d(%rip),%ymm4 # 29c20 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 197,204,84,228 // vandps %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,128,225,1,0 // vbroadcastss 0x1e180(%rip),%ymm5 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,226,125,24,45,64,225,1,0 // vbroadcastss 0x1e140(%rip),%ymm5 # 29c24 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,119,225,1,0 // vbroadcastss 0x1e177(%rip),%ymm5 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,226,125,24,45,55,225,1,0 // vbroadcastss 0x1e137(%rip),%ymm5 # 29c28 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 197,204,84,237 // vandps %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,106,225,1,0 // vbroadcastss 0x1e16a(%rip),%ymm7 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,226,125,24,61,42,225,1,0 // vbroadcastss 0x1e12a(%rip),%ymm7 # 29c2c <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,24,61,97,225,1,0 // vbroadcastss 0x1e161(%rip),%ymm7 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,226,125,24,61,33,225,1,0 // vbroadcastss 0x1e121(%rip),%ymm7 # 29c30 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 197,204,84,247 // vandps %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,84,225,1,0 // vbroadcastss 0x1e154(%rip),%ymm7 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,226,125,24,61,20,225,1,0 // vbroadcastss 0x1e114(%rip),%ymm7 # 29c34 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,185,224,1,0 // vbroadcastss 0x1e0b9(%rip),%ymm7 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,61,121,224,1,0 // vbroadcastss 0x1e079(%rip),%ymm7 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
@@ -20973,23 +20973,23 @@ _sk_gather_565_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,175,223,1,0 // vbroadcastss 0x1dfaf(%rip),%ymm0 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,226,125,24,5,111,223,1,0 // vbroadcastss 0x1df6f(%rip),%ymm0 # 29c20 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,162,223,1,0 // vbroadcastss 0x1dfa2(%rip),%ymm1 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,226,125,24,13,98,223,1,0 // vbroadcastss 0x1df62(%rip),%ymm1 # 29c24 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,153,223,1,0 // vbroadcastss 0x1df99(%rip),%ymm1 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,226,125,24,13,89,223,1,0 // vbroadcastss 0x1df59(%rip),%ymm1 # 29c28 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,140,223,1,0 // vbroadcastss 0x1df8c(%rip),%ymm3 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,226,125,24,29,76,223,1,0 // vbroadcastss 0x1df4c(%rip),%ymm3 # 29c2c <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,131,223,1,0 // vbroadcastss 0x1df83(%rip),%ymm3 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,226,125,24,29,67,223,1,0 // vbroadcastss 0x1df43(%rip),%ymm3 # 29c30 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,118,223,1,0 // vbroadcastss 0x1df76(%rip),%ymm3 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,226,125,24,29,54,223,1,0 // vbroadcastss 0x1df36(%rip),%ymm3 # 29c34 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,219,222,1,0 // vbroadcastss 0x1dedb(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,29,155,222,1,0 // vbroadcastss 0x1de9b(%rip),%ymm3 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -21008,14 +21008,14 @@ _sk_store_565_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,158,223,1,0 // vbroadcastss 0x1df9e(%rip),%ymm8 # 29cd4 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,5,94,223,1,0 // vbroadcastss 0x1df5e(%rip),%ymm8 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,41,114,241,11 // vpslld $0xb,%xmm9,%xmm10
.byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9
.byte 196,193,49,114,241,11 // vpslld $0xb,%xmm9,%xmm9
.byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 196,98,125,24,21,119,223,1,0 // vbroadcastss 0x1df77(%rip),%ymm10 # 29cd8 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,21,55,223,1,0 // vbroadcastss 0x1df37(%rip),%ymm10 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,33,114,242,5 // vpslld $0x5,%xmm10,%xmm11
@@ -21094,25 +21094,25 @@ _sk_load_4444_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,109,222,1,0 // vbroadcastss 0x1de6d(%rip),%ymm0 # 29cdc <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,226,125,24,5,45,222,1,0 // vbroadcastss 0x1de2d(%rip),%ymm0 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,96,222,1,0 // vbroadcastss 0x1de60(%rip),%ymm1 # 29ce0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,226,125,24,13,32,222,1,0 // vbroadcastss 0x1de20(%rip),%ymm1 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,87,222,1,0 // vbroadcastss 0x1de57(%rip),%ymm1 # 29ce4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,226,125,24,13,23,222,1,0 // vbroadcastss 0x1de17(%rip),%ymm1 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,74,222,1,0 // vbroadcastss 0x1de4a(%rip),%ymm2 # 29ce8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,226,125,24,21,10,222,1,0 // vbroadcastss 0x1de0a(%rip),%ymm2 # 29ca8 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,65,222,1,0 // vbroadcastss 0x1de41(%rip),%ymm2 # 29cec <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,226,125,24,21,1,222,1,0 // vbroadcastss 0x1de01(%rip),%ymm2 # 29cac <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,52,222,1,0 // vbroadcastss 0x1de34(%rip),%ymm8 # 29cf0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,5,244,221,1,0 // vbroadcastss 0x1ddf4(%rip),%ymm8 # 29cb0 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,42,222,1,0 // vbroadcastss 0x1de2a(%rip),%ymm8 # 29cf4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,5,234,221,1,0 // vbroadcastss 0x1ddea(%rip),%ymm8 # 29cb4 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,28,222,1,0 // vbroadcastss 0x1de1c(%rip),%ymm8 # 29cf8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,5,220,221,1,0 // vbroadcastss 0x1dddc(%rip),%ymm8 # 29cb8 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21183,25 +21183,25 @@ _sk_load_4444_dst_avx:
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,252,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm7
- .byte 196,226,125,24,37,17,221,1,0 // vbroadcastss 0x1dd11(%rip),%ymm4 # 29cdc <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,226,125,24,37,209,220,1,0 // vbroadcastss 0x1dcd1(%rip),%ymm4 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,196,84,228 // vandps %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,4,221,1,0 // vbroadcastss 0x1dd04(%rip),%ymm5 # 29ce0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,226,125,24,45,196,220,1,0 // vbroadcastss 0x1dcc4(%rip),%ymm5 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,251,220,1,0 // vbroadcastss 0x1dcfb(%rip),%ymm5 # 29ce4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,226,125,24,45,187,220,1,0 // vbroadcastss 0x1dcbb(%rip),%ymm5 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 197,196,84,237 // vandps %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,238,220,1,0 // vbroadcastss 0x1dcee(%rip),%ymm6 # 29ce8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,226,125,24,53,174,220,1,0 // vbroadcastss 0x1dcae(%rip),%ymm6 # 29ca8 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,24,53,229,220,1,0 // vbroadcastss 0x1dce5(%rip),%ymm6 # 29cec <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,226,125,24,53,165,220,1,0 // vbroadcastss 0x1dca5(%rip),%ymm6 # 29cac <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 197,196,84,246 // vandps %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,216,220,1,0 // vbroadcastss 0x1dcd8(%rip),%ymm8 # 29cf0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,5,152,220,1,0 // vbroadcastss 0x1dc98(%rip),%ymm8 # 29cb0 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,24,5,206,220,1,0 // vbroadcastss 0x1dcce(%rip),%ymm8 # 29cf4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,5,142,220,1,0 // vbroadcastss 0x1dc8e(%rip),%ymm8 # 29cb4 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,193,68,84,248 // vandps %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,192,220,1,0 // vbroadcastss 0x1dcc0(%rip),%ymm8 # 29cf8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,5,128,220,1,0 // vbroadcastss 0x1dc80(%rip),%ymm8 # 29cb8 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21307,25 +21307,25 @@ _sk_gather_4444_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,27,219,1,0 // vbroadcastss 0x1db1b(%rip),%ymm0 # 29cdc <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,226,125,24,5,219,218,1,0 // vbroadcastss 0x1dadb(%rip),%ymm0 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,14,219,1,0 // vbroadcastss 0x1db0e(%rip),%ymm1 # 29ce0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,226,125,24,13,206,218,1,0 // vbroadcastss 0x1dace(%rip),%ymm1 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,5,219,1,0 // vbroadcastss 0x1db05(%rip),%ymm1 # 29ce4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,226,125,24,13,197,218,1,0 // vbroadcastss 0x1dac5(%rip),%ymm1 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,248,218,1,0 // vbroadcastss 0x1daf8(%rip),%ymm2 # 29ce8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,226,125,24,21,184,218,1,0 // vbroadcastss 0x1dab8(%rip),%ymm2 # 29ca8 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,239,218,1,0 // vbroadcastss 0x1daef(%rip),%ymm2 # 29cec <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,226,125,24,21,175,218,1,0 // vbroadcastss 0x1daaf(%rip),%ymm2 # 29cac <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,226,218,1,0 // vbroadcastss 0x1dae2(%rip),%ymm8 # 29cf0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,5,162,218,1,0 // vbroadcastss 0x1daa2(%rip),%ymm8 # 29cb0 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,216,218,1,0 // vbroadcastss 0x1dad8(%rip),%ymm8 # 29cf4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,5,152,218,1,0 // vbroadcastss 0x1da98(%rip),%ymm8 # 29cb4 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,202,218,1,0 // vbroadcastss 0x1daca(%rip),%ymm8 # 29cf8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,5,138,218,1,0 // vbroadcastss 0x1da8a(%rip),%ymm8 # 29cb8 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -21346,7 +21346,7 @@ _sk_store_4444_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,158,218,1,0 // vbroadcastss 0x1da9e(%rip),%ymm8 # 29cfc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,5,94,218,1,0 // vbroadcastss 0x1da5e(%rip),%ymm8 # 29cbc <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,41,114,241,12 // vpslld $0xc,%xmm9,%xmm10
@@ -21414,7 +21414,7 @@ _sk_store_4444_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe100c36c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fe2fb0>
+ .byte 232,255,255,255,224 // callq ffffffffe100c36c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fe2fe8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -21433,10 +21433,10 @@ _sk_load_8888_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 15,133,135,0,0,0 // jne c417 <_sk_load_8888_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,130,214,1,0 // vmovapd 0x1d682(%rip),%ymm10 # 29a20 <_sk_srcover_rgba_8888_sse2_lowp+0x664>
+ .byte 197,125,40,21,66,214,1,0 // vmovapd 0x1d642(%rip),%ymm10 # 299e0 <_sk_srcover_rgba_8888_sse2_lowp+0x65c>
.byte 196,193,53,84,194 // vandpd %ymm10,%ymm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,172,216,1,0 // vbroadcastss 0x1d8ac(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,5,108,216,1,0 // vbroadcastss 0x1d86c(%rip),%ymm8 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -21528,10 +21528,10 @@ _sk_load_8888_dst_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 15,133,135,0,0,0 // jne c58f <_sk_load_8888_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,42,213,1,0 // vmovapd 0x1d52a(%rip),%ymm10 # 29a40 <_sk_srcover_rgba_8888_sse2_lowp+0x684>
+ .byte 197,125,40,21,234,212,1,0 // vmovapd 0x1d4ea(%rip),%ymm10 # 29a00 <_sk_srcover_rgba_8888_sse2_lowp+0x67c>
.byte 196,193,53,84,226 // vandpd %ymm10,%ymm9,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,52,215,1,0 // vbroadcastss 0x1d734(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,5,244,214,1,0 // vbroadcastss 0x1d6f4(%rip),%ymm8 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -21650,10 +21650,10 @@ _sk_gather_8888_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,21,78,211,1,0 // vmovaps 0x1d34e(%rip),%ymm10 # 29a60 <_sk_srcover_rgba_8888_sse2_lowp+0x6a4>
+ .byte 197,124,40,21,14,211,1,0 // vmovaps 0x1d30e(%rip),%ymm10 # 29a20 <_sk_srcover_rgba_8888_sse2_lowp+0x69c>
.byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,56,213,1,0 // vbroadcastss 0x1d538(%rip),%ymm9 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,13,248,212,1,0 // vbroadcastss 0x1d4f8(%rip),%ymm9 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1
.byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2
@@ -21690,7 +21690,7 @@ _sk_store_8888_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,104,212,1,0 // vbroadcastss 0x1d468(%rip),%ymm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 196,98,125,24,5,40,212,1,0 // vbroadcastss 0x1d428(%rip),%ymm8 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -21778,10 +21778,10 @@ _sk_load_bgra_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 15,133,135,0,0,0 // jne c96b <_sk_load_bgra_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,142,209,1,0 // vmovapd 0x1d18e(%rip),%ymm10 # 29a80 <_sk_srcover_rgba_8888_sse2_lowp+0x6c4>
+ .byte 197,125,40,21,78,209,1,0 // vmovapd 0x1d14e(%rip),%ymm10 # 29a40 <_sk_srcover_rgba_8888_sse2_lowp+0x6bc>
.byte 196,193,53,84,202 // vandpd %ymm10,%ymm9,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,98,125,24,5,88,211,1,0 // vbroadcastss 0x1d358(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,5,24,211,1,0 // vbroadcastss 0x1d318(%rip),%ymm8 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,116,89,208 // vmulps %ymm8,%ymm1,%ymm2
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -21873,10 +21873,10 @@ _sk_load_bgra_dst_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 15,133,135,0,0,0 // jne cae3 <_sk_load_bgra_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,54,208,1,0 // vmovapd 0x1d036(%rip),%ymm10 # 29aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x6e4>
+ .byte 197,125,40,21,246,207,1,0 // vmovapd 0x1cff6(%rip),%ymm10 # 29a60 <_sk_srcover_rgba_8888_sse2_lowp+0x6dc>
.byte 196,193,53,84,234 // vandpd %ymm10,%ymm9,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,98,125,24,5,224,209,1,0 // vbroadcastss 0x1d1e0(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,5,160,209,1,0 // vbroadcastss 0x1d1a0(%rip),%ymm8 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,84,89,240 // vmulps %ymm8,%ymm5,%ymm6
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -21995,10 +21995,10 @@ _sk_gather_bgra_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,13,90,206,1,0 // vmovaps 0x1ce5a(%rip),%ymm9 # 29ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x704>
+ .byte 197,124,40,13,26,206,1,0 // vmovaps 0x1ce1a(%rip),%ymm9 # 29a80 <_sk_srcover_rgba_8888_sse2_lowp+0x6fc>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,228,207,1,0 // vbroadcastss 0x1cfe4(%rip),%ymm10 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,21,164,207,1,0 // vbroadcastss 0x1cfa4(%rip),%ymm10 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,124,89,210 // vmulps %ymm10,%ymm0,%ymm2
.byte 196,193,121,114,208,8 // vpsrld $0x8,%xmm8,%xmm0
.byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1
@@ -22035,7 +22035,7 @@ _sk_store_bgra_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,20,207,1,0 // vbroadcastss 0x1cf14(%rip),%ymm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 196,98,125,24,5,212,206,1,0 // vbroadcastss 0x1ced4(%rip),%ymm8 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -22143,14 +22143,14 @@ _sk_load_f16_avx:
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,21,251,214,1,0 // vmovddup 0x1d6fb(%rip),%xmm10 # 2a5a8 <_sk_srcover_rgba_8888_sse2_lowp+0x11ec>
+ .byte 197,123,18,21,187,214,1,0 // vmovddup 0x1d6bb(%rip),%xmm10 # 2a568 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
.byte 196,193,121,219,218 // vpand %xmm10,%xmm0,%xmm3
- .byte 196,98,121,24,29,169,206,1,0 // vbroadcastss 0x1cea9(%rip),%xmm11 # 29d64 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+ .byte 196,98,121,24,29,105,206,1,0 // vbroadcastss 0x1ce69(%rip),%xmm11 # 29d24 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 197,33,102,227 // vpcmpgtd %xmm3,%xmm11,%xmm12
.byte 196,193,113,219,210 // vpand %xmm10,%xmm1,%xmm2
.byte 197,33,102,234 // vpcmpgtd %xmm2,%xmm11,%xmm13
.byte 196,195,21,24,252,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm7
- .byte 197,123,18,37,218,214,1,0 // vmovddup 0x1d6da(%rip),%xmm12 # 2a5b0 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 197,123,18,37,154,214,1,0 // vmovddup 0x1d69a(%rip),%xmm12 # 2a570 <_sk_srcover_rgba_8888_sse2_lowp+0x11ec>
.byte 196,193,113,219,204 // vpand %xmm12,%xmm1,%xmm1
.byte 197,241,114,241,16 // vpslld $0x10,%xmm1,%xmm1
.byte 196,193,121,219,196 // vpand %xmm12,%xmm0,%xmm0
@@ -22159,7 +22159,7 @@ _sk_load_f16_avx:
.byte 197,241,235,202 // vpor %xmm2,%xmm1,%xmm1
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,99,206,1,0 // vbroadcastss 0x1ce63(%rip),%xmm3 # 29d68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+ .byte 196,226,121,24,29,35,206,1,0 // vbroadcastss 0x1ce23(%rip),%xmm3 # 29d28 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -22296,14 +22296,14 @@ _sk_load_f16_dst_avx:
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
- .byte 197,123,18,21,36,212,1,0 // vmovddup 0x1d424(%rip),%xmm10 # 2a5a8 <_sk_srcover_rgba_8888_sse2_lowp+0x11ec>
+ .byte 197,123,18,21,228,211,1,0 // vmovddup 0x1d3e4(%rip),%xmm10 # 2a568 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
.byte 196,193,89,219,250 // vpand %xmm10,%xmm4,%xmm7
- .byte 196,98,121,24,29,210,203,1,0 // vbroadcastss 0x1cbd2(%rip),%xmm11 # 29d64 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+ .byte 196,98,121,24,29,146,203,1,0 // vbroadcastss 0x1cb92(%rip),%xmm11 # 29d24 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 197,33,102,231 // vpcmpgtd %xmm7,%xmm11,%xmm12
.byte 196,193,81,219,242 // vpand %xmm10,%xmm5,%xmm6
.byte 197,33,102,238 // vpcmpgtd %xmm6,%xmm11,%xmm13
.byte 196,195,21,24,220,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm3
- .byte 197,123,18,37,3,212,1,0 // vmovddup 0x1d403(%rip),%xmm12 # 2a5b0 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 197,123,18,37,195,211,1,0 // vmovddup 0x1d3c3(%rip),%xmm12 # 2a570 <_sk_srcover_rgba_8888_sse2_lowp+0x11ec>
.byte 196,193,81,219,236 // vpand %xmm12,%xmm5,%xmm5
.byte 197,209,114,245,16 // vpslld $0x10,%xmm5,%xmm5
.byte 196,193,89,219,228 // vpand %xmm12,%xmm4,%xmm4
@@ -22312,7 +22312,7 @@ _sk_load_f16_dst_avx:
.byte 197,209,235,238 // vpor %xmm6,%xmm5,%xmm5
.byte 197,201,114,247,13 // vpslld $0xd,%xmm7,%xmm6
.byte 197,217,235,230 // vpor %xmm6,%xmm4,%xmm4
- .byte 196,226,121,24,61,140,203,1,0 // vbroadcastss 0x1cb8c(%rip),%xmm7 # 29d68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+ .byte 196,226,121,24,61,76,203,1,0 // vbroadcastss 0x1cb4c(%rip),%xmm7 # 29d28 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
.byte 197,217,254,231 // vpaddd %xmm7,%xmm4,%xmm4
.byte 197,209,254,239 // vpaddd %xmm7,%xmm5,%xmm5
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
@@ -22475,14 +22475,14 @@ _sk_gather_f16_avx:
.byte 196,226,121,51,208 // vpmovzxwd %xmm0,%xmm2
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,21,225,208,1,0 // vmovddup 0x1d0e1(%rip),%xmm10 # 2a5a8 <_sk_srcover_rgba_8888_sse2_lowp+0x11ec>
+ .byte 197,123,18,21,161,208,1,0 // vmovddup 0x1d0a1(%rip),%xmm10 # 2a568 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
.byte 196,193,121,219,218 // vpand %xmm10,%xmm0,%xmm3
- .byte 196,98,121,24,29,143,200,1,0 // vbroadcastss 0x1c88f(%rip),%xmm11 # 29d64 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+ .byte 196,98,121,24,29,79,200,1,0 // vbroadcastss 0x1c84f(%rip),%xmm11 # 29d24 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 197,33,102,227 // vpcmpgtd %xmm3,%xmm11,%xmm12
.byte 196,193,105,219,202 // vpand %xmm10,%xmm2,%xmm1
.byte 197,33,102,233 // vpcmpgtd %xmm1,%xmm11,%xmm13
.byte 196,195,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm4
- .byte 197,123,18,37,192,208,1,0 // vmovddup 0x1d0c0(%rip),%xmm12 # 2a5b0 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 197,123,18,37,128,208,1,0 // vmovddup 0x1d080(%rip),%xmm12 # 2a570 <_sk_srcover_rgba_8888_sse2_lowp+0x11ec>
.byte 196,193,105,219,212 // vpand %xmm12,%xmm2,%xmm2
.byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2
.byte 196,193,121,219,196 // vpand %xmm12,%xmm0,%xmm0
@@ -22491,7 +22491,7 @@ _sk_gather_f16_avx:
.byte 197,233,235,201 // vpor %xmm1,%xmm2,%xmm1
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,73,200,1,0 // vbroadcastss 0x1c849(%rip),%xmm3 # 29d68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+ .byte 196,226,121,24,29,9,200,1,0 // vbroadcastss 0x1c809(%rip),%xmm3 # 29d28 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -22581,12 +22581,12 @@ _sk_store_f16_avx:
.byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp)
.byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
- .byte 196,98,125,24,5,139,198,1,0 // vbroadcastss 0x1c68b(%rip),%ymm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,98,125,24,5,75,198,1,0 // vbroadcastss 0x1c64b(%rip),%ymm8 # 29d00 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 196,65,124,84,216 // vandps %ymm8,%ymm0,%ymm11
- .byte 196,98,125,24,21,169,198,1,0 // vbroadcastss 0x1c6a9(%rip),%ymm10 # 29d6c <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 196,98,125,24,21,105,198,1,0 // vbroadcastss 0x1c669(%rip),%ymm10 # 29d2c <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
.byte 196,65,124,84,226 // vandps %ymm10,%ymm0,%ymm12
.byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13
- .byte 196,98,121,24,13,153,198,1,0 // vbroadcastss 0x1c699(%rip),%xmm9 # 29d70 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+ .byte 196,98,121,24,13,89,198,1,0 // vbroadcastss 0x1c659(%rip),%xmm9 # 29d30 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
.byte 196,65,49,102,245 // vpcmpgtd %xmm13,%xmm9,%xmm14
.byte 196,65,49,102,252 // vpcmpgtd %xmm12,%xmm9,%xmm15
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
@@ -22597,7 +22597,7 @@ _sk_store_f16_avx:
.byte 196,65,17,254,239 // vpaddd %xmm15,%xmm13,%xmm13
.byte 196,193,25,114,212,13 // vpsrld $0xd,%xmm12,%xmm12
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
- .byte 196,98,121,24,29,92,198,1,0 // vbroadcastss 0x1c65c(%rip),%xmm11 # 29d74 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+ .byte 196,98,121,24,29,28,198,1,0 // vbroadcastss 0x1c61c(%rip),%xmm11 # 29d34 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
.byte 196,65,17,254,235 // vpaddd %xmm11,%xmm13,%xmm13
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
.byte 196,67,29,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm12,%ymm13
@@ -22748,7 +22748,7 @@ _sk_load_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,163,194,1,0 // vbroadcastss 0x1c2a3(%rip),%ymm9 # 29c78 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,13,99,194,1,0 // vbroadcastss 0x1c263(%rip),%ymm9 # 29c38 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,169,109,202 // vpunpckhqdq %xmm2,%xmm10,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -22852,7 +22852,7 @@ _sk_load_rgb_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,210,192,1,0 // vbroadcastss 0x1c0d2(%rip),%ymm9 # 29c78 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,13,146,192,1,0 // vbroadcastss 0x1c092(%rip),%ymm9 # 29c38 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -22874,7 +22874,7 @@ _sk_load_rgb_u16_be_avx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,214,191,1,0 // vbroadcastss 0x1bfd6(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,29,150,191,1,0 // vbroadcastss 0x1bf96(%rip),%ymm3 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
@@ -22950,7 +22950,7 @@ _sk_store_u16_be_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,155,191,1,0 // vbroadcastss 0x1bf9b(%rip),%ymm8 # 29d00 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,5,91,191,1,0 // vbroadcastss 0x1bf5b(%rip),%ymm8 # 29cc0 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
@@ -23363,7 +23363,7 @@ _sk_mirror_x_avx:
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,99,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm8
- .byte 197,178,89,5,7,184,1,0 // vmulss 0x1b807(%rip),%xmm9,%xmm0 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 197,178,89,5,199,183,1,0 // vmulss 0x1b7c7(%rip),%xmm9,%xmm0 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
@@ -23397,7 +23397,7 @@ _sk_mirror_y_avx:
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,99,117,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm8
- .byte 197,178,89,13,122,183,1,0 // vmulss 0x1b77a(%rip),%xmm9,%xmm1 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 197,178,89,13,58,183,1,0 // vmulss 0x1b73a(%rip),%xmm9,%xmm1 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
@@ -23424,7 +23424,7 @@ FUNCTION(_sk_clamp_x_1_avx)
_sk_clamp_x_1_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,20,183,1,0 // vbroadcastss 0x1b714(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,212,182,1,0 // vbroadcastss 0x1b6d4(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -23442,9 +23442,9 @@ HIDDEN _sk_mirror_x_1_avx
.globl _sk_mirror_x_1_avx
FUNCTION(_sk_mirror_x_1_avx)
_sk_mirror_x_1_avx:
- .byte 196,98,125,24,5,11,183,1,0 // vbroadcastss 0x1b70b(%rip),%ymm8 # 29c00 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,5,203,182,1,0 // vbroadcastss 0x1b6cb(%rip),%ymm8 # 29bc0 <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,225,182,1,0 // vbroadcastss 0x1b6e1(%rip),%ymm9 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,13,161,182,1,0 // vbroadcastss 0x1b6a1(%rip),%ymm9 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -23460,12 +23460,12 @@ HIDDEN _sk_luminance_to_alpha_avx
.globl _sk_luminance_to_alpha_avx
FUNCTION(_sk_luminance_to_alpha_avx)
_sk_luminance_to_alpha_avx:
- .byte 196,226,125,24,29,205,183,1,0 // vbroadcastss 0x1b7cd(%rip),%ymm3 # 29d04 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,226,125,24,29,141,183,1,0 // vbroadcastss 0x1b78d(%rip),%ymm3 # 29cc4 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,29,196,183,1,0 // vbroadcastss 0x1b7c4(%rip),%ymm3 # 29d08 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+ .byte 196,226,125,24,29,132,183,1,0 // vbroadcastss 0x1b784(%rip),%ymm3 # 29cc8 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,183,183,1,0 // vbroadcastss 0x1b7b7(%rip),%ymm1 # 29d0c <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+ .byte 196,226,125,24,13,119,183,1,0 // vbroadcastss 0x1b777(%rip),%ymm1 # 29ccc <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1
.byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23873,18 +23873,18 @@ HIDDEN _sk_gauss_a_to_rgba_avx
.globl _sk_gauss_a_to_rgba_avx
FUNCTION(_sk_gauss_a_to_rgba_avx)
_sk_gauss_a_to_rgba_avx:
- .byte 196,226,125,24,5,210,176,1,0 // vbroadcastss 0x1b0d2(%rip),%ymm0 # 29d14 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+ .byte 196,226,125,24,5,146,176,1,0 // vbroadcastss 0x1b092(%rip),%ymm0 # 29cd4 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
.byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 196,226,125,24,13,193,176,1,0 // vbroadcastss 0x1b0c1(%rip),%ymm1 # 29d10 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+ .byte 196,226,125,24,13,129,176,1,0 // vbroadcastss 0x1b081(%rip),%ymm1 # 29cd0 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,184,176,1,0 // vbroadcastss 0x1b0b8(%rip),%ymm1 # 29d18 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
+ .byte 196,226,125,24,13,120,176,1,0 // vbroadcastss 0x1b078(%rip),%ymm1 # 29cd8 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,171,176,1,0 // vbroadcastss 0x1b0ab(%rip),%ymm1 # 29d1c <_sk_srcover_rgba_8888_sse2_lowp+0x960>
+ .byte 196,226,125,24,13,107,176,1,0 // vbroadcastss 0x1b06b(%rip),%ymm1 # 29cdc <_sk_srcover_rgba_8888_sse2_lowp+0x958>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,158,176,1,0 // vbroadcastss 0x1b09e(%rip),%ymm1 # 29d20 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
+ .byte 196,226,125,24,13,94,176,1,0 // vbroadcastss 0x1b05e(%rip),%ymm1 # 29ce0 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -23911,7 +23911,7 @@ _sk_gradient_avx:
.byte 73,255,200 // dec %r8
.byte 72,131,195,4 // add $0x4,%rbx
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,98,125,24,21,31,175,1,0 // vbroadcastss 0x1af1f(%rip),%ymm10 # 29bec <_sk_srcover_rgba_8888_sse2_lowp+0x830>
+ .byte 196,98,125,24,21,223,174,1,0 // vbroadcastss 0x1aedf(%rip),%ymm10 # 29bac <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,98,125,24,3 // vbroadcastss (%rbx),%ymm8
.byte 197,60,194,192,2 // vcmpleps %ymm0,%ymm8,%ymm8
@@ -24105,27 +24105,27 @@ _sk_xy_to_unit_angle_avx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,73,172,1,0 // vbroadcastss 0x1ac49(%rip),%ymm13 # 29d24 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
+ .byte 196,98,125,24,45,9,172,1,0 // vbroadcastss 0x1ac09(%rip),%ymm13 # 29ce4 <_sk_srcover_rgba_8888_sse2_lowp+0x960>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,63,172,1,0 // vbroadcastss 0x1ac3f(%rip),%ymm14 # 29d28 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
+ .byte 196,98,125,24,53,255,171,1,0 // vbroadcastss 0x1abff(%rip),%ymm14 # 29ce8 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,48,172,1,0 // vbroadcastss 0x1ac30(%rip),%ymm14 # 29d2c <_sk_srcover_rgba_8888_sse2_lowp+0x970>
+ .byte 196,98,125,24,53,240,171,1,0 // vbroadcastss 0x1abf0(%rip),%ymm14 # 29cec <_sk_srcover_rgba_8888_sse2_lowp+0x968>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
- .byte 196,98,125,24,45,33,172,1,0 // vbroadcastss 0x1ac21(%rip),%ymm13 # 29d30 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 196,98,125,24,45,225,171,1,0 // vbroadcastss 0x1abe1(%rip),%ymm13 # 29cf0 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,12,172,1,0 // vbroadcastss 0x1ac0c(%rip),%ymm10 # 29d34 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+ .byte 196,98,125,24,21,204,171,1,0 // vbroadcastss 0x1abcc(%rip),%ymm10 # 29cf4 <_sk_srcover_rgba_8888_sse2_lowp+0x970>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,162,170,1,0 // vbroadcastss 0x1aaa2(%rip),%ymm10 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,21,98,170,1,0 // vbroadcastss 0x1aa62(%rip),%ymm10 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,140,170,1,0 // vbroadcastss 0x1aa8c(%rip),%ymm10 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,21,76,170,1,0 // vbroadcastss 0x1aa4c(%rip),%ymm10 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -24155,7 +24155,7 @@ _sk_xy_to_2pt_conical_quadratic_max_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,130,171,1,0 // vbroadcastss 0x1ab82(%rip),%ymm11 # 29d38 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,98,125,24,29,66,171,1,0 // vbroadcastss 0x1ab42(%rip),%ymm11 # 29cf8 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -24164,17 +24164,17 @@ _sk_xy_to_2pt_conical_quadratic_max_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,86,171,1,0 // vbroadcastss 0x1ab56(%rip),%ymm9 # 29d3c <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,98,125,24,13,22,171,1,0 // vbroadcastss 0x1ab16(%rip),%ymm9 # 29cfc <_sk_srcover_rgba_8888_sse2_lowp+0x978>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,52,171,1,0 // vbroadcastss 0x1ab34(%rip),%ymm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,98,125,24,13,244,170,1,0 // vbroadcastss 0x1aaf4(%rip),%ymm9 # 29d00 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,197,169,1,0 // vbroadcastss 0x1a9c5(%rip),%ymm11 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,29,133,169,1,0 // vbroadcastss 0x1a985(%rip),%ymm11 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,60,89,210 // vmulps %ymm10,%ymm8,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -24194,7 +24194,7 @@ _sk_xy_to_2pt_conical_quadratic_min_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,212,170,1,0 // vbroadcastss 0x1aad4(%rip),%ymm11 # 29d38 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,98,125,24,29,148,170,1,0 // vbroadcastss 0x1aa94(%rip),%ymm11 # 29cf8 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -24203,17 +24203,17 @@ _sk_xy_to_2pt_conical_quadratic_min_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,168,170,1,0 // vbroadcastss 0x1aaa8(%rip),%ymm9 # 29d3c <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,98,125,24,13,104,170,1,0 // vbroadcastss 0x1aa68(%rip),%ymm9 # 29cfc <_sk_srcover_rgba_8888_sse2_lowp+0x978>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,134,170,1,0 // vbroadcastss 0x1aa86(%rip),%ymm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,98,125,24,13,70,170,1,0 // vbroadcastss 0x1aa46(%rip),%ymm9 # 29d00 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,23,169,1,0 // vbroadcastss 0x1a917(%rip),%ymm11 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,29,215,168,1,0 // vbroadcastss 0x1a8d7(%rip),%ymm11 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,60,89,210 // vmulps %ymm10,%ymm8,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -24232,7 +24232,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9
.byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,44,170,1,0 // vbroadcastss 0x1aa2c(%rip),%ymm10 # 29d38 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,98,125,24,21,236,169,1,0 // vbroadcastss 0x1a9ec(%rip),%ymm10 # 29cf8 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
@@ -24241,7 +24241,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,4,170,1,0 // vbroadcastss 0x1aa04(%rip),%ymm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,98,125,24,5,196,169,1,0 // vbroadcastss 0x1a9c4(%rip),%ymm8 # 29d00 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24282,7 +24282,7 @@ HIDDEN _sk_save_xy_avx
FUNCTION(_sk_save_xy_avx)
_sk_save_xy_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,64,168,1,0 // vbroadcastss 0x1a840(%rip),%ymm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,5,0,168,1,0 // vbroadcastss 0x1a800(%rip),%ymm8 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -24319,9 +24319,9 @@ HIDDEN _sk_bilinear_nx_avx
FUNCTION(_sk_bilinear_nx_avx)
_sk_bilinear_nx_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,40,169,1,0 // vbroadcastss 0x1a928(%rip),%ymm0 # 29d44 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,24,5,232,168,1,0 // vbroadcastss 0x1a8e8(%rip),%ymm0 # 29d04 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,191,167,1,0 // vbroadcastss 0x1a7bf(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,127,167,1,0 // vbroadcastss 0x1a77f(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24332,7 +24332,7 @@ HIDDEN _sk_bilinear_px_avx
FUNCTION(_sk_bilinear_px_avx)
_sk_bilinear_px_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,159,167,1,0 // vbroadcastss 0x1a79f(%rip),%ymm0 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,226,125,24,5,95,167,1,0 // vbroadcastss 0x1a75f(%rip),%ymm0 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -24344,9 +24344,9 @@ HIDDEN _sk_bilinear_ny_avx
FUNCTION(_sk_bilinear_ny_avx)
_sk_bilinear_ny_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,223,168,1,0 // vbroadcastss 0x1a8df(%rip),%ymm1 # 29d44 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,24,13,159,168,1,0 // vbroadcastss 0x1a89f(%rip),%ymm1 # 29d04 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,117,167,1,0 // vbroadcastss 0x1a775(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,53,167,1,0 // vbroadcastss 0x1a735(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24357,7 +24357,7 @@ HIDDEN _sk_bilinear_py_avx
FUNCTION(_sk_bilinear_py_avx)
_sk_bilinear_py_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,85,167,1,0 // vbroadcastss 0x1a755(%rip),%ymm1 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,226,125,24,13,21,167,1,0 // vbroadcastss 0x1a715(%rip),%ymm1 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -24369,14 +24369,14 @@ HIDDEN _sk_bicubic_n3x_avx
FUNCTION(_sk_bicubic_n3x_avx)
_sk_bicubic_n3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,152,168,1,0 // vbroadcastss 0x1a898(%rip),%ymm0 # 29d48 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,226,125,24,5,88,168,1,0 // vbroadcastss 0x1a858(%rip),%ymm0 # 29d08 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,43,167,1,0 // vbroadcastss 0x1a72b(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,235,166,1,0 // vbroadcastss 0x1a6eb(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,124,168,1,0 // vbroadcastss 0x1a87c(%rip),%ymm10 # 29d4c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,21,60,168,1,0 // vbroadcastss 0x1a83c(%rip),%ymm10 # 29d0c <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,122,167,1,0 // vbroadcastss 0x1a77a(%rip),%ymm10 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,21,58,167,1,0 // vbroadcastss 0x1a73a(%rip),%ymm10 # 29c18 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -24388,19 +24388,19 @@ HIDDEN _sk_bicubic_n1x_avx
FUNCTION(_sk_bicubic_n1x_avx)
_sk_bicubic_n1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,69,168,1,0 // vbroadcastss 0x1a845(%rip),%ymm0 # 29d44 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,24,5,5,168,1,0 // vbroadcastss 0x1a805(%rip),%ymm0 # 29d04 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,220,166,1,0 // vbroadcastss 0x1a6dc(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,156,166,1,0 // vbroadcastss 0x1a69c(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,58,168,1,0 // vbroadcastss 0x1a83a(%rip),%ymm9 # 29d54 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,13,250,167,1,0 // vbroadcastss 0x1a7fa(%rip),%ymm9 # 29d14 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,40,168,1,0 // vbroadcastss 0x1a828(%rip),%ymm10 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,21,232,167,1,0 // vbroadcastss 0x1a7e8(%rip),%ymm10 # 29d10 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,169,166,1,0 // vbroadcastss 0x1a6a9(%rip),%ymm10 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,21,105,166,1,0 // vbroadcastss 0x1a669(%rip),%ymm10 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,10,168,1,0 // vbroadcastss 0x1a80a(%rip),%ymm9 # 29d58 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,13,202,167,1,0 // vbroadcastss 0x1a7ca(%rip),%ymm9 # 29d18 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24411,17 +24411,17 @@ HIDDEN _sk_bicubic_p1x_avx
FUNCTION(_sk_bicubic_p1x_avx)
_sk_bicubic_p1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,122,166,1,0 // vbroadcastss 0x1a67a(%rip),%ymm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,5,58,166,1,0 // vbroadcastss 0x1a63a(%rip),%ymm8 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,72,64 // vmovups 0x40(%rax),%ymm9
- .byte 196,98,125,24,21,216,167,1,0 // vbroadcastss 0x1a7d8(%rip),%ymm10 # 29d54 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,21,152,167,1,0 // vbroadcastss 0x1a798(%rip),%ymm10 # 29d14 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,198,167,1,0 // vbroadcastss 0x1a7c6(%rip),%ymm11 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,29,134,167,1,0 // vbroadcastss 0x1a786(%rip),%ymm11 # 29d10 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,177,167,1,0 // vbroadcastss 0x1a7b1(%rip),%ymm9 # 29d58 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,13,113,167,1,0 // vbroadcastss 0x1a771(%rip),%ymm9 # 29d18 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24432,13 +24432,13 @@ HIDDEN _sk_bicubic_p3x_avx
FUNCTION(_sk_bicubic_p3x_avx)
_sk_bicubic_p3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,141,167,1,0 // vbroadcastss 0x1a78d(%rip),%ymm0 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,226,125,24,5,77,167,1,0 // vbroadcastss 0x1a74d(%rip),%ymm0 # 29d10 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,114,167,1,0 // vbroadcastss 0x1a772(%rip),%ymm10 # 29d4c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,21,50,167,1,0 // vbroadcastss 0x1a732(%rip),%ymm10 # 29d0c <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,112,166,1,0 // vbroadcastss 0x1a670(%rip),%ymm10 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,21,48,166,1,0 // vbroadcastss 0x1a630(%rip),%ymm10 # 29c18 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -24450,14 +24450,14 @@ HIDDEN _sk_bicubic_n3y_avx
FUNCTION(_sk_bicubic_n3y_avx)
_sk_bicubic_n3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,63,167,1,0 // vbroadcastss 0x1a73f(%rip),%ymm1 # 29d48 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,226,125,24,13,255,166,1,0 // vbroadcastss 0x1a6ff(%rip),%ymm1 # 29d08 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,209,165,1,0 // vbroadcastss 0x1a5d1(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,145,165,1,0 // vbroadcastss 0x1a591(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,34,167,1,0 // vbroadcastss 0x1a722(%rip),%ymm10 # 29d4c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,21,226,166,1,0 // vbroadcastss 0x1a6e2(%rip),%ymm10 # 29d0c <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,32,166,1,0 // vbroadcastss 0x1a620(%rip),%ymm10 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,21,224,165,1,0 // vbroadcastss 0x1a5e0(%rip),%ymm10 # 29c18 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -24469,19 +24469,19 @@ HIDDEN _sk_bicubic_n1y_avx
FUNCTION(_sk_bicubic_n1y_avx)
_sk_bicubic_n1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,235,166,1,0 // vbroadcastss 0x1a6eb(%rip),%ymm1 # 29d44 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,24,13,171,166,1,0 // vbroadcastss 0x1a6ab(%rip),%ymm1 # 29d04 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,129,165,1,0 // vbroadcastss 0x1a581(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,98,125,24,5,65,165,1,0 // vbroadcastss 0x1a541(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,223,166,1,0 // vbroadcastss 0x1a6df(%rip),%ymm9 # 29d54 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,13,159,166,1,0 // vbroadcastss 0x1a69f(%rip),%ymm9 # 29d14 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,205,166,1,0 // vbroadcastss 0x1a6cd(%rip),%ymm10 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,21,141,166,1,0 // vbroadcastss 0x1a68d(%rip),%ymm10 # 29d10 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,78,165,1,0 // vbroadcastss 0x1a54e(%rip),%ymm10 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,21,14,165,1,0 // vbroadcastss 0x1a50e(%rip),%ymm10 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,175,166,1,0 // vbroadcastss 0x1a6af(%rip),%ymm9 # 29d58 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,13,111,166,1,0 // vbroadcastss 0x1a66f(%rip),%ymm9 # 29d18 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24492,17 +24492,17 @@ HIDDEN _sk_bicubic_p1y_avx
FUNCTION(_sk_bicubic_p1y_avx)
_sk_bicubic_p1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,31,165,1,0 // vbroadcastss 0x1a51f(%rip),%ymm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,98,125,24,5,223,164,1,0 // vbroadcastss 0x1a4df(%rip),%ymm8 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 197,188,88,72,32 // vaddps 0x20(%rax),%ymm8,%ymm1
.byte 197,124,16,72,96 // vmovups 0x60(%rax),%ymm9
- .byte 196,98,125,24,21,124,166,1,0 // vbroadcastss 0x1a67c(%rip),%ymm10 # 29d54 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,21,60,166,1,0 // vbroadcastss 0x1a63c(%rip),%ymm10 # 29d14 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,106,166,1,0 // vbroadcastss 0x1a66a(%rip),%ymm11 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,29,42,166,1,0 // vbroadcastss 0x1a62a(%rip),%ymm11 # 29d10 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,85,166,1,0 // vbroadcastss 0x1a655(%rip),%ymm9 # 29d58 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,13,21,166,1,0 // vbroadcastss 0x1a615(%rip),%ymm9 # 29d18 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24513,13 +24513,13 @@ HIDDEN _sk_bicubic_p3y_avx
FUNCTION(_sk_bicubic_p3y_avx)
_sk_bicubic_p3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,49,166,1,0 // vbroadcastss 0x1a631(%rip),%ymm1 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,226,125,24,13,241,165,1,0 // vbroadcastss 0x1a5f1(%rip),%ymm1 # 29d10 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,21,166,1,0 // vbroadcastss 0x1a615(%rip),%ymm10 # 29d4c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,21,213,165,1,0 // vbroadcastss 0x1a5d5(%rip),%ymm10 # 29d0c <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,19,165,1,0 // vbroadcastss 0x1a513(%rip),%ymm10 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,21,211,164,1,0 // vbroadcastss 0x1a4d3(%rip),%ymm10 # 29c18 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -24667,7 +24667,7 @@ _sk_clut_3D_avx:
.byte 72,139,0 // mov (%rax),%rax
.byte 197,217,254,207 // vpaddd %xmm7,%xmm4,%xmm1
.byte 197,249,254,193 // vpaddd %xmm1,%xmm0,%xmm0
- .byte 196,226,121,24,37,173,163,1,0 // vbroadcastss 0x1a3ad(%rip),%xmm4 # 29d60 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,226,121,24,37,109,163,1,0 // vbroadcastss 0x1a36d(%rip),%xmm4 # 29d20 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,98,121,64,228 // vpmulld %xmm4,%xmm0,%xmm12
.byte 196,226,49,64,198 // vpmulld %xmm6,%xmm9,%xmm0
.byte 197,249,127,132,36,128,0,0,0 // vmovdqa %xmm0,0x80(%rsp)
@@ -24721,7 +24721,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,22,161,1,0 // vbroadcastss 0x1a116(%rip),%xmm10 # 29bf4 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
+ .byte 196,98,121,24,21,214,160,1,0 // vbroadcastss 0x1a0d6(%rip),%xmm10 # 29bb4 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
.byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2
.byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
.byte 196,193,249,126,209 // vmovq %xmm2,%r9
@@ -24749,7 +24749,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
- .byte 196,226,125,24,61,234,161,1,0 // vbroadcastss 0x1a1ea(%rip),%ymm7 # 29d5c <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+ .byte 196,226,125,24,61,170,161,1,0 // vbroadcastss 0x1a1aa(%rip),%ymm7 # 29d1c <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 197,148,88,247 // vaddps %ymm7,%ymm13,%ymm6
.byte 197,124,40,231 // vmovaps %ymm7,%ymm12
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
@@ -25492,7 +25492,7 @@ _sk_clut_4D_avx:
.byte 197,249,127,68,36,32 // vmovdqa %xmm0,0x20(%rsp)
.byte 197,225,254,216 // vpaddd %xmm0,%xmm3,%xmm3
.byte 197,233,254,195 // vpaddd %xmm3,%xmm2,%xmm0
- .byte 196,98,121,24,13,174,146,1,0 // vbroadcastss 0x192ae(%rip),%xmm9 # 29d60 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,98,121,24,13,110,146,1,0 // vbroadcastss 0x1926e(%rip),%xmm9 # 29d20 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,194,121,64,209 // vpmulld %xmm9,%xmm0,%xmm2
.byte 196,226,81,64,199 // vpmulld %xmm7,%xmm5,%xmm0
.byte 197,249,127,132,36,96,1,0,0 // vmovdqa %xmm0,0x160(%rsp)
@@ -25549,7 +25549,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,7,144,1,0 // vbroadcastss 0x19007(%rip),%xmm10 # 29bf4 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
+ .byte 196,98,121,24,21,199,143,1,0 // vbroadcastss 0x18fc7(%rip),%xmm10 # 29bb4 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
.byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0
.byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
.byte 196,193,249,126,193 // vmovq %xmm0,%r9
@@ -25577,7 +25577,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
.byte 196,227,105,33,214,48 // vinsertps $0x30,%xmm6,%xmm2,%xmm2
.byte 196,227,109,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm2
- .byte 196,98,125,24,37,219,144,1,0 // vbroadcastss 0x190db(%rip),%ymm12 # 29d5c <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+ .byte 196,98,125,24,37,155,144,1,0 // vbroadcastss 0x1909b(%rip),%ymm12 # 29d1c <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,4,88,196 // vaddps %ymm12,%ymm15,%ymm0
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
@@ -26975,7 +26975,7 @@ _sk_clut_4D_avx:
.byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
.byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,40,114,1,0 // vbroadcastss 0x17228(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,24,29,232,113,1,0 // vbroadcastss 0x171e8(%rip),%ymm3 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,252,16,164,36,64,2,0,0 // vmovups 0x240(%rsp),%ymm4
.byte 197,252,16,172,36,96,2,0,0 // vmovups 0x260(%rsp),%ymm5
.byte 197,252,16,180,36,128,2,0,0 // vmovups 0x280(%rsp),%ymm6
@@ -27057,13 +27057,13 @@ _sk_seed_shader_sse41:
.byte 102,15,110,194 // movd %edx,%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,88,5,55,115,1,0 // addps 0x17337(%rip),%xmm0 # 29dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa14>
+ .byte 15,88,5,247,114,1,0 // addps 0x172f7(%rip),%xmm0 # 29d90 <_sk_srcover_rgba_8888_sse2_lowp+0xa0c>
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,52,115,1,0 // addps 0x17334(%rip),%xmm1 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,88,13,244,114,1,0 // addps 0x172f4(%rip),%xmm1 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,59,115,1,0 // movaps 0x1733b(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,21,251,114,1,0 // movaps 0x172fb(%rip),%xmm2 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -27078,18 +27078,18 @@ _sk_dither_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,212,114,1,0 // paddd 0x172d4(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 102,68,15,254,5,148,114,1,0 // paddd 0x17294(%rip),%xmm8 # 29d70 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,11,115,1,0 // movdqa 0x1730b(%rip),%xmm10 # 29e00 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
+ .byte 102,68,15,111,21,203,114,1,0 // movdqa 0x172cb(%rip),%xmm10 # 29dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa3c>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,247,114,1,0 // movdqa 0x172f7(%rip),%xmm12 # 29e10 <_sk_srcover_rgba_8888_sse2_lowp+0xa54>
- .byte 102,68,15,111,45,254,114,1,0 // movdqa 0x172fe(%rip),%xmm13 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,68,15,111,37,183,114,1,0 // movdqa 0x172b7(%rip),%xmm12 # 29dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa4c>
+ .byte 102,68,15,111,45,190,114,1,0 // movdqa 0x172be(%rip),%xmm13 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -27105,8 +27105,8 @@ _sk_dither_sse41:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,185,114,1,0 // mulps 0x172b9(%rip),%xmm8 # 29e30 <_sk_srcover_rgba_8888_sse2_lowp+0xa74>
- .byte 68,15,88,5,193,114,1,0 // addps 0x172c1(%rip),%xmm8 # 29e40 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,89,5,121,114,1,0 // mulps 0x17279(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa6c>
+ .byte 68,15,88,5,129,114,1,0 // addps 0x17281(%rip),%xmm8 # 29e00 <_sk_srcover_rgba_8888_sse2_lowp+0xa7c>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -27148,7 +27148,7 @@ HIDDEN _sk_black_color_sse41
FUNCTION(_sk_black_color_sse41)
_sk_black_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,247,113,1,0 // movaps 0x171f7(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,29,183,113,1,0 // movaps 0x171b7(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -27159,7 +27159,7 @@ HIDDEN _sk_white_color_sse41
FUNCTION(_sk_white_color_sse41)
_sk_white_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,227,113,1,0 // movaps 0x171e3(%rip),%xmm0 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,5,163,113,1,0 // movaps 0x171a3(%rip),%xmm0 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -27205,7 +27205,7 @@ HIDDEN _sk_srcatop_sse41
FUNCTION(_sk_srcatop_sse41)
_sk_srcatop_sse41:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,147,113,1,0 // movaps 0x17193(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,83,113,1,0 // movaps 0x17153(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -27230,7 +27230,7 @@ FUNCTION(_sk_dstatop_sse41)
_sk_dstatop_sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,70,113,1,0 // movaps 0x17146(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,13,6,113,1,0 // movaps 0x17106(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -27277,7 +27277,7 @@ HIDDEN _sk_srcout_sse41
.globl _sk_srcout_sse41
FUNCTION(_sk_srcout_sse41)
_sk_srcout_sse41:
- .byte 68,15,40,5,218,112,1,0 // movaps 0x170da(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,154,112,1,0 // movaps 0x1709a(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -27290,7 +27290,7 @@ HIDDEN _sk_dstout_sse41
.globl _sk_dstout_sse41
FUNCTION(_sk_dstout_sse41)
_sk_dstout_sse41:
- .byte 68,15,40,5,186,112,1,0 // movaps 0x170ba(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,122,112,1,0 // movaps 0x1707a(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -27307,7 +27307,7 @@ HIDDEN _sk_srcover_sse41
.globl _sk_srcover_sse41
FUNCTION(_sk_srcover_sse41)
_sk_srcover_sse41:
- .byte 68,15,40,5,141,112,1,0 // movaps 0x1708d(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,77,112,1,0 // movaps 0x1704d(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -27327,7 +27327,7 @@ HIDDEN _sk_dstover_sse41
.globl _sk_dstover_sse41
FUNCTION(_sk_dstover_sse41)
_sk_dstover_sse41:
- .byte 68,15,40,5,81,112,1,0 // movaps 0x17051(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,17,112,1,0 // movaps 0x17011(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -27355,7 +27355,7 @@ HIDDEN _sk_multiply_sse41
.globl _sk_multiply_sse41
FUNCTION(_sk_multiply_sse41)
_sk_multiply_sse41:
- .byte 68,15,40,5,21,112,1,0 // movaps 0x17015(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,213,111,1,0 // movaps 0x16fd5(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -27393,7 +27393,7 @@ HIDDEN _sk_plus__sse41
FUNCTION(_sk_plus__sse41)
_sk_plus__sse41:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,150,111,1,0 // movaps 0x16f96(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,86,111,1,0 // movaps 0x16f56(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -27435,7 +27435,7 @@ HIDDEN _sk_xor__sse41
FUNCTION(_sk_xor__sse41)
_sk_xor__sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,34,111,1,0 // movaps 0x16f22(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,29,226,110,1,0 // movaps 0x16ee2(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -27483,7 +27483,7 @@ _sk_darken_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,125,110,1,0 // movaps 0x16e7d(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,21,61,110,1,0 // movaps 0x16e3d(%rip),%xmm2 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -27517,7 +27517,7 @@ _sk_lighten_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,18,110,1,0 // movaps 0x16e12(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,21,210,109,1,0 // movaps 0x16dd2(%rip),%xmm2 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -27554,7 +27554,7 @@ _sk_difference_sse41:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,156,109,1,0 // movaps 0x16d9c(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,21,92,109,1,0 // movaps 0x16d5c(%rip),%xmm2 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -27582,7 +27582,7 @@ _sk_exclusion_sse41:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,76,109,1,0 // movaps 0x16d4c(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,21,12,109,1,0 // movaps 0x16d0c(%rip),%xmm2 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -27594,7 +27594,7 @@ HIDDEN _sk_colorburn_sse41
.globl _sk_colorburn_sse41
FUNCTION(_sk_colorburn_sse41)
_sk_colorburn_sse41:
- .byte 68,15,40,29,51,109,1,0 // movaps 0x16d33(%rip),%xmm11 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,29,243,108,1,0 // movaps 0x16cf3(%rip),%xmm11 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 68,15,92,231 // subps %xmm7,%xmm12
.byte 69,15,40,204 // movaps %xmm12,%xmm9
@@ -27678,7 +27678,7 @@ HIDDEN _sk_colordodge_sse41
FUNCTION(_sk_colordodge_sse41)
_sk_colordodge_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,21,253,107,1,0 // movaps 0x16bfd(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,21,189,107,1,0 // movaps 0x16bbd(%rip),%xmm10 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -27760,7 +27760,7 @@ _sk_hardlight_sse41:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,200,106,1,0 // movaps 0x16ac8(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,21,136,106,1,0 // movaps 0x16a88(%rip),%xmm10 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 65,15,40,234 // movaps %xmm10,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
@@ -27843,7 +27843,7 @@ FUNCTION(_sk_overlay_sse41)
_sk_overlay_sse41:
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,40,240 // movaps %xmm0,%xmm14
- .byte 68,15,40,21,157,105,1,0 // movaps 0x1699d(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,21,93,105,1,0 // movaps 0x1695d(%rip),%xmm10 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -27928,7 +27928,7 @@ _sk_softlight_sse41:
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 65,15,84,193 // andps %xmm9,%xmm0
- .byte 15,40,13,100,104,1,0 // movaps 0x16864(%rip),%xmm1 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,13,36,104,1,0 // movaps 0x16824(%rip),%xmm1 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 68,15,40,240 // movaps %xmm0,%xmm14
@@ -27941,10 +27941,10 @@ _sk_softlight_sse41:
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,210 // mulps %xmm2,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,40,45,146,104,1,0 // movaps 0x16892(%rip),%xmm13 # 29e50 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,45,82,104,1,0 // movaps 0x16852(%rip),%xmm13 # 29e10 <_sk_srcover_rgba_8888_sse2_lowp+0xa8c>
.byte 69,15,88,245 // addps %xmm13,%xmm14
.byte 68,15,89,242 // mulps %xmm2,%xmm14
- .byte 68,15,40,37,146,104,1,0 // movaps 0x16892(%rip),%xmm12 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
+ .byte 68,15,40,37,82,104,1,0 // movaps 0x16852(%rip),%xmm12 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa9c>
.byte 69,15,89,252 // mulps %xmm12,%xmm15
.byte 69,15,88,254 // addps %xmm14,%xmm15
.byte 15,40,198 // movaps %xmm6,%xmm0
@@ -28130,12 +28130,12 @@ _sk_hue_sse41:
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 15,84,200 // andps %xmm0,%xmm1
.byte 68,15,84,232 // andps %xmm0,%xmm13
- .byte 15,40,5,253,101,1,0 // movaps 0x165fd(%rip),%xmm0 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
+ .byte 15,40,5,189,101,1,0 // movaps 0x165bd(%rip),%xmm0 # 29e30 <_sk_srcover_rgba_8888_sse2_lowp+0xaac>
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,21,2,102,1,0 // movaps 0x16602(%rip),%xmm2 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 15,40,21,194,101,1,0 // movaps 0x165c2(%rip),%xmm2 # 29e40 <_sk_srcover_rgba_8888_sse2_lowp+0xabc>
.byte 15,89,250 // mulps %xmm2,%xmm7
.byte 65,15,88,252 // addps %xmm12,%xmm7
- .byte 68,15,40,53,3,102,1,0 // movaps 0x16603(%rip),%xmm14 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
+ .byte 68,15,40,53,195,101,1,0 // movaps 0x165c3(%rip),%xmm14 # 29e50 <_sk_srcover_rgba_8888_sse2_lowp+0xacc>
.byte 68,15,40,252 // movaps %xmm4,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,255 // addps %xmm7,%xmm15
@@ -28218,7 +28218,7 @@ _sk_hue_sse41:
.byte 65,15,88,214 // addps %xmm14,%xmm2
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,40,13,23,100,1,0 // movaps 0x16417(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,13,215,99,1,0 // movaps 0x163d7(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 65,15,40,225 // movaps %xmm9,%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,40,68,36,200 // movaps -0x38(%rsp),%xmm0
@@ -28312,14 +28312,14 @@ _sk_saturation_sse41:
.byte 68,15,84,215 // andps %xmm7,%xmm10
.byte 68,15,84,223 // andps %xmm7,%xmm11
.byte 68,15,84,199 // andps %xmm7,%xmm8
- .byte 15,40,21,65,99,1,0 // movaps 0x16341(%rip),%xmm2 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
+ .byte 15,40,21,1,99,1,0 // movaps 0x16301(%rip),%xmm2 # 29e30 <_sk_srcover_rgba_8888_sse2_lowp+0xaac>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,40,13,68,99,1,0 // movaps 0x16344(%rip),%xmm1 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 15,40,13,4,99,1,0 // movaps 0x16304(%rip),%xmm1 # 29e40 <_sk_srcover_rgba_8888_sse2_lowp+0xabc>
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,249 // mulps %xmm1,%xmm7
.byte 15,88,251 // addps %xmm3,%xmm7
- .byte 68,15,40,45,67,99,1,0 // movaps 0x16343(%rip),%xmm13 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
+ .byte 68,15,40,45,3,99,1,0 // movaps 0x16303(%rip),%xmm13 # 29e50 <_sk_srcover_rgba_8888_sse2_lowp+0xacc>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 68,15,88,247 // addps %xmm7,%xmm14
.byte 65,15,40,218 // movaps %xmm10,%xmm3
@@ -28400,7 +28400,7 @@ _sk_saturation_sse41:
.byte 65,15,88,253 // addps %xmm13,%xmm7
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 102,68,15,56,20,223 // blendvps %xmm0,%xmm7,%xmm11
- .byte 68,15,40,13,89,97,1,0 // movaps 0x16159(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,13,25,97,1,0 // movaps 0x16119(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 68,15,92,204 // subps %xmm4,%xmm9
.byte 15,40,124,36,168 // movaps -0x58(%rsp),%xmm7
@@ -28455,14 +28455,14 @@ _sk_color_sse41:
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 68,15,89,244 // mulps %xmm4,%xmm14
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 68,15,40,13,20,97,1,0 // movaps 0x16114(%rip),%xmm9 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
+ .byte 68,15,40,13,212,96,1,0 // movaps 0x160d4(%rip),%xmm9 # 29e30 <_sk_srcover_rgba_8888_sse2_lowp+0xaac>
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,89,249 // mulps %xmm9,%xmm7
- .byte 68,15,40,21,20,97,1,0 // movaps 0x16114(%rip),%xmm10 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 68,15,40,21,212,96,1,0 // movaps 0x160d4(%rip),%xmm10 # 29e40 <_sk_srcover_rgba_8888_sse2_lowp+0xabc>
.byte 65,15,40,219 // movaps %xmm11,%xmm3
.byte 65,15,89,218 // mulps %xmm10,%xmm3
.byte 15,88,223 // addps %xmm7,%xmm3
- .byte 68,15,40,29,17,97,1,0 // movaps 0x16111(%rip),%xmm11 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
+ .byte 68,15,40,29,209,96,1,0 // movaps 0x160d1(%rip),%xmm11 # 29e50 <_sk_srcover_rgba_8888_sse2_lowp+0xacc>
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
@@ -28547,7 +28547,7 @@ _sk_color_sse41:
.byte 65,15,88,251 // addps %xmm11,%xmm7
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,15,56,20,207 // blendvps %xmm0,%xmm7,%xmm1
- .byte 68,15,40,13,29,95,1,0 // movaps 0x15f1d(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,13,221,94,1,0 // movaps 0x15edd(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 68,15,89,192 // mulps %xmm0,%xmm8
@@ -28599,13 +28599,13 @@ _sk_luminosity_sse41:
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,40,5,229,94,1,0 // movaps 0x15ee5(%rip),%xmm8 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
+ .byte 68,15,40,5,165,94,1,0 // movaps 0x15ea5(%rip),%xmm8 # 29e30 <_sk_srcover_rgba_8888_sse2_lowp+0xaac>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 68,15,40,21,233,94,1,0 // movaps 0x15ee9(%rip),%xmm10 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 68,15,40,21,169,94,1,0 // movaps 0x15ea9(%rip),%xmm10 # 29e40 <_sk_srcover_rgba_8888_sse2_lowp+0xabc>
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 65,15,89,234 // mulps %xmm10,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 68,15,40,37,231,94,1,0 // movaps 0x15ee7(%rip),%xmm12 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
+ .byte 68,15,40,37,167,94,1,0 // movaps 0x15ea7(%rip),%xmm12 # 29e50 <_sk_srcover_rgba_8888_sse2_lowp+0xacc>
.byte 68,15,40,242 // movaps %xmm2,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 68,15,88,245 // addps %xmm5,%xmm14
@@ -28690,7 +28690,7 @@ _sk_luminosity_sse41:
.byte 65,15,88,244 // addps %xmm12,%xmm6
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 102,68,15,56,20,206 // blendvps %xmm0,%xmm6,%xmm9
- .byte 15,40,5,237,92,1,0 // movaps 0x15ced(%rip),%xmm0 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,5,173,92,1,0 // movaps 0x15cad(%rip),%xmm0 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,92,215 // subps %xmm7,%xmm2
.byte 15,89,226 // mulps %xmm2,%xmm4
@@ -28738,20 +28738,20 @@ _sk_srcover_rgba_8888_sse41:
.byte 15,133,219,0,0,0 // jne 1426b <_sk_srcover_rgba_8888_sse41+0xfb>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,255,92,1,0 // movdqa 0x15cff(%rip),%xmm4 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,111,37,191,92,1,0 // movdqa 0x15cbf(%rip),%xmm4 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,251,92,1,0 // pshufb 0x15cfb(%rip),%xmm5 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
+ .byte 102,15,56,0,45,187,92,1,0 // pshufb 0x15cbb(%rip),%xmm5 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xaec>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,251,92,1,0 // pshufb 0x15cfb(%rip),%xmm6 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
+ .byte 102,15,56,0,53,187,92,1,0 // pshufb 0x15cbb(%rip),%xmm6 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xafc>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 68,15,40,5,24,92,1,0 // movaps 0x15c18(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,216,91,1,0 // movaps 0x15bd8(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,236,92,1,0 // movaps 0x15cec(%rip),%xmm12 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,37,172,92,1,0 // movaps 0x15cac(%rip),%xmm12 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xb0c>
.byte 65,15,89,196 // mulps %xmm12,%xmm0
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -28831,7 +28831,7 @@ HIDDEN _sk_clamp_1_sse41
.globl _sk_clamp_1_sse41
FUNCTION(_sk_clamp_1_sse41)
_sk_clamp_1_sse41:
- .byte 68,15,40,5,231,90,1,0 // movaps 0x15ae7(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,167,90,1,0 // movaps 0x15aa7(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -28843,7 +28843,7 @@ HIDDEN _sk_clamp_a_sse41
.globl _sk_clamp_a_sse41
FUNCTION(_sk_clamp_a_sse41)
_sk_clamp_a_sse41:
- .byte 15,93,29,204,90,1,0 // minps 0x15acc(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,93,29,140,90,1,0 // minps 0x15a8c(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -28854,7 +28854,7 @@ HIDDEN _sk_clamp_a_dst_sse41
.globl _sk_clamp_a_dst_sse41
FUNCTION(_sk_clamp_a_dst_sse41)
_sk_clamp_a_dst_sse41:
- .byte 15,93,61,184,90,1,0 // minps 0x15ab8(%rip),%xmm7 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,93,61,120,90,1,0 // minps 0x15a78(%rip),%xmm7 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -28889,7 +28889,7 @@ HIDDEN _sk_invert_sse41
.globl _sk_invert_sse41
FUNCTION(_sk_invert_sse41)
_sk_invert_sse41:
- .byte 68,15,40,5,116,90,1,0 // movaps 0x15a74(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,52,90,1,0 // movaps 0x15a34(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -28951,7 +28951,7 @@ HIDDEN _sk_unpremul_sse41
FUNCTION(_sk_unpremul_sse41)
_sk_unpremul_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,40,13,254,89,1,0 // movaps 0x159fe(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,13,190,89,1,0 // movaps 0x159be(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,94,203 // divps %xmm3,%xmm9
.byte 68,15,194,195,4 // cmpneqps %xmm3,%xmm8
.byte 69,15,84,193 // andps %xmm9,%xmm8
@@ -28965,20 +28965,20 @@ HIDDEN _sk_from_srgb_sse41
.globl _sk_from_srgb_sse41
FUNCTION(_sk_from_srgb_sse41)
_sk_from_srgb_sse41:
- .byte 68,15,40,29,201,90,1,0 // movaps 0x15ac9(%rip),%xmm11 # 29ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 68,15,40,29,137,90,1,0 // movaps 0x15a89(%rip),%xmm11 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xb1c>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
- .byte 68,15,40,37,65,90,1,0 // movaps 0x15a41(%rip),%xmm12 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
+ .byte 68,15,40,37,1,90,1,0 // movaps 0x15a01(%rip),%xmm12 # 29e30 <_sk_srcover_rgba_8888_sse2_lowp+0xaac>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,177,90,1,0 // movaps 0x15ab1(%rip),%xmm13 # 29ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+ .byte 68,15,40,45,113,90,1,0 // movaps 0x15a71(%rip),%xmm13 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb2c>
.byte 69,15,88,197 // addps %xmm13,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 68,15,40,53,177,90,1,0 // movaps 0x15ab1(%rip),%xmm14 # 29f00 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 68,15,40,53,113,90,1,0 // movaps 0x15a71(%rip),%xmm14 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb3c>
.byte 69,15,88,198 // addps %xmm14,%xmm8
- .byte 68,15,40,61,181,90,1,0 // movaps 0x15ab5(%rip),%xmm15 # 29f10 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 68,15,40,61,117,90,1,0 // movaps 0x15a75(%rip),%xmm15 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb4c>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,40,209 // movaps %xmm1,%xmm10
@@ -29015,19 +29015,19 @@ FUNCTION(_sk_from_srgb_dst_sse41)
_sk_from_srgb_dst_sse41:
.byte 68,15,40,204 // movaps %xmm4,%xmm9
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,29,0,90,1,0 // movaps 0x15a00(%rip),%xmm11 # 29ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 68,15,40,29,192,89,1,0 // movaps 0x159c0(%rip),%xmm11 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xb1c>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,37,121,89,1,0 // movaps 0x15979(%rip),%xmm12 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
+ .byte 68,15,40,37,57,89,1,0 // movaps 0x15939(%rip),%xmm12 # 29e30 <_sk_srcover_rgba_8888_sse2_lowp+0xaac>
.byte 65,15,89,228 // mulps %xmm12,%xmm4
- .byte 68,15,40,45,237,89,1,0 // movaps 0x159ed(%rip),%xmm13 # 29ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+ .byte 68,15,40,45,173,89,1,0 // movaps 0x159ad(%rip),%xmm13 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb2c>
.byte 65,15,88,229 // addps %xmm13,%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 68,15,40,53,238,89,1,0 // movaps 0x159ee(%rip),%xmm14 # 29f00 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 68,15,40,53,174,89,1,0 // movaps 0x159ae(%rip),%xmm14 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb3c>
.byte 65,15,88,230 // addps %xmm14,%xmm4
- .byte 68,15,40,61,242,89,1,0 // movaps 0x159f2(%rip),%xmm15 # 29f10 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 68,15,40,61,178,89,1,0 // movaps 0x159b2(%rip),%xmm15 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb4c>
.byte 69,15,194,207,1 // cmpltps %xmm15,%xmm9
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,226 // blendvps %xmm0,%xmm10,%xmm4
@@ -29071,22 +29071,22 @@ _sk_to_srgb_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 68,15,82,192 // rsqrtps %xmm0,%xmm8
- .byte 68,15,40,29,102,89,1,0 // movaps 0x15966(%rip),%xmm11 # 29f20 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
+ .byte 68,15,40,29,38,89,1,0 // movaps 0x15926(%rip),%xmm11 # 29ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xb5c>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 68,15,40,37,102,89,1,0 // movaps 0x15966(%rip),%xmm12 # 29f30 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,37,38,89,1,0 // movaps 0x15926(%rip),%xmm12 # 29ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xb6c>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 69,15,89,252 // mulps %xmm12,%xmm15
- .byte 68,15,40,21,102,89,1,0 // movaps 0x15966(%rip),%xmm10 # 29f40 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
+ .byte 68,15,40,21,38,89,1,0 // movaps 0x15926(%rip),%xmm10 # 29f00 <_sk_srcover_rgba_8888_sse2_lowp+0xb7c>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,248 // mulps %xmm8,%xmm15
- .byte 68,15,40,45,102,89,1,0 // movaps 0x15966(%rip),%xmm13 # 29f50 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
+ .byte 68,15,40,45,38,89,1,0 // movaps 0x15926(%rip),%xmm13 # 29f10 <_sk_srcover_rgba_8888_sse2_lowp+0xb8c>
.byte 69,15,88,253 // addps %xmm13,%xmm15
- .byte 68,15,40,53,106,89,1,0 // movaps 0x1596a(%rip),%xmm14 # 29f60 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
+ .byte 68,15,40,53,42,89,1,0 // movaps 0x1592a(%rip),%xmm14 # 29f20 <_sk_srcover_rgba_8888_sse2_lowp+0xb9c>
.byte 69,15,88,198 // addps %xmm14,%xmm8
.byte 69,15,83,192 // rcpps %xmm8,%xmm8
.byte 69,15,89,199 // mulps %xmm15,%xmm8
- .byte 68,15,40,61,102,89,1,0 // movaps 0x15966(%rip),%xmm15 # 29f70 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
+ .byte 68,15,40,61,38,89,1,0 // movaps 0x15926(%rip),%xmm15 # 29f30 <_sk_srcover_rgba_8888_sse2_lowp+0xbac>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,82,202 // rsqrtps %xmm2,%xmm9
@@ -29141,7 +29141,7 @@ _sk_rgb_to_hsl_sse41:
.byte 68,15,93,224 // minps %xmm0,%xmm12
.byte 65,15,40,203 // movaps %xmm11,%xmm1
.byte 65,15,92,204 // subps %xmm12,%xmm1
- .byte 68,15,40,53,29,87,1,0 // movaps 0x1571d(%rip),%xmm14 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,53,221,86,1,0 // movaps 0x156dd(%rip),%xmm14 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,94,241 // divps %xmm1,%xmm14
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 69,15,194,208,0 // cmpeqps %xmm8,%xmm10
@@ -29150,27 +29150,27 @@ _sk_rgb_to_hsl_sse41:
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 68,15,194,250,1 // cmpltps %xmm2,%xmm15
- .byte 68,15,84,61,132,88,1,0 // andps 0x15884(%rip),%xmm15 # 29f80 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
+ .byte 68,15,84,61,68,88,1,0 // andps 0x15844(%rip),%xmm15 # 29f40 <_sk_srcover_rgba_8888_sse2_lowp+0xbbc>
.byte 68,15,88,248 // addps %xmm0,%xmm15
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,214 // mulps %xmm14,%xmm2
- .byte 68,15,40,45,119,88,1,0 // movaps 0x15877(%rip),%xmm13 # 29f90 <_sk_srcover_rgba_8888_sse2_lowp+0xbd4>
+ .byte 68,15,40,45,55,88,1,0 // movaps 0x15837(%rip),%xmm13 # 29f50 <_sk_srcover_rgba_8888_sse2_lowp+0xbcc>
.byte 65,15,88,213 // addps %xmm13,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,198 // mulps %xmm14,%xmm8
- .byte 68,15,88,5,115,88,1,0 // addps 0x15873(%rip),%xmm8 # 29fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xbe4>
+ .byte 68,15,88,5,51,88,1,0 // addps 0x15833(%rip),%xmm8 # 29f60 <_sk_srcover_rgba_8888_sse2_lowp+0xbdc>
.byte 102,68,15,56,20,194 // blendvps %xmm0,%xmm2,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,69,15,56,20,199 // blendvps %xmm0,%xmm15,%xmm8
- .byte 68,15,89,5,107,88,1,0 // mulps 0x1586b(%rip),%xmm8 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xbf4>
+ .byte 68,15,89,5,43,88,1,0 // mulps 0x1582b(%rip),%xmm8 # 29f70 <_sk_srcover_rgba_8888_sse2_lowp+0xbec>
.byte 69,15,40,203 // movaps %xmm11,%xmm9
.byte 69,15,194,204,4 // cmpneqps %xmm12,%xmm9
.byte 69,15,84,193 // andps %xmm9,%xmm8
.byte 69,15,92,235 // subps %xmm11,%xmm13
.byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 15,40,5,127,86,1,0 // movaps 0x1567f(%rip),%xmm0 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,5,63,86,1,0 // movaps 0x1563f(%rip),%xmm0 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 65,15,40,211 // movaps %xmm11,%xmm2
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,194,194,1 // cmpltps %xmm2,%xmm0
@@ -29192,7 +29192,7 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp)
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 68,15,40,13,53,86,1,0 // movaps 0x15635(%rip),%xmm9 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,40,13,245,85,1,0 // movaps 0x155f5(%rip),%xmm9 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,194,194,2 // cmpleps %xmm2,%xmm0
.byte 15,40,217 // movaps %xmm1,%xmm3
@@ -29205,19 +29205,19 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,84,36,152 // movaps %xmm2,-0x68(%rsp)
.byte 69,15,88,192 // addps %xmm8,%xmm8
.byte 68,15,92,197 // subps %xmm5,%xmm8
- .byte 68,15,40,53,224,87,1,0 // movaps 0x157e0(%rip),%xmm14 # 29fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc04>
+ .byte 68,15,40,53,160,87,1,0 // movaps 0x157a0(%rip),%xmm14 # 29f80 <_sk_srcover_rgba_8888_sse2_lowp+0xbfc>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 102,65,15,58,8,198,1 // roundps $0x1,%xmm14,%xmm0
.byte 68,15,92,240 // subps %xmm0,%xmm14
- .byte 68,15,40,29,217,87,1,0 // movaps 0x157d9(%rip),%xmm11 # 29fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc14>
+ .byte 68,15,40,29,153,87,1,0 // movaps 0x15799(%rip),%xmm11 # 29f90 <_sk_srcover_rgba_8888_sse2_lowp+0xc0c>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 65,15,92,240 // subps %xmm8,%xmm6
- .byte 15,40,61,114,87,1,0 // movaps 0x15772(%rip),%xmm7 # 29f80 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
+ .byte 15,40,61,50,87,1,0 // movaps 0x15732(%rip),%xmm7 # 29f40 <_sk_srcover_rgba_8888_sse2_lowp+0xbbc>
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 68,15,89,239 // mulps %xmm7,%xmm13
- .byte 15,40,29,131,87,1,0 // movaps 0x15783(%rip),%xmm3 # 29fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xbe4>
+ .byte 15,40,29,67,87,1,0 // movaps 0x15743(%rip),%xmm3 # 29f60 <_sk_srcover_rgba_8888_sse2_lowp+0xbdc>
.byte 68,15,40,227 // movaps %xmm3,%xmm12
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 68,15,89,230 // mulps %xmm6,%xmm12
@@ -29227,7 +29227,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,40,253 // movaps %xmm5,%xmm15
.byte 102,69,15,56,20,252 // blendvps %xmm0,%xmm12,%xmm15
- .byte 68,15,40,37,98,87,1,0 // movaps 0x15762(%rip),%xmm12 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xbf4>
+ .byte 68,15,40,37,34,87,1,0 // movaps 0x15722(%rip),%xmm12 # 29f70 <_sk_srcover_rgba_8888_sse2_lowp+0xbec>
.byte 65,15,40,196 // movaps %xmm12,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,89,238 // mulps %xmm6,%xmm13
@@ -29261,7 +29261,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 15,40,84,36,152 // movaps -0x68(%rsp),%xmm2
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,88,21,250,86,1,0 // addps 0x156fa(%rip),%xmm10 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
+ .byte 68,15,88,21,186,86,1,0 // addps 0x156ba(%rip),%xmm10 # 29fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xc1c>
.byte 102,65,15,58,8,194,1 // roundps $0x1,%xmm10,%xmm0
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 69,15,194,218,2 // cmpleps %xmm10,%xmm11
@@ -29318,9 +29318,9 @@ _sk_scale_u8_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,52 // jne 149cd <_sk_scale_u8_sse41+0x4c>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,247,84,1,0 // pand 0x154f7(%rip),%xmm8 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,68,15,219,5,183,84,1,0 // pand 0x154b7(%rip),%xmm8 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,59,86,1,0 // mulps 0x1563b(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,89,5,251,85,1,0 // mulps 0x155fb(%rip),%xmm8 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -29364,17 +29364,17 @@ _sk_scale_565_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 15,133,159,0,0,0 // jne 14ae7 <_sk_scale_565_sse41+0xc3>
.byte 102,71,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm11
- .byte 102,15,111,5,169,85,1,0 // movdqa 0x155a9(%rip),%xmm0 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
+ .byte 102,15,111,5,105,85,1,0 // movdqa 0x15569(%rip),%xmm0 # 29fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc3c>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,168,85,1,0 // mulps 0x155a8(%rip),%xmm9 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
- .byte 102,15,111,5,176,85,1,0 // movdqa 0x155b0(%rip),%xmm0 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
+ .byte 68,15,89,13,104,85,1,0 // mulps 0x15568(%rip),%xmm9 # 29fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc4c>
+ .byte 102,15,111,5,112,85,1,0 // movdqa 0x15570(%rip),%xmm0 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc5c>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,208 // cvtdq2ps %xmm0,%xmm10
- .byte 68,15,89,21,175,85,1,0 // mulps 0x155af(%rip),%xmm10 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
- .byte 102,68,15,219,29,182,85,1,0 // pand 0x155b6(%rip),%xmm11 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 68,15,89,21,111,85,1,0 // mulps 0x1556f(%rip),%xmm10 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc6c>
+ .byte 102,68,15,219,29,118,85,1,0 // pand 0x15576(%rip),%xmm11 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc7c>
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
- .byte 68,15,89,29,186,85,1,0 // mulps 0x155ba(%rip),%xmm11 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,89,29,122,85,1,0 // mulps 0x1557a(%rip),%xmm11 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,226 // movaps %xmm10,%xmm12
@@ -29451,9 +29451,9 @@ _sk_lerp_u8_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,72 // jne 14bd7 <_sk_lerp_u8_sse41+0x60>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,1,83,1,0 // pand 0x15301(%rip),%xmm8 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,68,15,219,5,193,82,1,0 // pand 0x152c1(%rip),%xmm8 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,69,84,1,0 // mulps 0x15445(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,89,5,5,84,1,0 // mulps 0x15405(%rip),%xmm8 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -29504,17 +29504,17 @@ _sk_lerp_565_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 15,133,165,0,0,0 // jne 14cfa <_sk_lerp_565_sse41+0xc9>
.byte 102,71,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm10
- .byte 102,15,111,5,156,83,1,0 // movdqa 0x1539c(%rip),%xmm0 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
+ .byte 102,15,111,5,92,83,1,0 // movdqa 0x1535c(%rip),%xmm0 # 29fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc3c>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,155,83,1,0 // mulps 0x1539b(%rip),%xmm9 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
- .byte 102,15,111,5,163,83,1,0 // movdqa 0x153a3(%rip),%xmm0 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
+ .byte 68,15,89,13,91,83,1,0 // mulps 0x1535b(%rip),%xmm9 # 29fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc4c>
+ .byte 102,15,111,5,99,83,1,0 // movdqa 0x15363(%rip),%xmm0 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc5c>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,216 // cvtdq2ps %xmm0,%xmm11
- .byte 68,15,89,29,162,83,1,0 // mulps 0x153a2(%rip),%xmm11 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
- .byte 102,68,15,219,21,169,83,1,0 // pand 0x153a9(%rip),%xmm10 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 68,15,89,29,98,83,1,0 // mulps 0x15362(%rip),%xmm11 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc6c>
+ .byte 102,68,15,219,21,105,83,1,0 // pand 0x15369(%rip),%xmm10 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc7c>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,173,83,1,0 // mulps 0x153ad(%rip),%xmm10 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,89,21,109,83,1,0 // mulps 0x1536d(%rip),%xmm10 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -29570,7 +29570,7 @@ _sk_load_tables_sse41:
.byte 243,69,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm8
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,15,111,5,47,81,1,0 // movdqa 0x1512f(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,111,5,239,80,1,0 // movdqa 0x150ef(%rip),%xmm0 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -29585,7 +29585,7 @@ _sk_load_tables_sse41:
.byte 102,66,15,58,33,4,155,32 // insertps $0x20,(%rbx,%r11,4),%xmm0
.byte 102,66,15,58,33,4,3,48 // insertps $0x30,(%rbx,%r8,1),%xmm0
.byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,56,0,13,234,80,1,0 // pshufb 0x150ea(%rip),%xmm1 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
+ .byte 102,15,56,0,13,170,80,1,0 // pshufb 0x150aa(%rip),%xmm1 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xaec>
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 68,15,182,203 // movzbl %bl,%r9d
@@ -29600,7 +29600,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
.byte 76,139,64,24 // mov 0x18(%rax),%r8
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,56,0,21,166,80,1,0 // pshufb 0x150a6(%rip),%xmm2 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
+ .byte 102,15,56,0,21,102,80,1,0 // pshufb 0x15066(%rip),%xmm2 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xafc>
.byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx
.byte 102,72,15,126,208 // movq %xmm2,%rax
.byte 68,15,182,200 // movzbl %al,%r9d
@@ -29615,7 +29615,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,216 // cvtdq2ps %xmm8,%xmm3
- .byte 15,89,29,131,81,1,0 // mulps 0x15183(%rip),%xmm3 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 15,89,29,67,81,1,0 // mulps 0x15143(%rip),%xmm3 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -29656,7 +29656,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,68,15,111,5,85,81,1,0 // movdqa 0x15155(%rip),%xmm8 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 102,68,15,111,5,21,81,1,0 // movdqa 0x15115(%rip),%xmm8 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc9c>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -29674,7 +29674,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,15,58,33,194,32 // insertps $0x20,%xmm2,%xmm0
.byte 243,66,15,16,20,3 // movss (%rbx,%r8,1),%xmm2
.byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0
- .byte 102,15,56,0,13,4,81,1,0 // pshufb 0x15104(%rip),%xmm1 # 2a070 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,15,56,0,13,196,80,1,0 // pshufb 0x150c4(%rip),%xmm1 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xcac>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -29710,7 +29710,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,235,216 // por %xmm8,%xmm3
.byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,82,80,1,0 // mulps 0x15052(%rip),%xmm3 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 15,89,29,18,80,1,0 // mulps 0x15012(%rip),%xmm3 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xcbc>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -29750,7 +29750,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
- .byte 102,68,15,111,5,155,79,1,0 // movdqa 0x14f9b(%rip),%xmm8 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 102,68,15,111,5,91,79,1,0 // movdqa 0x14f5b(%rip),%xmm8 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc9c>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -29768,7 +29768,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,58,33,195,32 // insertps $0x20,%xmm3,%xmm0
.byte 243,66,15,16,28,3 // movss (%rbx,%r8,1),%xmm3
.byte 102,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm0
- .byte 102,15,56,0,13,74,79,1,0 // pshufb 0x14f4a(%rip),%xmm1 # 2a070 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,15,56,0,13,10,79,1,0 // pshufb 0x14f0a(%rip),%xmm1 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xcac>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -29799,7 +29799,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 243,65,15,16,28,24 // movss (%r8,%rbx,1),%xmm3
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,37,76,1,0 // movaps 0x14c25(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,29,229,75,1,0 // movaps 0x14be5(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -29831,7 +29831,7 @@ _sk_byte_tables_sse41:
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,146,76,1,0 // movaps 0x14c92(%rip),%xmm8 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,5,82,76,1,0 // movaps 0x14c52(%rip),%xmm8 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xb0c>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
@@ -29854,7 +29854,7 @@ _sk_byte_tables_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,13,72,77,1,0 // movaps 0x14d48(%rip),%xmm9 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,40,13,8,77,1,0 // movaps 0x14d08(%rip),%xmm9 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -29956,7 +29956,7 @@ _sk_byte_tables_rgb_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,13,164,75,1,0 // movaps 0x14ba4(%rip),%xmm9 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,40,13,100,75,1,0 // movaps 0x14b64(%rip),%xmm9 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -30138,31 +30138,31 @@ _sk_parametric_r_sse41:
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,194 // cvtdq2ps %xmm10,%xmm8
- .byte 68,15,89,5,127,73,1,0 // mulps 0x1497f(%rip),%xmm8 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 68,15,84,21,135,73,1,0 // andps 0x14987(%rip),%xmm10 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 68,15,86,21,191,70,1,0 // orps 0x146bf(%rip),%xmm10 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
- .byte 68,15,88,5,135,73,1,0 // addps 0x14987(%rip),%xmm8 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
- .byte 68,15,40,37,143,73,1,0 // movaps 0x1498f(%rip),%xmm12 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 68,15,89,5,63,73,1,0 // mulps 0x1493f(%rip),%xmm8 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
+ .byte 68,15,84,21,71,73,1,0 // andps 0x14947(%rip),%xmm10 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xcdc>
+ .byte 68,15,86,21,127,70,1,0 // orps 0x1467f(%rip),%xmm10 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
+ .byte 68,15,88,5,71,73,1,0 // addps 0x14947(%rip),%xmm8 # 2a070 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ .byte 68,15,40,37,79,73,1,0 // movaps 0x1494f(%rip),%xmm12 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
- .byte 68,15,88,21,143,73,1,0 // addps 0x1498f(%rip),%xmm10 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
- .byte 68,15,40,37,151,73,1,0 // movaps 0x14997(%rip),%xmm12 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 68,15,88,21,79,73,1,0 // addps 0x1494f(%rip),%xmm10 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ .byte 68,15,40,37,87,73,1,0 // movaps 0x14957(%rip),%xmm12 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
.byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,58,8,208,1 // roundps $0x1,%xmm8,%xmm10
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,5,132,73,1,0 // addps 0x14984(%rip),%xmm8 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 68,15,40,21,140,73,1,0 // movaps 0x1498c(%rip),%xmm10 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 68,15,88,5,68,73,1,0 // addps 0x14944(%rip),%xmm8 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ .byte 68,15,40,21,76,73,1,0 // movaps 0x1494c(%rip),%xmm10 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 69,15,92,194 // subps %xmm10,%xmm8
- .byte 68,15,40,21,140,73,1,0 // movaps 0x1498c(%rip),%xmm10 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,21,76,73,1,0 // movaps 0x1494c(%rip),%xmm10 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd4c>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 68,15,40,29,144,73,1,0 // movaps 0x14990(%rip),%xmm11 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,40,29,80,73,1,0 // movaps 0x14950(%rip),%xmm11 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd5c>
.byte 69,15,94,218 // divps %xmm10,%xmm11
.byte 69,15,88,216 // addps %xmm8,%xmm11
- .byte 68,15,89,29,144,73,1,0 // mulps 0x14990(%rip),%xmm11 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,89,29,80,73,1,0 // mulps 0x14950(%rip),%xmm11 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd6c>
.byte 102,69,15,91,211 // cvtps2dq %xmm11,%xmm10
.byte 243,68,15,16,64,20 // movss 0x14(%rax),%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
@@ -30170,7 +30170,7 @@ _sk_parametric_r_sse41:
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,39,70,1,0 // minps 0x14627(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,93,5,231,69,1,0 // minps 0x145e7(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -30200,31 +30200,31 @@ _sk_parametric_g_sse41:
.byte 68,15,88,217 // addps %xmm1,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,88,72,1,0 // mulps 0x14858(%rip),%xmm12 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 68,15,84,29,96,72,1,0 // andps 0x14860(%rip),%xmm11 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 68,15,86,29,152,69,1,0 // orps 0x14598(%rip),%xmm11 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
- .byte 68,15,88,37,96,72,1,0 // addps 0x14860(%rip),%xmm12 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
- .byte 15,40,13,105,72,1,0 // movaps 0x14869(%rip),%xmm1 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 68,15,89,37,24,72,1,0 // mulps 0x14818(%rip),%xmm12 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
+ .byte 68,15,84,29,32,72,1,0 // andps 0x14820(%rip),%xmm11 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xcdc>
+ .byte 68,15,86,29,88,69,1,0 // orps 0x14558(%rip),%xmm11 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
+ .byte 68,15,88,37,32,72,1,0 // addps 0x14820(%rip),%xmm12 # 2a070 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ .byte 15,40,13,41,72,1,0 // movaps 0x14829(%rip),%xmm1 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,88,29,105,72,1,0 // addps 0x14869(%rip),%xmm11 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
- .byte 15,40,13,114,72,1,0 // movaps 0x14872(%rip),%xmm1 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 68,15,88,29,41,72,1,0 // addps 0x14829(%rip),%xmm11 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ .byte 15,40,13,50,72,1,0 // movaps 0x14832(%rip),%xmm1 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
.byte 65,15,94,203 // divps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,95,72,1,0 // addps 0x1485f(%rip),%xmm12 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 15,40,13,104,72,1,0 // movaps 0x14868(%rip),%xmm1 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 68,15,88,37,31,72,1,0 // addps 0x1481f(%rip),%xmm12 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ .byte 15,40,13,40,72,1,0 // movaps 0x14828(%rip),%xmm1 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,40,21,104,72,1,0 // movaps 0x14868(%rip),%xmm10 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,21,40,72,1,0 // movaps 0x14828(%rip),%xmm10 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd4c>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,13,109,72,1,0 // movaps 0x1486d(%rip),%xmm1 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 15,40,13,45,72,1,0 // movaps 0x1482d(%rip),%xmm1 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd5c>
.byte 65,15,94,202 // divps %xmm10,%xmm1
.byte 65,15,88,204 // addps %xmm12,%xmm1
- .byte 15,89,13,110,72,1,0 // mulps 0x1486e(%rip),%xmm1 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 15,89,13,46,72,1,0 // mulps 0x1482e(%rip),%xmm1 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd6c>
.byte 102,68,15,91,209 // cvtps2dq %xmm1,%xmm10
.byte 243,15,16,72,20 // movss 0x14(%rax),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
@@ -30232,7 +30232,7 @@ _sk_parametric_g_sse41:
.byte 102,65,15,56,20,201 // blendvps %xmm0,%xmm9,%xmm1
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,200 // maxps %xmm0,%xmm1
- .byte 15,93,13,9,69,1,0 // minps 0x14509(%rip),%xmm1 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,93,13,201,68,1,0 // minps 0x144c9(%rip),%xmm1 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -30262,31 +30262,31 @@ _sk_parametric_b_sse41:
.byte 68,15,88,218 // addps %xmm2,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,58,71,1,0 // mulps 0x1473a(%rip),%xmm12 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 68,15,84,29,66,71,1,0 // andps 0x14742(%rip),%xmm11 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 68,15,86,29,122,68,1,0 // orps 0x1447a(%rip),%xmm11 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
- .byte 68,15,88,37,66,71,1,0 // addps 0x14742(%rip),%xmm12 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
- .byte 15,40,21,75,71,1,0 // movaps 0x1474b(%rip),%xmm2 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 68,15,89,37,250,70,1,0 // mulps 0x146fa(%rip),%xmm12 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
+ .byte 68,15,84,29,2,71,1,0 // andps 0x14702(%rip),%xmm11 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xcdc>
+ .byte 68,15,86,29,58,68,1,0 // orps 0x1443a(%rip),%xmm11 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
+ .byte 68,15,88,37,2,71,1,0 // addps 0x14702(%rip),%xmm12 # 2a070 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ .byte 15,40,21,11,71,1,0 // movaps 0x1470b(%rip),%xmm2 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,88,29,75,71,1,0 // addps 0x1474b(%rip),%xmm11 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
- .byte 15,40,21,84,71,1,0 // movaps 0x14754(%rip),%xmm2 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 68,15,88,29,11,71,1,0 // addps 0x1470b(%rip),%xmm11 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ .byte 15,40,21,20,71,1,0 // movaps 0x14714(%rip),%xmm2 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
.byte 65,15,94,211 // divps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,65,71,1,0 // addps 0x14741(%rip),%xmm12 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 15,40,21,74,71,1,0 // movaps 0x1474a(%rip),%xmm2 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 68,15,88,37,1,71,1,0 // addps 0x14701(%rip),%xmm12 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ .byte 15,40,21,10,71,1,0 // movaps 0x1470a(%rip),%xmm2 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,40,21,74,71,1,0 // movaps 0x1474a(%rip),%xmm10 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,21,10,71,1,0 // movaps 0x1470a(%rip),%xmm10 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd4c>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,21,79,71,1,0 // movaps 0x1474f(%rip),%xmm2 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 15,40,21,15,71,1,0 // movaps 0x1470f(%rip),%xmm2 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd5c>
.byte 65,15,94,210 // divps %xmm10,%xmm2
.byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 15,89,21,80,71,1,0 // mulps 0x14750(%rip),%xmm2 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 15,89,21,16,71,1,0 // mulps 0x14710(%rip),%xmm2 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd6c>
.byte 102,68,15,91,210 // cvtps2dq %xmm2,%xmm10
.byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2
.byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
@@ -30294,7 +30294,7 @@ _sk_parametric_b_sse41:
.byte 102,65,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm2
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,208 // maxps %xmm0,%xmm2
- .byte 15,93,21,235,67,1,0 // minps 0x143eb(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,93,21,171,67,1,0 // minps 0x143ab(%rip),%xmm2 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -30324,31 +30324,31 @@ _sk_parametric_a_sse41:
.byte 68,15,88,219 // addps %xmm3,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,28,70,1,0 // mulps 0x1461c(%rip),%xmm12 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 68,15,84,29,36,70,1,0 // andps 0x14624(%rip),%xmm11 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 68,15,86,29,92,67,1,0 // orps 0x1435c(%rip),%xmm11 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
- .byte 68,15,88,37,36,70,1,0 // addps 0x14624(%rip),%xmm12 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
- .byte 15,40,29,45,70,1,0 // movaps 0x1462d(%rip),%xmm3 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 68,15,89,37,220,69,1,0 // mulps 0x145dc(%rip),%xmm12 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
+ .byte 68,15,84,29,228,69,1,0 // andps 0x145e4(%rip),%xmm11 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xcdc>
+ .byte 68,15,86,29,28,67,1,0 // orps 0x1431c(%rip),%xmm11 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
+ .byte 68,15,88,37,228,69,1,0 // addps 0x145e4(%rip),%xmm12 # 2a070 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ .byte 15,40,29,237,69,1,0 // movaps 0x145ed(%rip),%xmm3 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,88,29,45,70,1,0 // addps 0x1462d(%rip),%xmm11 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
- .byte 15,40,29,54,70,1,0 // movaps 0x14636(%rip),%xmm3 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 68,15,88,29,237,69,1,0 // addps 0x145ed(%rip),%xmm11 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ .byte 15,40,29,246,69,1,0 // movaps 0x145f6(%rip),%xmm3 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
.byte 65,15,94,219 // divps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,35,70,1,0 // addps 0x14623(%rip),%xmm12 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 15,40,29,44,70,1,0 // movaps 0x1462c(%rip),%xmm3 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 68,15,88,37,227,69,1,0 // addps 0x145e3(%rip),%xmm12 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ .byte 15,40,29,236,69,1,0 // movaps 0x145ec(%rip),%xmm3 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,40,21,44,70,1,0 // movaps 0x1462c(%rip),%xmm10 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,21,236,69,1,0 // movaps 0x145ec(%rip),%xmm10 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd4c>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,29,49,70,1,0 // movaps 0x14631(%rip),%xmm3 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 15,40,29,241,69,1,0 // movaps 0x145f1(%rip),%xmm3 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd5c>
.byte 65,15,94,218 // divps %xmm10,%xmm3
.byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 15,89,29,50,70,1,0 // mulps 0x14632(%rip),%xmm3 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 15,89,29,242,69,1,0 // mulps 0x145f2(%rip),%xmm3 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd6c>
.byte 102,68,15,91,211 // cvtps2dq %xmm3,%xmm10
.byte 243,15,16,88,20 // movss 0x14(%rax),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
@@ -30356,7 +30356,7 @@ _sk_parametric_a_sse41:
.byte 102,65,15,56,20,217 // blendvps %xmm0,%xmm9,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,216 // maxps %xmm0,%xmm3
- .byte 15,93,29,205,66,1,0 // minps 0x142cd(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,93,29,141,66,1,0 // minps 0x1428d(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -30373,20 +30373,20 @@ _sk_gamma_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,5,60,69,1,0 // mulps 0x1453c(%rip),%xmm0 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 68,15,40,53,68,69,1,0 // movaps 0x14544(%rip),%xmm14 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 15,89,5,252,68,1,0 // mulps 0x144fc(%rip),%xmm0 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
+ .byte 68,15,40,53,4,69,1,0 // movaps 0x14504(%rip),%xmm14 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xcdc>
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,37,120,66,1,0 // movaps 0x14278(%rip),%xmm12 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,40,37,56,66,1,0 // movaps 0x14238(%rip),%xmm12 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 65,15,86,212 // orps %xmm12,%xmm2
- .byte 68,15,40,21,60,69,1,0 // movaps 0x1453c(%rip),%xmm10 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 68,15,40,21,252,68,1,0 // movaps 0x144fc(%rip),%xmm10 # 2a070 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,29,64,69,1,0 // movaps 0x14540(%rip),%xmm11 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 68,15,40,29,0,69,1,0 // movaps 0x14500(%rip),%xmm11 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 65,15,89,227 // mulps %xmm11,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 68,15,40,13,62,69,1,0 // movaps 0x1453e(%rip),%xmm9 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 68,15,40,13,254,68,1,0 // movaps 0x144fe(%rip),%xmm9 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 68,15,40,45,66,69,1,0 // movaps 0x14542(%rip),%xmm13 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 68,15,40,45,2,69,1,0 // movaps 0x14502(%rip),%xmm13 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
.byte 65,15,40,229 // movaps %xmm13,%xmm4
.byte 15,94,226 // divps %xmm2,%xmm4
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -30397,21 +30397,21 @@ _sk_gamma_sse41:
.byte 102,15,58,8,208,1 // roundps $0x1,%xmm0,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,53,37,69,1,0 // movaps 0x14525(%rip),%xmm6 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 15,40,53,229,68,1,0 // movaps 0x144e5(%rip),%xmm6 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,61,59,69,1,0 // movaps 0x1453b(%rip),%xmm7 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 15,40,61,251,68,1,0 // movaps 0x144fb(%rip),%xmm7 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd4c>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,37,27,69,1,0 // movaps 0x1451b(%rip),%xmm4 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 15,40,37,219,68,1,0 // movaps 0x144db(%rip),%xmm4 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 68,15,40,61,45,69,1,0 // movaps 0x1452d(%rip),%xmm15 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,40,61,237,68,1,0 // movaps 0x144ed(%rip),%xmm15 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd5c>
.byte 65,15,40,215 // movaps %xmm15,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,5,137,68,1,0 // mulps 0x14489(%rip),%xmm0 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 15,89,5,73,68,1,0 // mulps 0x14449(%rip),%xmm0 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
.byte 65,15,84,206 // andps %xmm14,%xmm1
.byte 65,15,86,204 // orps %xmm12,%xmm1
.byte 65,15,88,194 // addps %xmm10,%xmm0
@@ -30437,8 +30437,8 @@ _sk_gamma_sse41:
.byte 15,94,206 // divps %xmm6,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,5,42,68,1,0 // mulps 0x1442a(%rip),%xmm0 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 15,84,29,51,68,1,0 // andps 0x14433(%rip),%xmm3 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 15,89,5,234,67,1,0 // mulps 0x143ea(%rip),%xmm0 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
+ .byte 15,84,29,243,67,1,0 // andps 0x143f3(%rip),%xmm3 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xcdc>
.byte 65,15,86,220 // orps %xmm12,%xmm3
.byte 65,15,88,194 // addps %xmm10,%xmm0
.byte 68,15,89,219 // mulps %xmm3,%xmm11
@@ -30456,7 +30456,7 @@ _sk_gamma_sse41:
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 68,15,94,255 // divps %xmm7,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 15,40,5,123,68,1,0 // movaps 0x1447b(%rip),%xmm0 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 15,40,5,59,68,1,0 // movaps 0x1443b(%rip),%xmm0 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd6c>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 68,15,89,248 // mulps %xmm0,%xmm15
@@ -30476,29 +30476,29 @@ HIDDEN _sk_lab_to_xyz_sse41
FUNCTION(_sk_lab_to_xyz_sse41)
_sk_lab_to_xyz_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,89,5,75,68,1,0 // mulps 0x1444b(%rip),%xmm8 # 2a140 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
- .byte 68,15,40,13,211,65,1,0 // movaps 0x141d3(%rip),%xmm9 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,89,5,11,68,1,0 // mulps 0x1440b(%rip),%xmm8 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd7c>
+ .byte 68,15,40,13,147,65,1,0 // movaps 0x14193(%rip),%xmm9 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xb0c>
.byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 15,40,5,72,68,1,0 // movaps 0x14448(%rip),%xmm0 # 2a150 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 15,40,5,8,68,1,0 // movaps 0x14408(%rip),%xmm0 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd8c>
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,88,5,70,68,1,0 // addps 0x14446(%rip),%xmm8 # 2a160 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
- .byte 68,15,89,5,78,68,1,0 // mulps 0x1444e(%rip),%xmm8 # 2a170 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
- .byte 15,89,13,87,68,1,0 // mulps 0x14457(%rip),%xmm1 # 2a180 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 68,15,88,5,6,68,1,0 // addps 0x14406(%rip),%xmm8 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd9c>
+ .byte 68,15,89,5,14,68,1,0 // mulps 0x1440e(%rip),%xmm8 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xdac>
+ .byte 15,89,13,23,68,1,0 // mulps 0x14417(%rip),%xmm1 # 2a140 <_sk_srcover_rgba_8888_sse2_lowp+0xdbc>
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 15,89,21,92,68,1,0 // mulps 0x1445c(%rip),%xmm2 # 2a190 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 15,89,21,28,68,1,0 // mulps 0x1441c(%rip),%xmm2 # 2a150 <_sk_srcover_rgba_8888_sse2_lowp+0xdcc>
.byte 69,15,40,208 // movaps %xmm8,%xmm10
.byte 68,15,92,210 // subps %xmm2,%xmm10
.byte 68,15,40,217 // movaps %xmm1,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
.byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 68,15,40,13,80,68,1,0 // movaps 0x14450(%rip),%xmm9 # 2a1a0 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 68,15,40,13,16,68,1,0 // movaps 0x14410(%rip),%xmm9 # 2a160 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 15,40,21,80,68,1,0 // movaps 0x14450(%rip),%xmm2 # 2a1b0 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
+ .byte 15,40,21,16,68,1,0 // movaps 0x14410(%rip),%xmm2 # 2a170 <_sk_srcover_rgba_8888_sse2_lowp+0xdec>
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 68,15,40,37,85,68,1,0 // movaps 0x14455(%rip),%xmm12 # 2a1c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe04>
+ .byte 68,15,40,37,21,68,1,0 // movaps 0x14415(%rip),%xmm12 # 2a180 <_sk_srcover_rgba_8888_sse2_lowp+0xdfc>
.byte 65,15,89,204 // mulps %xmm12,%xmm1
.byte 102,65,15,56,20,203 // blendvps %xmm0,%xmm11,%xmm1
.byte 69,15,40,216 // movaps %xmm8,%xmm11
@@ -30517,8 +30517,8 @@ _sk_lab_to_xyz_sse41:
.byte 65,15,89,212 // mulps %xmm12,%xmm2
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2
- .byte 15,89,13,14,68,1,0 // mulps 0x1440e(%rip),%xmm1 # 2a1d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe14>
- .byte 15,89,21,23,68,1,0 // mulps 0x14417(%rip),%xmm2 # 2a1e0 <_sk_srcover_rgba_8888_sse2_lowp+0xe24>
+ .byte 15,89,13,206,67,1,0 // mulps 0x143ce(%rip),%xmm1 # 2a190 <_sk_srcover_rgba_8888_sse2_lowp+0xe0c>
+ .byte 15,89,21,215,67,1,0 // mulps 0x143d7(%rip),%xmm2 # 2a1a0 <_sk_srcover_rgba_8888_sse2_lowp+0xe1c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,40,200 // movaps %xmm8,%xmm1
@@ -30537,9 +30537,9 @@ _sk_load_a8_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,39 // jne 15e13 <_sk_load_a8_sse41+0x3f>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,165,64,1,0 // pand 0x140a5(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,219,5,101,64,1,0 // pand 0x14065(%rip),%xmm0 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,235,65,1,0 // mulps 0x141eb(%rip),%xmm3 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 15,89,29,171,65,1,0 // mulps 0x141ab(%rip),%xmm3 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -30579,9 +30579,9 @@ _sk_load_a8_dst_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,39 // jne 15e9f <_sk_load_a8_dst_sse41+0x3f>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,25,64,1,0 // pand 0x14019(%rip),%xmm4 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,219,37,217,63,1,0 // pand 0x13fd9(%rip),%xmm4 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,95,65,1,0 // mulps 0x1415f(%rip),%xmm7 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 15,89,61,31,65,1,0 // mulps 0x1411f(%rip),%xmm7 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
@@ -30636,7 +30636,7 @@ _sk_gather_a8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,142,64,1,0 // mulps 0x1408e(%rip),%xmm3 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 15,89,29,78,64,1,0 // mulps 0x1404e(%rip),%xmm3 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -30653,7 +30653,7 @@ _sk_store_a8_sse41:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,68,63,1,0 // movaps 0x13f44(%rip),%xmm8 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,5,4,63,1,0 // movaps 0x13f04(%rip),%xmm8 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xb0c>
.byte 68,15,89,195 // mulps %xmm3,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
@@ -30674,7 +30674,7 @@ _sk_store_a8_sse41:
.byte 65,128,249,3 // cmp $0x3,%r9b
.byte 117,221 // jne 15fae <_sk_store_a8_sse41+0x3d>
.byte 102,71,15,58,20,68,16,2,8 // pextrb $0x8,%xmm8,0x2(%r8,%r10,1)
- .byte 102,68,15,56,0,5,12,66,1,0 // pshufb 0x1420c(%rip),%xmm8 # 2a1f0 <_sk_srcover_rgba_8888_sse2_lowp+0xe34>
+ .byte 102,68,15,56,0,5,204,65,1,0 // pshufb 0x141cc(%rip),%xmm8 # 2a1b0 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
.byte 102,71,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%r10,1)
.byte 235,192 // jmp 15fae <_sk_store_a8_sse41+0x3d>
.byte 102,71,15,58,20,4,16,0 // pextrb $0x0,%xmm8,(%r8,%r10,1)
@@ -30693,11 +30693,11 @@ _sk_load_g8_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,42 // jne 1603a <_sk_load_g8_sse41+0x42>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,129,62,1,0 // pand 0x13e81(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,219,5,65,62,1,0 // pand 0x13e41(%rip),%xmm0 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,199,63,1,0 // mulps 0x13fc7(%rip),%xmm0 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 15,89,5,135,63,1,0 // mulps 0x13f87(%rip),%xmm0 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,190,61,1,0 // movaps 0x13dbe(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,29,126,61,1,0 // movaps 0x13d7e(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -30735,11 +30735,11 @@ _sk_load_g8_dst_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,42 // jne 160c9 <_sk_load_g8_dst_sse41+0x42>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,242,61,1,0 // pand 0x13df2(%rip),%xmm4 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,219,37,178,61,1,0 // pand 0x13db2(%rip),%xmm4 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,56,63,1,0 // mulps 0x13f38(%rip),%xmm4 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 15,89,37,248,62,1,0 // mulps 0x13ef8(%rip),%xmm4 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,47,61,1,0 // movaps 0x13d2f(%rip),%xmm7 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,61,239,60,1,0 // movaps 0x13cef(%rip),%xmm7 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
@@ -30792,9 +30792,9 @@ _sk_gather_g8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,100,62,1,0 // mulps 0x13e64(%rip),%xmm0 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 15,89,5,36,62,1,0 // mulps 0x13e24(%rip),%xmm0 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,91,60,1,0 // movaps 0x13c5b(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,29,27,60,1,0 // movaps 0x13c1b(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -30813,19 +30813,19 @@ _sk_load_565_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,80 // jne 16208 <_sk_load_565_sse41+0x6b>
.byte 102,67,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm2
- .byte 102,15,111,5,57,62,1,0 // movdqa 0x13e39(%rip),%xmm0 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
+ .byte 102,15,111,5,249,61,1,0 // movdqa 0x13df9(%rip),%xmm0 # 29fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc3c>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,59,62,1,0 // mulps 0x13e3b(%rip),%xmm0 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
- .byte 102,15,111,13,67,62,1,0 // movdqa 0x13e43(%rip),%xmm1 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
+ .byte 15,89,5,251,61,1,0 // mulps 0x13dfb(%rip),%xmm0 # 29fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc4c>
+ .byte 102,15,111,13,3,62,1,0 // movdqa 0x13e03(%rip),%xmm1 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc5c>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,69,62,1,0 // mulps 0x13e45(%rip),%xmm1 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
- .byte 102,15,219,21,77,62,1,0 // pand 0x13e4d(%rip),%xmm2 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 15,89,13,5,62,1,0 // mulps 0x13e05(%rip),%xmm1 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc6c>
+ .byte 102,15,219,21,13,62,1,0 // pand 0x13e0d(%rip),%xmm2 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc7c>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,83,62,1,0 // mulps 0x13e53(%rip),%xmm2 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,21,19,62,1,0 // mulps 0x13e13(%rip),%xmm2 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,234,59,1,0 // movaps 0x13bea(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,29,170,59,1,0 // movaps 0x13baa(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
@@ -30861,19 +30861,19 @@ _sk_load_565_dst_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,80 // jne 162c3 <_sk_load_565_dst_sse41+0x6b>
.byte 102,67,15,56,51,52,80 // pmovzxwd (%r8,%r10,2),%xmm6
- .byte 102,15,111,37,126,61,1,0 // movdqa 0x13d7e(%rip),%xmm4 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
+ .byte 102,15,111,37,62,61,1,0 // movdqa 0x13d3e(%rip),%xmm4 # 29fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc3c>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,128,61,1,0 // mulps 0x13d80(%rip),%xmm4 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
- .byte 102,15,111,45,136,61,1,0 // movdqa 0x13d88(%rip),%xmm5 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
+ .byte 15,89,37,64,61,1,0 // mulps 0x13d40(%rip),%xmm4 # 29fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc4c>
+ .byte 102,15,111,45,72,61,1,0 // movdqa 0x13d48(%rip),%xmm5 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc5c>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,138,61,1,0 // mulps 0x13d8a(%rip),%xmm5 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
- .byte 102,15,219,53,146,61,1,0 // pand 0x13d92(%rip),%xmm6 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 15,89,45,74,61,1,0 // mulps 0x13d4a(%rip),%xmm5 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc6c>
+ .byte 102,15,219,53,82,61,1,0 // pand 0x13d52(%rip),%xmm6 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc7c>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,152,61,1,0 // mulps 0x13d98(%rip),%xmm6 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,53,88,61,1,0 // mulps 0x13d58(%rip),%xmm6 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,47,59,1,0 // movaps 0x13b2f(%rip),%xmm7 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,61,239,58,1,0 // movaps 0x13aef(%rip),%xmm7 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
@@ -30922,19 +30922,19 @@ _sk_gather_565_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,208 // pmovzxwd %xmm0,%xmm2
- .byte 102,15,111,5,124,60,1,0 // movdqa 0x13c7c(%rip),%xmm0 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
+ .byte 102,15,111,5,60,60,1,0 // movdqa 0x13c3c(%rip),%xmm0 # 29fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc3c>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,126,60,1,0 // mulps 0x13c7e(%rip),%xmm0 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
- .byte 102,15,111,13,134,60,1,0 // movdqa 0x13c86(%rip),%xmm1 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
+ .byte 15,89,5,62,60,1,0 // mulps 0x13c3e(%rip),%xmm0 # 29fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc4c>
+ .byte 102,15,111,13,70,60,1,0 // movdqa 0x13c46(%rip),%xmm1 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc5c>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,136,60,1,0 // mulps 0x13c88(%rip),%xmm1 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
- .byte 102,15,219,21,144,60,1,0 // pand 0x13c90(%rip),%xmm2 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 15,89,13,72,60,1,0 // mulps 0x13c48(%rip),%xmm1 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc6c>
+ .byte 102,15,219,21,80,60,1,0 // pand 0x13c50(%rip),%xmm2 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc7c>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,150,60,1,0 // mulps 0x13c96(%rip),%xmm2 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,21,86,60,1,0 // mulps 0x13c56(%rip),%xmm2 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,45,58,1,0 // movaps 0x13a2d(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,29,237,57,1,0 // movaps 0x139ed(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse41
@@ -30948,12 +30948,12 @@ _sk_store_565_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,29,62,1,0 // movaps 0x13e1d(%rip),%xmm8 # 2a200 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 68,15,40,5,221,61,1,0 // movaps 0x13ddd(%rip),%xmm8 # 2a1c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe3c>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 68,15,40,21,18,62,1,0 // movaps 0x13e12(%rip),%xmm10 # 2a210 <_sk_srcover_rgba_8888_sse2_lowp+0xe54>
+ .byte 68,15,40,21,210,61,1,0 // movaps 0x13dd2(%rip),%xmm10 # 2a1d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe4c>
.byte 68,15,89,209 // mulps %xmm1,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
@@ -30997,21 +30997,21 @@ _sk_load_4444_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,95 // jne 164ef <_sk_load_4444_sse41+0x7a>
.byte 102,67,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm3
- .byte 102,15,111,5,129,61,1,0 // movdqa 0x13d81(%rip),%xmm0 # 2a220 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
+ .byte 102,15,111,5,65,61,1,0 // movdqa 0x13d41(%rip),%xmm0 # 2a1e0 <_sk_srcover_rgba_8888_sse2_lowp+0xe5c>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,131,61,1,0 // mulps 0x13d83(%rip),%xmm0 # 2a230 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
- .byte 102,15,111,13,139,61,1,0 // movdqa 0x13d8b(%rip),%xmm1 # 2a240 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
+ .byte 15,89,5,67,61,1,0 // mulps 0x13d43(%rip),%xmm0 # 2a1f0 <_sk_srcover_rgba_8888_sse2_lowp+0xe6c>
+ .byte 102,15,111,13,75,61,1,0 // movdqa 0x13d4b(%rip),%xmm1 # 2a200 <_sk_srcover_rgba_8888_sse2_lowp+0xe7c>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,141,61,1,0 // mulps 0x13d8d(%rip),%xmm1 # 2a250 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
- .byte 102,15,111,21,149,61,1,0 // movdqa 0x13d95(%rip),%xmm2 # 2a260 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 15,89,13,77,61,1,0 // mulps 0x13d4d(%rip),%xmm1 # 2a210 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ .byte 102,15,111,21,85,61,1,0 // movdqa 0x13d55(%rip),%xmm2 # 2a220 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,151,61,1,0 // mulps 0x13d97(%rip),%xmm2 # 2a270 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
- .byte 102,15,219,29,159,61,1,0 // pand 0x13d9f(%rip),%xmm3 # 2a280 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
+ .byte 15,89,21,87,61,1,0 // mulps 0x13d57(%rip),%xmm2 # 2a230 <_sk_srcover_rgba_8888_sse2_lowp+0xeac>
+ .byte 102,15,219,29,95,61,1,0 // pand 0x13d5f(%rip),%xmm3 # 2a240 <_sk_srcover_rgba_8888_sse2_lowp+0xebc>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,165,61,1,0 // mulps 0x13da5(%rip),%xmm3 # 2a290 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+ .byte 15,89,29,101,61,1,0 // mulps 0x13d65(%rip),%xmm3 # 2a250 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -31048,21 +31048,21 @@ _sk_load_4444_dst_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,95 // jne 165b9 <_sk_load_4444_dst_sse41+0x7a>
.byte 102,67,15,56,51,60,80 // pmovzxwd (%r8,%r10,2),%xmm7
- .byte 102,15,111,37,183,60,1,0 // movdqa 0x13cb7(%rip),%xmm4 # 2a220 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
+ .byte 102,15,111,37,119,60,1,0 // movdqa 0x13c77(%rip),%xmm4 # 2a1e0 <_sk_srcover_rgba_8888_sse2_lowp+0xe5c>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,185,60,1,0 // mulps 0x13cb9(%rip),%xmm4 # 2a230 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
- .byte 102,15,111,45,193,60,1,0 // movdqa 0x13cc1(%rip),%xmm5 # 2a240 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
+ .byte 15,89,37,121,60,1,0 // mulps 0x13c79(%rip),%xmm4 # 2a1f0 <_sk_srcover_rgba_8888_sse2_lowp+0xe6c>
+ .byte 102,15,111,45,129,60,1,0 // movdqa 0x13c81(%rip),%xmm5 # 2a200 <_sk_srcover_rgba_8888_sse2_lowp+0xe7c>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,195,60,1,0 // mulps 0x13cc3(%rip),%xmm5 # 2a250 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
- .byte 102,15,111,53,203,60,1,0 // movdqa 0x13ccb(%rip),%xmm6 # 2a260 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 15,89,45,131,60,1,0 // mulps 0x13c83(%rip),%xmm5 # 2a210 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ .byte 102,15,111,53,139,60,1,0 // movdqa 0x13c8b(%rip),%xmm6 # 2a220 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,205,60,1,0 // mulps 0x13ccd(%rip),%xmm6 # 2a270 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
- .byte 102,15,219,61,213,60,1,0 // pand 0x13cd5(%rip),%xmm7 # 2a280 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
+ .byte 15,89,53,141,60,1,0 // mulps 0x13c8d(%rip),%xmm6 # 2a230 <_sk_srcover_rgba_8888_sse2_lowp+0xeac>
+ .byte 102,15,219,61,149,60,1,0 // pand 0x13c95(%rip),%xmm7 # 2a240 <_sk_srcover_rgba_8888_sse2_lowp+0xebc>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,219,60,1,0 // mulps 0x13cdb(%rip),%xmm7 # 2a290 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+ .byte 15,89,61,155,60,1,0 // mulps 0x13c9b(%rip),%xmm7 # 2a250 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -31112,21 +31112,21 @@ _sk_gather_4444_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,216 // pmovzxwd %xmm0,%xmm3
- .byte 102,15,111,5,166,59,1,0 // movdqa 0x13ba6(%rip),%xmm0 # 2a220 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
+ .byte 102,15,111,5,102,59,1,0 // movdqa 0x13b66(%rip),%xmm0 # 2a1e0 <_sk_srcover_rgba_8888_sse2_lowp+0xe5c>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,168,59,1,0 // mulps 0x13ba8(%rip),%xmm0 # 2a230 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
- .byte 102,15,111,13,176,59,1,0 // movdqa 0x13bb0(%rip),%xmm1 # 2a240 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
+ .byte 15,89,5,104,59,1,0 // mulps 0x13b68(%rip),%xmm0 # 2a1f0 <_sk_srcover_rgba_8888_sse2_lowp+0xe6c>
+ .byte 102,15,111,13,112,59,1,0 // movdqa 0x13b70(%rip),%xmm1 # 2a200 <_sk_srcover_rgba_8888_sse2_lowp+0xe7c>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,178,59,1,0 // mulps 0x13bb2(%rip),%xmm1 # 2a250 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
- .byte 102,15,111,21,186,59,1,0 // movdqa 0x13bba(%rip),%xmm2 # 2a260 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 15,89,13,114,59,1,0 // mulps 0x13b72(%rip),%xmm1 # 2a210 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ .byte 102,15,111,21,122,59,1,0 // movdqa 0x13b7a(%rip),%xmm2 # 2a220 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,188,59,1,0 // mulps 0x13bbc(%rip),%xmm2 # 2a270 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
- .byte 102,15,219,29,196,59,1,0 // pand 0x13bc4(%rip),%xmm3 # 2a280 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
+ .byte 15,89,21,124,59,1,0 // mulps 0x13b7c(%rip),%xmm2 # 2a230 <_sk_srcover_rgba_8888_sse2_lowp+0xeac>
+ .byte 102,15,219,29,132,59,1,0 // pand 0x13b84(%rip),%xmm3 # 2a240 <_sk_srcover_rgba_8888_sse2_lowp+0xebc>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,202,59,1,0 // mulps 0x13bca(%rip),%xmm3 # 2a290 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+ .byte 15,89,29,138,59,1,0 // mulps 0x13b8a(%rip),%xmm3 # 2a250 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -31141,7 +31141,7 @@ _sk_store_4444_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,184,59,1,0 // movaps 0x13bb8(%rip),%xmm8 # 2a2a0 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 68,15,40,5,120,59,1,0 // movaps 0x13b78(%rip),%xmm8 # 2a260 <_sk_srcover_rgba_8888_sse2_lowp+0xedc>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -31195,17 +31195,17 @@ _sk_load_8888_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,89 // jne 16803 <_sk_load_8888_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,232,54,1,0 // movdqa 0x136e8(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,111,5,168,54,1,0 // movdqa 0x136a8(%rip),%xmm0 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,41,56,1,0 // movaps 0x13829(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,40,5,233,55,1,0 // movaps 0x137e9(%rip),%xmm8 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,216,54,1,0 // pshufb 0x136d8(%rip),%xmm1 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
+ .byte 102,15,56,0,13,152,54,1,0 // pshufb 0x13698(%rip),%xmm1 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xaec>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,212,54,1,0 // pshufb 0x136d4(%rip),%xmm2 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
+ .byte 102,15,56,0,21,148,54,1,0 // pshufb 0x13694(%rip),%xmm2 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xafc>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -31244,17 +31244,17 @@ _sk_load_8888_dst_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,89 // jne 168bd <_sk_load_8888_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,46,54,1,0 // movdqa 0x1362e(%rip),%xmm4 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,111,37,238,53,1,0 // movdqa 0x135ee(%rip),%xmm4 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,111,55,1,0 // movaps 0x1376f(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,40,5,47,55,1,0 // movaps 0x1372f(%rip),%xmm8 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,30,54,1,0 // pshufb 0x1361e(%rip),%xmm5 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
+ .byte 102,15,56,0,45,222,53,1,0 // pshufb 0x135de(%rip),%xmm5 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xaec>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,26,54,1,0 // pshufb 0x1361a(%rip),%xmm6 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
+ .byte 102,15,56,0,53,218,53,1,0 // pshufb 0x135da(%rip),%xmm6 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xafc>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -31301,17 +31301,17 @@ _sk_gather_8888_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,62,53,1,0 // movdqa 0x1353e(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,111,5,254,52,1,0 // movdqa 0x134fe(%rip),%xmm0 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,127,54,1,0 // movaps 0x1367f(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,40,5,63,54,1,0 // movaps 0x1363f(%rip),%xmm8 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,46,53,1,0 // pshufb 0x1352e(%rip),%xmm1 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
+ .byte 102,15,56,0,13,238,52,1,0 // pshufb 0x134ee(%rip),%xmm1 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xaec>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,42,53,1,0 // pshufb 0x1352a(%rip),%xmm2 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
+ .byte 102,15,56,0,21,234,52,1,0 // pshufb 0x134ea(%rip),%xmm2 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xafc>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -31331,7 +31331,7 @@ _sk_store_8888_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,4,53,1,0 // movaps 0x13504(%rip),%xmm8 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,5,196,52,1,0 // movaps 0x134c4(%rip),%xmm8 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xb0c>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -31382,17 +31382,17 @@ _sk_load_bgra_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,89 // jne 16ad3 <_sk_load_bgra_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,24,52,1,0 // movdqa 0x13418(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,111,5,216,51,1,0 // movdqa 0x133d8(%rip),%xmm0 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,89,53,1,0 // movaps 0x13559(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,40,5,25,53,1,0 // movaps 0x13519(%rip),%xmm8 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,8,52,1,0 // pshufb 0x13408(%rip),%xmm0 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
+ .byte 102,15,56,0,5,200,51,1,0 // pshufb 0x133c8(%rip),%xmm0 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xaec>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,4,52,1,0 // pshufb 0x13404(%rip),%xmm0 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
+ .byte 102,15,56,0,5,196,51,1,0 // pshufb 0x133c4(%rip),%xmm0 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xafc>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -31431,17 +31431,17 @@ _sk_load_bgra_dst_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,89 // jne 16b8d <_sk_load_bgra_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,94,51,1,0 // movdqa 0x1335e(%rip),%xmm4 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,111,37,30,51,1,0 // movdqa 0x1331e(%rip),%xmm4 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 68,15,40,5,159,52,1,0 // movaps 0x1349f(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,40,5,95,52,1,0 // movaps 0x1345f(%rip),%xmm8 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,78,51,1,0 // pshufb 0x1334e(%rip),%xmm4 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
+ .byte 102,15,56,0,37,14,51,1,0 // pshufb 0x1330e(%rip),%xmm4 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xaec>
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,74,51,1,0 // pshufb 0x1334a(%rip),%xmm4 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
+ .byte 102,15,56,0,37,10,51,1,0 // pshufb 0x1330a(%rip),%xmm4 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xafc>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -31488,17 +31488,17 @@ _sk_gather_bgra_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,110,50,1,0 // movdqa 0x1326e(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,111,5,46,50,1,0 // movdqa 0x1322e(%rip),%xmm0 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,175,51,1,0 // movaps 0x133af(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,40,5,111,51,1,0 // movaps 0x1336f(%rip),%xmm8 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,94,50,1,0 // pshufb 0x1325e(%rip),%xmm0 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
+ .byte 102,15,56,0,5,30,50,1,0 // pshufb 0x1321e(%rip),%xmm0 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xaec>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,90,50,1,0 // pshufb 0x1325a(%rip),%xmm0 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
+ .byte 102,15,56,0,5,26,50,1,0 // pshufb 0x1321a(%rip),%xmm0 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xafc>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -31518,7 +31518,7 @@ _sk_store_bgra_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,52,50,1,0 // movaps 0x13234(%rip),%xmm8 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,5,244,49,1,0 // movaps 0x131f4(%rip),%xmm8 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xb0c>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -31577,19 +31577,19 @@ _sk_load_f16_sse41:
.byte 102,68,15,97,224 // punpcklwd %xmm0,%xmm12
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,41,53,1,0 // movdqa 0x13529(%rip),%xmm8 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 102,68,15,111,5,233,52,1,0 // movdqa 0x134e9(%rip),%xmm8 # 2a270 <_sk_srcover_rgba_8888_sse2_lowp+0xeec>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,39,53,1,0 // movdqa 0x13527(%rip),%xmm10 # 2a2c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
+ .byte 102,68,15,111,21,231,52,1,0 // movdqa 0x134e7(%rip),%xmm10 # 2a280 <_sk_srcover_rgba_8888_sse2_lowp+0xefc>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,42,53,1,0 // movdqa 0x1352a(%rip),%xmm3 # 2a2d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 102,15,111,29,234,52,1,0 // movdqa 0x134ea(%rip),%xmm3 # 2a290 <_sk_srcover_rgba_8888_sse2_lowp+0xf0c>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,22,53,1,0 // movdqa 0x13516(%rip),%xmm11 # 2a2e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
+ .byte 102,68,15,111,29,214,52,1,0 // movdqa 0x134d6(%rip),%xmm11 # 2a2a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf1c>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -31665,19 +31665,19 @@ _sk_load_f16_dst_sse41:
.byte 102,68,15,97,228 // punpcklwd %xmm4,%xmm12
.byte 102,68,15,105,204 // punpckhwd %xmm4,%xmm9
.byte 102,65,15,56,51,244 // pmovzxwd %xmm12,%xmm6
- .byte 102,68,15,111,5,139,51,1,0 // movdqa 0x1338b(%rip),%xmm8 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 102,68,15,111,5,75,51,1,0 // movdqa 0x1334b(%rip),%xmm8 # 2a270 <_sk_srcover_rgba_8888_sse2_lowp+0xeec>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,219,232 // pand %xmm8,%xmm5
- .byte 102,68,15,111,21,137,51,1,0 // movdqa 0x13389(%rip),%xmm10 # 2a2c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
+ .byte 102,68,15,111,21,73,51,1,0 // movdqa 0x13349(%rip),%xmm10 # 2a280 <_sk_srcover_rgba_8888_sse2_lowp+0xefc>
.byte 102,65,15,219,242 // pand %xmm10,%xmm6
- .byte 102,15,111,61,140,51,1,0 // movdqa 0x1338c(%rip),%xmm7 # 2a2d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 102,15,111,61,76,51,1,0 // movdqa 0x1334c(%rip),%xmm7 # 2a290 <_sk_srcover_rgba_8888_sse2_lowp+0xf0c>
.byte 102,15,114,245,16 // pslld $0x10,%xmm5
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,56,63,231 // pmaxud %xmm7,%xmm4
.byte 102,15,118,230 // pcmpeqd %xmm6,%xmm4
.byte 102,15,114,246,13 // pslld $0xd,%xmm6
.byte 102,15,235,245 // por %xmm5,%xmm6
- .byte 102,68,15,111,29,120,51,1,0 // movdqa 0x13378(%rip),%xmm11 # 2a2e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
+ .byte 102,68,15,111,29,56,51,1,0 // movdqa 0x13338(%rip),%xmm11 # 2a2a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf1c>
.byte 102,65,15,254,243 // paddd %xmm11,%xmm6
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 102,65,15,112,236,238 // pshufd $0xee,%xmm12,%xmm5
@@ -31762,19 +31762,19 @@ _sk_gather_f16_sse41:
.byte 102,68,15,97,226 // punpcklwd %xmm2,%xmm12
.byte 102,68,15,105,202 // punpckhwd %xmm2,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,192,49,1,0 // movdqa 0x131c0(%rip),%xmm8 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 102,68,15,111,5,128,49,1,0 // movdqa 0x13180(%rip),%xmm8 # 2a270 <_sk_srcover_rgba_8888_sse2_lowp+0xeec>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,190,49,1,0 // movdqa 0x131be(%rip),%xmm10 # 2a2c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
+ .byte 102,68,15,111,21,126,49,1,0 // movdqa 0x1317e(%rip),%xmm10 # 2a280 <_sk_srcover_rgba_8888_sse2_lowp+0xefc>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,193,49,1,0 // movdqa 0x131c1(%rip),%xmm3 # 2a2d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 102,15,111,29,129,49,1,0 // movdqa 0x13181(%rip),%xmm3 # 2a290 <_sk_srcover_rgba_8888_sse2_lowp+0xf0c>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,173,49,1,0 // movdqa 0x131ad(%rip),%xmm11 # 2a2e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
+ .byte 102,68,15,111,29,109,49,1,0 // movdqa 0x1316d(%rip),%xmm11 # 2a2a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf1c>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -31827,20 +31827,20 @@ _sk_store_f16_sse41:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 102,68,15,111,13,213,48,1,0 // movdqa 0x130d5(%rip),%xmm9 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 102,68,15,111,13,149,48,1,0 // movdqa 0x13095(%rip),%xmm9 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf2c>
.byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,210,48,1,0 // movdqa 0x130d2(%rip),%xmm11 # 2a300 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
+ .byte 102,68,15,111,29,146,48,1,0 // movdqa 0x13092(%rip),%xmm11 # 2a2c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf3c>
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,69,15,219,235 // pand %xmm11,%xmm13
- .byte 102,68,15,111,21,207,48,1,0 // movdqa 0x130cf(%rip),%xmm10 # 2a310 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
+ .byte 102,68,15,111,21,143,48,1,0 // movdqa 0x1308f(%rip),%xmm10 # 2a2d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
.byte 102,65,15,114,212,16 // psrld $0x10,%xmm12
.byte 102,69,15,111,197 // movdqa %xmm13,%xmm8
.byte 102,69,15,56,63,194 // pmaxud %xmm10,%xmm8
.byte 102,69,15,118,197 // pcmpeqd %xmm13,%xmm8
.byte 102,65,15,114,213,13 // psrld $0xd,%xmm13
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
- .byte 102,68,15,111,37,181,48,1,0 // movdqa 0x130b5(%rip),%xmm12 # 2a320 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,68,15,111,37,117,48,1,0 // movdqa 0x13075(%rip),%xmm12 # 2a2e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf5c>
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
.byte 102,69,15,219,197 // pand %xmm13,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
@@ -31930,7 +31930,7 @@ _sk_load_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,125,44,1,0 // movaps 0x12c7d(%rip),%xmm8 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 68,15,40,5,61,44,1,0 // movaps 0x12c3d(%rip),%xmm8 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xcbc>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -32004,7 +32004,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,76,43,1,0 // movaps 0x12b4c(%rip),%xmm8 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 68,15,40,5,12,43,1,0 // movaps 0x12b0c(%rip),%xmm8 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xcbc>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -32021,7 +32021,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,115,40,1,0 // movaps 0x12873(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,29,51,40,1,0 // movaps 0x12833(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -32055,7 +32055,7 @@ _sk_store_u16_be_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 68,15,40,21,44,45,1,0 // movaps 0x12d2c(%rip),%xmm10 # 2a330 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 68,15,40,21,236,44,1,0 // movaps 0x12cec(%rip),%xmm10 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf6c>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
@@ -32330,7 +32330,7 @@ _sk_mirror_x_sse41:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,26,34,1,0 // mulss 0x1221a(%rip),%xmm9 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 243,68,15,89,13,218,33,1,0 // mulss 0x121da(%rip),%xmm9 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -32361,7 +32361,7 @@ _sk_mirror_y_sse41:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,168,33,1,0 // mulss 0x121a8(%rip),%xmm9 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 243,68,15,89,13,104,33,1,0 // mulss 0x12168(%rip),%xmm9 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -32386,7 +32386,7 @@ FUNCTION(_sk_clamp_x_1_sse41)
_sk_clamp_x_1_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,95,35,1,0 // minps 0x1235f(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,93,5,31,35,1,0 // minps 0x1231f(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -32404,9 +32404,9 @@ HIDDEN _sk_mirror_x_1_sse41
.globl _sk_mirror_x_1_sse41
FUNCTION(_sk_mirror_x_1_sse41)
_sk_mirror_x_1_sse41:
- .byte 68,15,40,5,160,35,1,0 // movaps 0x123a0(%rip),%xmm8 # 29e50 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,96,35,1,0 // movaps 0x12360(%rip),%xmm8 # 29e10 <_sk_srcover_rgba_8888_sse2_lowp+0xa8c>
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,13,36,35,1,0 // movaps 0x12324(%rip),%xmm9 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,40,13,228,34,1,0 // movaps 0x122e4(%rip),%xmm9 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
.byte 69,15,88,201 // addps %xmm9,%xmm9
@@ -32423,10 +32423,10 @@ HIDDEN _sk_luminance_to_alpha_sse41
FUNCTION(_sk_luminance_to_alpha_sse41)
_sk_luminance_to_alpha_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,83,40,1,0 // mulps 0x12853(%rip),%xmm0 # 2a340 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
- .byte 15,89,13,92,40,1,0 // mulps 0x1285c(%rip),%xmm1 # 2a350 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 15,89,5,19,40,1,0 // mulps 0x12813(%rip),%xmm0 # 2a300 <_sk_srcover_rgba_8888_sse2_lowp+0xf7c>
+ .byte 15,89,13,28,40,1,0 // mulps 0x1281c(%rip),%xmm1 # 2a310 <_sk_srcover_rgba_8888_sse2_lowp+0xf8c>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,98,40,1,0 // mulps 0x12862(%rip),%xmm3 # 2a360 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
+ .byte 15,89,29,34,40,1,0 // mulps 0x12822(%rip),%xmm3 # 2a320 <_sk_srcover_rgba_8888_sse2_lowp+0xf9c>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -32829,15 +32829,15 @@ HIDDEN _sk_gauss_a_to_rgba_sse41
.globl _sk_gauss_a_to_rgba_sse41
FUNCTION(_sk_gauss_a_to_rgba_sse41)
_sk_gauss_a_to_rgba_sse41:
- .byte 15,40,5,17,34,1,0 // movaps 0x12211(%rip),%xmm0 # 2a370 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
+ .byte 15,40,5,209,33,1,0 // movaps 0x121d1(%rip),%xmm0 # 2a330 <_sk_srcover_rgba_8888_sse2_lowp+0xfac>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,23,34,1,0 // addps 0x12217(%rip),%xmm0 # 2a380 <_sk_srcover_rgba_8888_sse2_lowp+0xfc4>
+ .byte 15,88,5,215,33,1,0 // addps 0x121d7(%rip),%xmm0 # 2a340 <_sk_srcover_rgba_8888_sse2_lowp+0xfbc>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,29,34,1,0 // addps 0x1221d(%rip),%xmm0 # 2a390 <_sk_srcover_rgba_8888_sse2_lowp+0xfd4>
+ .byte 15,88,5,221,33,1,0 // addps 0x121dd(%rip),%xmm0 # 2a350 <_sk_srcover_rgba_8888_sse2_lowp+0xfcc>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,35,34,1,0 // addps 0x12223(%rip),%xmm0 # 2a3a0 <_sk_srcover_rgba_8888_sse2_lowp+0xfe4>
+ .byte 15,88,5,227,33,1,0 // addps 0x121e3(%rip),%xmm0 # 2a360 <_sk_srcover_rgba_8888_sse2_lowp+0xfdc>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,41,34,1,0 // addps 0x12229(%rip),%xmm0 # 2a3b0 <_sk_srcover_rgba_8888_sse2_lowp+0xff4>
+ .byte 15,88,5,233,33,1,0 // addps 0x121e9(%rip),%xmm0 # 2a370 <_sk_srcover_rgba_8888_sse2_lowp+0xfec>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
@@ -32994,26 +32994,26 @@ _sk_xy_to_unit_angle_sse41:
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,237 // mulps %xmm13,%xmm13
- .byte 68,15,40,21,160,31,1,0 // movaps 0x11fa0(%rip),%xmm10 # 2a3c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1004>
+ .byte 68,15,40,21,96,31,1,0 // movaps 0x11f60(%rip),%xmm10 # 2a380 <_sk_srcover_rgba_8888_sse2_lowp+0xffc>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,164,31,1,0 // addps 0x11fa4(%rip),%xmm10 # 2a3d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1014>
+ .byte 68,15,88,21,100,31,1,0 // addps 0x11f64(%rip),%xmm10 # 2a390 <_sk_srcover_rgba_8888_sse2_lowp+0x100c>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,168,31,1,0 // addps 0x11fa8(%rip),%xmm10 # 2a3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1024>
+ .byte 68,15,88,21,104,31,1,0 // addps 0x11f68(%rip),%xmm10 # 2a3a0 <_sk_srcover_rgba_8888_sse2_lowp+0x101c>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,172,31,1,0 // addps 0x11fac(%rip),%xmm10 # 2a3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1034>
+ .byte 68,15,88,21,108,31,1,0 // addps 0x11f6c(%rip),%xmm10 # 2a3b0 <_sk_srcover_rgba_8888_sse2_lowp+0x102c>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 68,15,40,29,171,31,1,0 // movaps 0x11fab(%rip),%xmm11 # 2a400 <_sk_srcover_rgba_8888_sse2_lowp+0x1044>
+ .byte 68,15,40,29,107,31,1,0 // movaps 0x11f6b(%rip),%xmm11 # 2a3c0 <_sk_srcover_rgba_8888_sse2_lowp+0x103c>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9
- .byte 68,15,40,29,116,25,1,0 // movaps 0x11974(%rip),%xmm11 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,40,29,52,25,1,0 // movaps 0x11934(%rip),%xmm11 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,194,192,1 // cmpltps %xmm8,%xmm0
- .byte 68,15,40,13,102,25,1,0 // movaps 0x11966(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,13,38,25,1,0 // movaps 0x11926(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 102,69,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm10
.byte 69,15,194,194,7 // cmpordps %xmm10,%xmm8
@@ -33047,7 +33047,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,31,31,1,0 // mulps 0x11f1f(%rip),%xmm9 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
+ .byte 68,15,89,13,223,30,1,0 // mulps 0x11edf(%rip),%xmm9 # 2a3d0 <_sk_srcover_rgba_8888_sse2_lowp+0x104c>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -33055,7 +33055,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,10,31,1,0 // mulps 0x11f0a(%rip),%xmm10 # 2a420 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
+ .byte 68,15,89,21,202,30,1,0 // mulps 0x11eca(%rip),%xmm10 # 2a3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x105c>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -33064,8 +33064,8 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,178,29,1,0 // xorps 0x11db2(%rip),%xmm9 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
- .byte 68,15,89,5,154,24,1,0 // mulps 0x1189a(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,87,13,114,29,1,0 // xorps 0x11d72(%rip),%xmm9 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf2c>
+ .byte 68,15,89,5,90,24,1,0 // mulps 0x1185a(%rip),%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -33086,7 +33086,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,129,30,1,0 // mulps 0x11e81(%rip),%xmm9 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
+ .byte 68,15,89,13,65,30,1,0 // mulps 0x11e41(%rip),%xmm9 # 2a3d0 <_sk_srcover_rgba_8888_sse2_lowp+0x104c>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -33094,7 +33094,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,108,30,1,0 // mulps 0x11e6c(%rip),%xmm10 # 2a420 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
+ .byte 68,15,89,21,44,30,1,0 // mulps 0x11e2c(%rip),%xmm10 # 2a3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x105c>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -33103,8 +33103,8 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,20,29,1,0 // xorps 0x11d14(%rip),%xmm9 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
- .byte 68,15,89,5,252,23,1,0 // mulps 0x117fc(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,87,13,212,28,1,0 // xorps 0x11cd4(%rip),%xmm9 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf2c>
+ .byte 68,15,89,5,188,23,1,0 // mulps 0x117bc(%rip),%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -33122,7 +33122,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,244,29,1,0 // mulps 0x11df4(%rip),%xmm9 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
+ .byte 68,15,89,13,180,29,1,0 // mulps 0x11db4(%rip),%xmm9 # 2a3d0 <_sk_srcover_rgba_8888_sse2_lowp+0x104c>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -33130,7 +33130,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,176,28,1,0 // xorps 0x11cb0(%rip),%xmm0 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 15,87,5,112,28,1,0 // xorps 0x11c70(%rip),%xmm0 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf2c>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33173,7 +33173,7 @@ HIDDEN _sk_save_xy_sse41
FUNCTION(_sk_save_xy_sse41)
_sk_save_xy_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,54,23,1,0 // movaps 0x11736(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,40,5,246,22,1,0 // movaps 0x116f6(%rip),%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -33217,8 +33217,8 @@ _sk_bilinear_nx_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,248,28,1,0 // addps 0x11cf8(%rip),%xmm0 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
- .byte 68,15,40,13,176,22,1,0 // movaps 0x116b0(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,88,5,184,28,1,0 // addps 0x11cb8(%rip),%xmm0 # 2a3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x106c>
+ .byte 68,15,40,13,112,22,1,0 // movaps 0x11670(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33231,7 +33231,7 @@ _sk_bilinear_px_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,127,22,1,0 // addps 0x1167f(%rip),%xmm0 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,88,5,63,22,1,0 // addps 0x1163f(%rip),%xmm0 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33243,8 +33243,8 @@ _sk_bilinear_ny_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,177,28,1,0 // addps 0x11cb1(%rip),%xmm1 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
- .byte 68,15,40,13,105,22,1,0 // movaps 0x11669(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,88,13,113,28,1,0 // addps 0x11c71(%rip),%xmm1 # 2a3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x106c>
+ .byte 68,15,40,13,41,22,1,0 // movaps 0x11629(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33257,7 +33257,7 @@ _sk_bilinear_py_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,55,22,1,0 // addps 0x11637(%rip),%xmm1 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,88,13,247,21,1,0 // addps 0x115f7(%rip),%xmm1 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33269,13 +33269,13 @@ _sk_bicubic_n3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,122,28,1,0 // addps 0x11c7a(%rip),%xmm0 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
- .byte 68,15,40,13,34,22,1,0 // movaps 0x11622(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,88,5,58,28,1,0 // addps 0x11c3a(%rip),%xmm0 # 2a400 <_sk_srcover_rgba_8888_sse2_lowp+0x107c>
+ .byte 68,15,40,13,226,21,1,0 // movaps 0x115e2(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,110,28,1,0 // mulps 0x11c6e(%rip),%xmm9 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
- .byte 68,15,88,13,246,23,1,0 // addps 0x117f6(%rip),%xmm9 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
+ .byte 68,15,89,13,46,28,1,0 // mulps 0x11c2e(%rip),%xmm9 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x108c>
+ .byte 68,15,88,13,182,23,1,0 // addps 0x117b6(%rip),%xmm9 # 29fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xc1c>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33288,16 +33288,16 @@ _sk_bicubic_n1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,37,28,1,0 // addps 0x11c25(%rip),%xmm0 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
- .byte 68,15,40,13,221,21,1,0 // movaps 0x115dd(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,88,5,229,27,1,0 // addps 0x11be5(%rip),%xmm0 # 2a3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x106c>
+ .byte 68,15,40,13,157,21,1,0 // movaps 0x1159d(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,65,28,1,0 // movaps 0x11c41(%rip),%xmm8 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,40,5,1,28,1,0 // movaps 0x11c01(%rip),%xmm8 # 2a420 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,69,28,1,0 // addps 0x11c45(%rip),%xmm8 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,88,5,5,28,1,0 // addps 0x11c05(%rip),%xmm8 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,169,21,1,0 // addps 0x115a9(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,88,5,105,21,1,0 // addps 0x11569(%rip),%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,61,28,1,0 // addps 0x11c3d(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 68,15,88,5,253,27,1,0 // addps 0x11bfd(%rip),%xmm8 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x10bc>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33307,17 +33307,17 @@ HIDDEN _sk_bicubic_p1x_sse41
FUNCTION(_sk_bicubic_p1x_sse41)
_sk_bicubic_p1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,135,21,1,0 // movaps 0x11587(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,40,5,71,21,1,0 // movaps 0x11547(%rip),%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,243,27,1,0 // movaps 0x11bf3(%rip),%xmm10 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,40,21,179,27,1,0 // movaps 0x11bb3(%rip),%xmm10 # 2a420 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,247,27,1,0 // addps 0x11bf7(%rip),%xmm10 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,88,21,183,27,1,0 // addps 0x11bb7(%rip),%xmm10 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,243,27,1,0 // addps 0x11bf3(%rip),%xmm10 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 68,15,88,21,179,27,1,0 // addps 0x11bb3(%rip),%xmm10 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x10bc>
.byte 68,15,17,144,128,0,0,0 // movups %xmm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33329,11 +33329,11 @@ _sk_bicubic_p3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,198,27,1,0 // addps 0x11bc6(%rip),%xmm0 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 15,88,5,134,27,1,0 // addps 0x11b86(%rip),%xmm0 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,150,27,1,0 // mulps 0x11b96(%rip),%xmm8 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
- .byte 68,15,88,5,30,23,1,0 // addps 0x1171e(%rip),%xmm8 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
+ .byte 68,15,89,5,86,27,1,0 // mulps 0x11b56(%rip),%xmm8 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x108c>
+ .byte 68,15,88,5,222,22,1,0 // addps 0x116de(%rip),%xmm8 # 29fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xc1c>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33346,13 +33346,13 @@ _sk_bicubic_n3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,92,27,1,0 // addps 0x11b5c(%rip),%xmm1 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
- .byte 68,15,40,13,4,21,1,0 // movaps 0x11504(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,88,13,28,27,1,0 // addps 0x11b1c(%rip),%xmm1 # 2a400 <_sk_srcover_rgba_8888_sse2_lowp+0x107c>
+ .byte 68,15,40,13,196,20,1,0 // movaps 0x114c4(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,80,27,1,0 // mulps 0x11b50(%rip),%xmm9 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
- .byte 68,15,88,13,216,22,1,0 // addps 0x116d8(%rip),%xmm9 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
+ .byte 68,15,89,13,16,27,1,0 // mulps 0x11b10(%rip),%xmm9 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x108c>
+ .byte 68,15,88,13,152,22,1,0 // addps 0x11698(%rip),%xmm9 # 29fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xc1c>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33365,16 +33365,16 @@ _sk_bicubic_n1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,6,27,1,0 // addps 0x11b06(%rip),%xmm1 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
- .byte 68,15,40,13,190,20,1,0 // movaps 0x114be(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,88,13,198,26,1,0 // addps 0x11ac6(%rip),%xmm1 # 2a3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x106c>
+ .byte 68,15,40,13,126,20,1,0 // movaps 0x1147e(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,34,27,1,0 // movaps 0x11b22(%rip),%xmm8 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,40,5,226,26,1,0 // movaps 0x11ae2(%rip),%xmm8 # 2a420 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,38,27,1,0 // addps 0x11b26(%rip),%xmm8 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,88,5,230,26,1,0 // addps 0x11ae6(%rip),%xmm8 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,138,20,1,0 // addps 0x1148a(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,88,5,74,20,1,0 // addps 0x1144a(%rip),%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,30,27,1,0 // addps 0x11b1e(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 68,15,88,5,222,26,1,0 // addps 0x11ade(%rip),%xmm8 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x10bc>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33384,17 +33384,17 @@ HIDDEN _sk_bicubic_p1y_sse41
FUNCTION(_sk_bicubic_p1y_sse41)
_sk_bicubic_p1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,104,20,1,0 // movaps 0x11468(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,40,5,40,20,1,0 // movaps 0x11428(%rip),%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,211,26,1,0 // movaps 0x11ad3(%rip),%xmm10 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,40,21,147,26,1,0 // movaps 0x11a93(%rip),%xmm10 # 2a420 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,215,26,1,0 // addps 0x11ad7(%rip),%xmm10 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,88,21,151,26,1,0 // addps 0x11a97(%rip),%xmm10 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,211,26,1,0 // addps 0x11ad3(%rip),%xmm10 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 68,15,88,21,147,26,1,0 // addps 0x11a93(%rip),%xmm10 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x10bc>
.byte 68,15,17,144,160,0,0,0 // movups %xmm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33406,11 +33406,11 @@ _sk_bicubic_p3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,165,26,1,0 // addps 0x11aa5(%rip),%xmm1 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 15,88,13,101,26,1,0 // addps 0x11a65(%rip),%xmm1 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,117,26,1,0 // mulps 0x11a75(%rip),%xmm8 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
- .byte 68,15,88,5,253,21,1,0 // addps 0x115fd(%rip),%xmm8 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
+ .byte 68,15,89,5,53,26,1,0 // mulps 0x11a35(%rip),%xmm8 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x108c>
+ .byte 68,15,88,5,189,21,1,0 // addps 0x115bd(%rip),%xmm8 # 29fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xc1c>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33521,7 +33521,7 @@ _sk_clut_3D_sse41:
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,68,36,208 // movaps %xmm0,-0x30(%rsp)
.byte 243,15,91,240 // cvttps2dq %xmm0,%xmm6
- .byte 15,40,37,96,25,1,0 // movaps 0x11960(%rip),%xmm4 # 2a490 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+ .byte 15,40,37,32,25,1,0 // movaps 0x11920(%rip),%xmm4 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x10cc>
.byte 15,88,196 // addps %xmm4,%xmm0
.byte 15,41,68,36,176 // movaps %xmm0,-0x50(%rsp)
.byte 102,65,15,110,208 // movd %r8d,%xmm2
@@ -33560,7 +33560,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,56,64,192 // pmulld %xmm0,%xmm8
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,68,15,111,37,183,24,1,0 // movdqa 0x118b7(%rip),%xmm12 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 102,68,15,111,37,119,24,1,0 // movdqa 0x11877(%rip),%xmm12 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
.byte 102,65,15,56,64,220 // pmulld %xmm12,%xmm3
.byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
@@ -33583,7 +33583,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,15,111,37,187,17,1,0 // movdqa 0x111bb(%rip),%xmm4 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,15,111,37,123,17,1,0 // movdqa 0x1117b(%rip),%xmm4 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,15,254,220 // paddd %xmm4,%xmm3
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
@@ -33756,7 +33756,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,254,202 // paddd %xmm2,%xmm9
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,65,15,254,193 // paddd %xmm9,%xmm0
- .byte 102,15,111,45,198,20,1,0 // movdqa 0x114c6(%rip),%xmm5 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 102,15,111,45,134,20,1,0 // movdqa 0x11486(%rip),%xmm5 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
.byte 102,15,56,64,197 // pmulld %xmm5,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -33777,7 +33777,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,61,215,13,1,0 // movdqa 0x10dd7(%rip),%xmm7 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,15,111,61,151,13,1,0 // movdqa 0x10d97(%rip),%xmm7 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,15,254,199 // paddd %xmm7,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -33843,7 +33843,7 @@ _sk_clut_3D_sse41:
.byte 15,88,248 // addps %xmm0,%xmm7
.byte 102,68,15,254,210 // paddd %xmm2,%xmm10
.byte 102,69,15,254,194 // paddd %xmm10,%xmm8
- .byte 102,15,111,13,2,19,1,0 // movdqa 0x11302(%rip),%xmm1 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 102,15,111,13,194,18,1,0 // movdqa 0x112c2(%rip),%xmm1 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
.byte 102,68,15,56,64,193 // pmulld %xmm1,%xmm8
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
@@ -33864,7 +33864,7 @@ _sk_clut_3D_sse41:
.byte 102,69,15,58,22,193,1 // pextrd $0x1,%xmm8,%r9d
.byte 102,69,15,58,22,194,2 // pextrd $0x2,%xmm8,%r10d
.byte 102,69,15,58,22,195,3 // pextrd $0x3,%xmm8,%r11d
- .byte 102,15,111,21,13,12,1,0 // movdqa 0x10c0d(%rip),%xmm2 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,15,111,21,205,11,1,0 // movdqa 0x10bcd(%rip),%xmm2 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,68,15,254,194 // paddd %xmm2,%xmm8
.byte 102,76,15,58,22,193,1 // pextrq $0x1,%xmm8,%rcx
.byte 102,76,15,126,195 // movq %xmm8,%rbx
@@ -33991,7 +33991,7 @@ _sk_clut_4D_sse41:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,41,76,36,48 // movaps %xmm1,0x30(%rsp)
.byte 243,15,91,249 // cvttps2dq %xmm1,%xmm7
- .byte 15,40,29,96,16,1,0 // movaps 0x11060(%rip),%xmm3 # 2a490 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+ .byte 15,40,29,32,16,1,0 // movaps 0x11020(%rip),%xmm3 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x10cc>
.byte 15,88,203 // addps %xmm3,%xmm1
.byte 15,41,76,36,160 // movaps %xmm1,-0x60(%rsp)
.byte 102,65,15,110,232 // movd %r8d,%xmm5
@@ -34048,7 +34048,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,56,64,253 // pmulld %xmm5,%xmm15
.byte 102,65,15,111,223 // movdqa %xmm15,%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,29,95,15,1,0 // movdqa 0x10f5f(%rip),%xmm11 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 102,68,15,111,29,31,15,1,0 // movdqa 0x10f1f(%rip),%xmm11 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
.byte 102,65,15,56,64,219 // pmulld %xmm11,%xmm3
.byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
.byte 102,15,111,243 // movdqa %xmm3,%xmm6
@@ -34070,7 +34070,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,68,15,111,21,103,8,1,0 // movdqa 0x10867(%rip),%xmm10 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,68,15,111,21,39,8,1,0 // movdqa 0x10827(%rip),%xmm10 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,65,15,254,218 // paddd %xmm10,%xmm3
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
@@ -34088,7 +34088,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,201 // paddd %xmm9,%xmm1
.byte 102,65,15,56,64,203 // pmulld %xmm11,%xmm1
.byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,250,29,149,14,1,0 // psubd 0x10e95(%rip),%xmm3 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 102,15,250,29,85,14,1,0 // psubd 0x10e55(%rip),%xmm3 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
.byte 65,137,223 // mov %ebx,%r15d
@@ -34143,7 +34143,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,199 // paddd %xmm15,%xmm0
.byte 102,65,15,56,64,195 // pmulld %xmm11,%xmm0
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,250,45,117,13,1,0 // psubd 0x10d75(%rip),%xmm5 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 102,15,250,45,53,13,1,0 // psubd 0x10d35(%rip),%xmm5 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
.byte 102,72,15,58,22,233,1 // pextrq $0x1,%xmm5,%rcx
.byte 102,72,15,126,237 // movq %xmm5,%rbp
@@ -34268,7 +34268,7 @@ _sk_clut_4D_sse41:
.byte 72,193,233,32 // shr $0x20,%rcx
.byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4
.byte 102,68,15,58,33,220,48 // insertps $0x30,%xmm4,%xmm11
- .byte 102,15,111,61,89,4,1,0 // movdqa 0x10459(%rip),%xmm7 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,15,111,61,25,4,1,0 // movdqa 0x10419(%rip),%xmm7 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,15,254,223 // paddd %xmm7,%xmm3
.byte 102,72,15,58,22,217,1 // pextrq $0x1,%xmm3,%rcx
.byte 102,72,15,126,221 // movq %xmm3,%rbp
@@ -34354,7 +34354,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,68,15,111,21,157,2,1,0 // movdqa 0x1029d(%rip),%xmm10 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,68,15,111,21,93,2,1,0 // movdqa 0x1025d(%rip),%xmm10 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -34450,7 +34450,7 @@ _sk_clut_4D_sse41:
.byte 102,15,111,124,36,192 // movdqa -0x40(%rsp),%xmm7
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,21,55,7,1,0 // movdqa 0x10737(%rip),%xmm2 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 102,15,111,21,247,6,1,0 // movdqa 0x106f7(%rip),%xmm2 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
.byte 102,15,56,64,194 // pmulld %xmm2,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
@@ -34471,7 +34471,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,37,70,0,1,0 // movdqa 0x10046(%rip),%xmm4 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,15,111,37,6,0,1,0 // movdqa 0x10006(%rip),%xmm4 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,15,254,196 // paddd %xmm4,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -34543,7 +34543,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,65,15,56,64,204 // pmulld %xmm12,%xmm1
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,250,21,98,5,1,0 // psubd 0x10562(%rip),%xmm2 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 102,15,250,21,34,5,1,0 // psubd 0x10522(%rip),%xmm2 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
.byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx
.byte 102,72,15,126,213 // movq %xmm2,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -34577,7 +34577,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,249 // movdqa %xmm9,%xmm7
.byte 102,69,15,56,64,236 // pmulld %xmm12,%xmm13
.byte 102,65,15,111,205 // movdqa %xmm13,%xmm1
- .byte 102,15,250,13,174,4,1,0 // psubd 0x104ae(%rip),%xmm1 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 102,15,250,13,110,4,1,0 // psubd 0x1046e(%rip),%xmm1 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -34642,7 +34642,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
.byte 102,15,111,108,36,192 // movdqa -0x40(%rsp),%xmm5
.byte 102,15,254,205 // paddd %xmm5,%xmm1
- .byte 102,15,111,37,69,3,1,0 // movdqa 0x10345(%rip),%xmm4 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 102,15,111,37,5,3,1,0 // movdqa 0x10305(%rip),%xmm4 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
.byte 102,15,56,64,204 // pmulld %xmm4,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -34663,7 +34663,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,15,111,29,86,252,0,0 // movdqa 0xfc56(%rip),%xmm3 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,15,111,29,22,252,0,0 // movdqa 0xfc16(%rip),%xmm3 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -34735,7 +34735,7 @@ _sk_clut_4D_sse41:
.byte 102,15,56,64,239 // pmulld %xmm7,%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,118,1,1,0 // psubd 0x10176(%rip),%xmm0 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 102,15,250,5,54,1,1,0 // psubd 0x10136(%rip),%xmm0 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -34753,7 +34753,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,254,5,132,250,0,0 // paddd 0xfa84(%rip),%xmm0 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,15,254,5,68,250,0,0 // paddd 0xfa44(%rip),%xmm0 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -34769,7 +34769,7 @@ _sk_clut_4D_sse41:
.byte 102,15,254,84,36,176 // paddd -0x50(%rsp),%xmm2
.byte 102,15,56,64,215 // pmulld %xmm7,%xmm2
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,250,5,189,0,1,0 // psubd 0x100bd(%rip),%xmm0 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 102,15,250,5,125,0,1,0 // psubd 0x1007d(%rip),%xmm0 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -34787,7 +34787,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,199,1 // pextrd $0x1,%xmm0,%r15d
.byte 102,65,15,58,22,196,2 // pextrd $0x2,%xmm0,%r12d
.byte 102,65,15,58,22,198,3 // pextrd $0x3,%xmm0,%r14d
- .byte 102,15,254,5,203,249,0,0 // paddd 0xf9cb(%rip),%xmm0 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,15,254,5,139,249,0,0 // paddd 0xf98b(%rip),%xmm0 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,72,15,58,22,195,1 // pextrq $0x1,%xmm0,%rbx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,233 // mov %ebp,%ecx
@@ -34850,7 +34850,7 @@ _sk_clut_4D_sse41:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,211 // addps %xmm11,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,136,248,0,0 // movaps 0xf888(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,29,72,248,0,0 // movaps 0xf848(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 72,139,76,36,248 // mov -0x8(%rsp),%rcx
.byte 15,40,100,36,64 // movaps 0x40(%rsp),%xmm4
.byte 15,40,108,36,80 // movaps 0x50(%rsp),%xmm5
@@ -34935,13 +34935,13 @@ _sk_seed_shader_sse2:
.byte 102,15,110,194 // movd %edx,%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,88,5,151,247,0,0 // addps 0xf797(%rip),%xmm0 # 29dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa14>
+ .byte 15,88,5,87,247,0,0 // addps 0xf757(%rip),%xmm0 # 29d90 <_sk_srcover_rgba_8888_sse2_lowp+0xa0c>
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,148,247,0,0 // addps 0xf794(%rip),%xmm1 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,88,13,84,247,0,0 // addps 0xf754(%rip),%xmm1 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,155,247,0,0 // movaps 0xf79b(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,21,91,247,0,0 // movaps 0xf75b(%rip),%xmm2 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -34956,18 +34956,18 @@ _sk_dither_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,52,247,0,0 // paddd 0xf734(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 102,68,15,254,5,244,246,0,0 // paddd 0xf6f4(%rip),%xmm8 # 29d70 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,107,247,0,0 // movdqa 0xf76b(%rip),%xmm10 # 29e00 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
+ .byte 102,68,15,111,21,43,247,0,0 // movdqa 0xf72b(%rip),%xmm10 # 29dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa3c>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,87,247,0,0 // movdqa 0xf757(%rip),%xmm12 # 29e10 <_sk_srcover_rgba_8888_sse2_lowp+0xa54>
- .byte 102,68,15,111,45,94,247,0,0 // movdqa 0xf75e(%rip),%xmm13 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,68,15,111,37,23,247,0,0 // movdqa 0xf717(%rip),%xmm12 # 29dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa4c>
+ .byte 102,68,15,111,45,30,247,0,0 // movdqa 0xf71e(%rip),%xmm13 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -34983,8 +34983,8 @@ _sk_dither_sse2:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,25,247,0,0 // mulps 0xf719(%rip),%xmm8 # 29e30 <_sk_srcover_rgba_8888_sse2_lowp+0xa74>
- .byte 68,15,88,5,33,247,0,0 // addps 0xf721(%rip),%xmm8 # 29e40 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,89,5,217,246,0,0 // mulps 0xf6d9(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa6c>
+ .byte 68,15,88,5,225,246,0,0 // addps 0xf6e1(%rip),%xmm8 # 29e00 <_sk_srcover_rgba_8888_sse2_lowp+0xa7c>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -35026,7 +35026,7 @@ HIDDEN _sk_black_color_sse2
FUNCTION(_sk_black_color_sse2)
_sk_black_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,87,246,0,0 // movaps 0xf657(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,29,23,246,0,0 // movaps 0xf617(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -35037,7 +35037,7 @@ HIDDEN _sk_white_color_sse2
FUNCTION(_sk_white_color_sse2)
_sk_white_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,67,246,0,0 // movaps 0xf643(%rip),%xmm0 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,5,3,246,0,0 // movaps 0xf603(%rip),%xmm0 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -35083,7 +35083,7 @@ HIDDEN _sk_srcatop_sse2
FUNCTION(_sk_srcatop_sse2)
_sk_srcatop_sse2:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,243,245,0,0 // movaps 0xf5f3(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,179,245,0,0 // movaps 0xf5b3(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -35108,7 +35108,7 @@ FUNCTION(_sk_dstatop_sse2)
_sk_dstatop_sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,166,245,0,0 // movaps 0xf5a6(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,13,102,245,0,0 // movaps 0xf566(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -35155,7 +35155,7 @@ HIDDEN _sk_srcout_sse2
.globl _sk_srcout_sse2
FUNCTION(_sk_srcout_sse2)
_sk_srcout_sse2:
- .byte 68,15,40,5,58,245,0,0 // movaps 0xf53a(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,250,244,0,0 // movaps 0xf4fa(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -35168,7 +35168,7 @@ HIDDEN _sk_dstout_sse2
.globl _sk_dstout_sse2
FUNCTION(_sk_dstout_sse2)
_sk_dstout_sse2:
- .byte 68,15,40,5,26,245,0,0 // movaps 0xf51a(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,218,244,0,0 // movaps 0xf4da(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -35185,7 +35185,7 @@ HIDDEN _sk_srcover_sse2
.globl _sk_srcover_sse2
FUNCTION(_sk_srcover_sse2)
_sk_srcover_sse2:
- .byte 68,15,40,5,237,244,0,0 // movaps 0xf4ed(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,173,244,0,0 // movaps 0xf4ad(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -35205,7 +35205,7 @@ HIDDEN _sk_dstover_sse2
.globl _sk_dstover_sse2
FUNCTION(_sk_dstover_sse2)
_sk_dstover_sse2:
- .byte 68,15,40,5,177,244,0,0 // movaps 0xf4b1(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,113,244,0,0 // movaps 0xf471(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -35233,7 +35233,7 @@ HIDDEN _sk_multiply_sse2
.globl _sk_multiply_sse2
FUNCTION(_sk_multiply_sse2)
_sk_multiply_sse2:
- .byte 68,15,40,5,117,244,0,0 // movaps 0xf475(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,53,244,0,0 // movaps 0xf435(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -35271,7 +35271,7 @@ HIDDEN _sk_plus__sse2
FUNCTION(_sk_plus__sse2)
_sk_plus__sse2:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,246,243,0,0 // movaps 0xf3f6(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,182,243,0,0 // movaps 0xf3b6(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -35313,7 +35313,7 @@ HIDDEN _sk_xor__sse2
FUNCTION(_sk_xor__sse2)
_sk_xor__sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,130,243,0,0 // movaps 0xf382(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,29,66,243,0,0 // movaps 0xf342(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -35361,7 +35361,7 @@ _sk_darken_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,221,242,0,0 // movaps 0xf2dd(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,21,157,242,0,0 // movaps 0xf29d(%rip),%xmm2 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35395,7 +35395,7 @@ _sk_lighten_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,114,242,0,0 // movaps 0xf272(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,21,50,242,0,0 // movaps 0xf232(%rip),%xmm2 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35432,7 +35432,7 @@ _sk_difference_sse2:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,252,241,0,0 // movaps 0xf1fc(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,21,188,241,0,0 // movaps 0xf1bc(%rip),%xmm2 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35460,7 +35460,7 @@ _sk_exclusion_sse2:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,172,241,0,0 // movaps 0xf1ac(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,21,108,241,0,0 // movaps 0xf16c(%rip),%xmm2 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35473,7 +35473,7 @@ HIDDEN _sk_colorburn_sse2
FUNCTION(_sk_colorburn_sse2)
_sk_colorburn_sse2:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,13,143,241,0,0 // movaps 0xf18f(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,13,79,241,0,0 // movaps 0xf14f(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -35568,7 +35568,7 @@ HIDDEN _sk_colordodge_sse2
FUNCTION(_sk_colordodge_sse2)
_sk_colordodge_sse2:
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,55,240,0,0 // movaps 0xf037(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,21,247,239,0,0 // movaps 0xeff7(%rip),%xmm10 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -35660,7 +35660,7 @@ _sk_hardlight_sse2:
.byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp)
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 68,15,40,29,224,238,0,0 // movaps 0xeee0(%rip),%xmm11 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,29,160,238,0,0 // movaps 0xeea0(%rip),%xmm11 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,194 // movaps %xmm10,%xmm8
@@ -35748,7 +35748,7 @@ FUNCTION(_sk_overlay_sse2)
_sk_overlay_sse2:
.byte 68,15,40,193 // movaps %xmm1,%xmm8
.byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 68,15,40,13,158,237,0,0 // movaps 0xed9e(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,13,94,237,0,0 // movaps 0xed5e(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -35839,7 +35839,7 @@ _sk_softlight_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 68,15,94,215 // divps %xmm7,%xmm10
.byte 69,15,84,212 // andps %xmm12,%xmm10
- .byte 68,15,40,13,75,236,0,0 // movaps 0xec4b(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,13,11,236,0,0 // movaps 0xec0b(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 69,15,92,250 // subps %xmm10,%xmm15
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -35852,10 +35852,10 @@ _sk_softlight_sse2:
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,53,117,236,0,0 // movaps 0xec75(%rip),%xmm14 # 29e50 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,53,53,236,0,0 // movaps 0xec35(%rip),%xmm14 # 29e10 <_sk_srcover_rgba_8888_sse2_lowp+0xa8c>
.byte 69,15,88,222 // addps %xmm14,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,40,21,117,236,0,0 // movaps 0xec75(%rip),%xmm10 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
+ .byte 68,15,40,21,53,236,0,0 // movaps 0xec35(%rip),%xmm10 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa9c>
.byte 69,15,89,234 // mulps %xmm10,%xmm13
.byte 69,15,88,235 // addps %xmm11,%xmm13
.byte 15,88,228 // addps %xmm4,%xmm4
@@ -36000,7 +36000,7 @@ _sk_hue_sse2:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 68,15,40,5,8,234,0,0 // movaps 0xea08(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,200,233,0,0 // movaps 0xe9c8(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 15,40,207 // movaps %xmm7,%xmm1
.byte 68,15,92,217 // subps %xmm1,%xmm11
@@ -36048,12 +36048,12 @@ _sk_hue_sse2:
.byte 69,15,84,206 // andps %xmm14,%xmm9
.byte 69,15,84,214 // andps %xmm14,%xmm10
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,61,197,233,0,0 // movaps 0xe9c5(%rip),%xmm15 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
+ .byte 68,15,40,61,133,233,0,0 // movaps 0xe985(%rip),%xmm15 # 29e30 <_sk_srcover_rgba_8888_sse2_lowp+0xaac>
.byte 65,15,89,231 // mulps %xmm15,%xmm4
- .byte 15,40,5,202,233,0,0 // movaps 0xe9ca(%rip),%xmm0 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 15,40,5,138,233,0,0 // movaps 0xe98a(%rip),%xmm0 # 29e40 <_sk_srcover_rgba_8888_sse2_lowp+0xabc>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
- .byte 68,15,40,53,204,233,0,0 // movaps 0xe9cc(%rip),%xmm14 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
+ .byte 68,15,40,53,140,233,0,0 // movaps 0xe98c(%rip),%xmm14 # 29e50 <_sk_srcover_rgba_8888_sse2_lowp+0xacc>
.byte 68,15,40,239 // movaps %xmm7,%xmm13
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 68,15,88,238 // addps %xmm6,%xmm13
@@ -36231,14 +36231,14 @@ _sk_saturation_sse2:
.byte 68,15,84,211 // andps %xmm3,%xmm10
.byte 68,15,84,203 // andps %xmm3,%xmm9
.byte 15,84,195 // andps %xmm3,%xmm0
- .byte 68,15,40,5,30,231,0,0 // movaps 0xe71e(%rip),%xmm8 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
+ .byte 68,15,40,5,222,230,0,0 // movaps 0xe6de(%rip),%xmm8 # 29e30 <_sk_srcover_rgba_8888_sse2_lowp+0xaac>
.byte 15,40,214 // movaps %xmm6,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,40,13,32,231,0,0 // movaps 0xe720(%rip),%xmm1 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 15,40,13,224,230,0,0 // movaps 0xe6e0(%rip),%xmm1 # 29e40 <_sk_srcover_rgba_8888_sse2_lowp+0xabc>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,217 // mulps %xmm1,%xmm3
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 68,15,40,37,31,231,0,0 // movaps 0xe71f(%rip),%xmm12 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
+ .byte 68,15,40,37,223,230,0,0 // movaps 0xe6df(%rip),%xmm12 # 29e50 <_sk_srcover_rgba_8888_sse2_lowp+0xacc>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
.byte 65,15,40,210 // movaps %xmm10,%xmm2
@@ -36283,7 +36283,7 @@ _sk_saturation_sse2:
.byte 15,40,223 // movaps %xmm7,%xmm3
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 68,15,40,5,212,229,0,0 // movaps 0xe5d4(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,148,229,0,0 // movaps 0xe594(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 15,88,253 // addps %xmm5,%xmm7
@@ -36384,14 +36384,14 @@ _sk_color_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 68,15,40,45,226,228,0,0 // movaps 0xe4e2(%rip),%xmm13 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
+ .byte 68,15,40,45,162,228,0,0 // movaps 0xe4a2(%rip),%xmm13 # 29e30 <_sk_srcover_rgba_8888_sse2_lowp+0xaac>
.byte 68,15,40,198 // movaps %xmm6,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,40,53,226,228,0,0 // movaps 0xe4e2(%rip),%xmm14 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 68,15,40,53,162,228,0,0 // movaps 0xe4a2(%rip),%xmm14 # 29e40 <_sk_srcover_rgba_8888_sse2_lowp+0xabc>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,29,222,228,0,0 // movaps 0xe4de(%rip),%xmm11 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
+ .byte 68,15,40,29,158,228,0,0 // movaps 0xe49e(%rip),%xmm11 # 29e50 <_sk_srcover_rgba_8888_sse2_lowp+0xacc>
.byte 69,15,89,227 // mulps %xmm11,%xmm12
.byte 68,15,88,224 // addps %xmm0,%xmm12
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -36399,7 +36399,7 @@ _sk_color_sse2:
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 68,15,40,5,26,228,0,0 // movaps 0xe41a(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,218,227,0,0 // movaps 0xe3da(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
.byte 15,89,252 // mulps %xmm4,%xmm7
@@ -36535,15 +36535,15 @@ _sk_luminosity_sse2:
.byte 68,15,40,205 // movaps %xmm5,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
.byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 68,15,40,37,161,226,0,0 // movaps 0xe2a1(%rip),%xmm12 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
+ .byte 68,15,40,37,97,226,0,0 // movaps 0xe261(%rip),%xmm12 # 29e30 <_sk_srcover_rgba_8888_sse2_lowp+0xaac>
.byte 68,15,40,199 // movaps %xmm7,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,161,226,0,0 // movaps 0xe2a1(%rip),%xmm13 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 68,15,40,45,97,226,0,0 // movaps 0xe261(%rip),%xmm13 # 29e40 <_sk_srcover_rgba_8888_sse2_lowp+0xabc>
.byte 68,15,40,241 // movaps %xmm1,%xmm14
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,88,240 // addps %xmm8,%xmm14
- .byte 68,15,40,29,157,226,0,0 // movaps 0xe29d(%rip),%xmm11 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
- .byte 68,15,40,5,245,225,0,0 // movaps 0xe1f5(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,29,93,226,0,0 // movaps 0xe25d(%rip),%xmm11 # 29e50 <_sk_srcover_rgba_8888_sse2_lowp+0xacc>
+ .byte 68,15,40,5,181,225,0,0 // movaps 0xe1b5(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 68,15,92,248 // subps %xmm0,%xmm15
@@ -36687,7 +36687,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 15,133,228,0,0,0 // jne 1bee6 <_sk_srcover_rgba_8888_sse2+0x104>
.byte 243,69,15,111,4,128 // movdqu (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,53,141,224,0,0 // movdqa 0xe08d(%rip),%xmm6 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,111,53,77,224,0,0 // movdqa 0xe04d(%rip),%xmm6 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 102,65,15,111,224 // movdqa %xmm8,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
@@ -36701,9 +36701,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,248 // cvtdq2ps %xmm8,%xmm7
- .byte 68,15,40,5,157,223,0,0 // movaps 0xdf9d(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,93,223,0,0 // movaps 0xdf5d(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,113,224,0,0 // movaps 0xe071(%rip),%xmm12 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,37,49,224,0,0 // movaps 0xe031(%rip),%xmm12 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xb0c>
.byte 65,15,89,196 // mulps %xmm12,%xmm0
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -36783,7 +36783,7 @@ HIDDEN _sk_clamp_1_sse2
.globl _sk_clamp_1_sse2
FUNCTION(_sk_clamp_1_sse2)
_sk_clamp_1_sse2:
- .byte 68,15,40,5,109,222,0,0 // movaps 0xde6d(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,45,222,0,0 // movaps 0xde2d(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -36795,7 +36795,7 @@ HIDDEN _sk_clamp_a_sse2
.globl _sk_clamp_a_sse2
FUNCTION(_sk_clamp_a_sse2)
_sk_clamp_a_sse2:
- .byte 15,93,29,82,222,0,0 // minps 0xde52(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,93,29,18,222,0,0 // minps 0xde12(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -36806,7 +36806,7 @@ HIDDEN _sk_clamp_a_dst_sse2
.globl _sk_clamp_a_dst_sse2
FUNCTION(_sk_clamp_a_dst_sse2)
_sk_clamp_a_dst_sse2:
- .byte 15,93,61,62,222,0,0 // minps 0xde3e(%rip),%xmm7 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,93,61,254,221,0,0 // minps 0xddfe(%rip),%xmm7 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -36841,7 +36841,7 @@ HIDDEN _sk_invert_sse2
.globl _sk_invert_sse2
FUNCTION(_sk_invert_sse2)
_sk_invert_sse2:
- .byte 68,15,40,5,250,221,0,0 // movaps 0xddfa(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,5,186,221,0,0 // movaps 0xddba(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -36903,7 +36903,7 @@ HIDDEN _sk_unpremul_sse2
FUNCTION(_sk_unpremul_sse2)
_sk_unpremul_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,40,13,132,221,0,0 // movaps 0xdd84(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,13,68,221,0,0 // movaps 0xdd44(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,94,203 // divps %xmm3,%xmm9
.byte 68,15,194,195,4 // cmpneqps %xmm3,%xmm8
.byte 69,15,84,193 // andps %xmm9,%xmm8
@@ -36917,20 +36917,20 @@ HIDDEN _sk_from_srgb_sse2
.globl _sk_from_srgb_sse2
FUNCTION(_sk_from_srgb_sse2)
_sk_from_srgb_sse2:
- .byte 68,15,40,5,79,222,0,0 // movaps 0xde4f(%rip),%xmm8 # 29ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 68,15,40,5,15,222,0,0 // movaps 0xde0f(%rip),%xmm8 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xb1c>
.byte 68,15,40,232 // movaps %xmm0,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,199,221,0,0 // movaps 0xddc7(%rip),%xmm9 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
+ .byte 68,15,40,13,135,221,0,0 // movaps 0xdd87(%rip),%xmm9 # 29e30 <_sk_srcover_rgba_8888_sse2_lowp+0xaac>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,55,222,0,0 // movaps 0xde37(%rip),%xmm10 # 29ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+ .byte 68,15,40,21,247,221,0,0 // movaps 0xddf7(%rip),%xmm10 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb2c>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,55,222,0,0 // movaps 0xde37(%rip),%xmm11 # 29f00 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 68,15,40,29,247,221,0,0 // movaps 0xddf7(%rip),%xmm11 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb3c>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,59,222,0,0 // movaps 0xde3b(%rip),%xmm12 # 29f10 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 68,15,40,37,251,221,0,0 // movaps 0xddfb(%rip),%xmm12 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb4c>
.byte 65,15,194,196,1 // cmpltps %xmm12,%xmm0
.byte 68,15,84,232 // andps %xmm0,%xmm13
.byte 65,15,85,198 // andnps %xmm14,%xmm0
@@ -36966,20 +36966,20 @@ HIDDEN _sk_from_srgb_dst_sse2
.globl _sk_from_srgb_dst_sse2
FUNCTION(_sk_from_srgb_dst_sse2)
_sk_from_srgb_dst_sse2:
- .byte 68,15,40,5,140,221,0,0 // movaps 0xdd8c(%rip),%xmm8 # 29ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 68,15,40,5,76,221,0,0 // movaps 0xdd4c(%rip),%xmm8 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xb1c>
.byte 68,15,40,236 // movaps %xmm4,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,220 // movaps %xmm4,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,4,221,0,0 // movaps 0xdd04(%rip),%xmm9 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
+ .byte 68,15,40,13,196,220,0,0 // movaps 0xdcc4(%rip),%xmm9 # 29e30 <_sk_srcover_rgba_8888_sse2_lowp+0xaac>
.byte 68,15,40,244 // movaps %xmm4,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,116,221,0,0 // movaps 0xdd74(%rip),%xmm10 # 29ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+ .byte 68,15,40,21,52,221,0,0 // movaps 0xdd34(%rip),%xmm10 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb2c>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,116,221,0,0 // movaps 0xdd74(%rip),%xmm11 # 29f00 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 68,15,40,29,52,221,0,0 // movaps 0xdd34(%rip),%xmm11 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb3c>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,120,221,0,0 // movaps 0xdd78(%rip),%xmm12 # 29f10 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 68,15,40,37,56,221,0,0 // movaps 0xdd38(%rip),%xmm12 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb4c>
.byte 65,15,194,228,1 // cmpltps %xmm12,%xmm4
.byte 68,15,84,236 // andps %xmm4,%xmm13
.byte 65,15,85,230 // andnps %xmm14,%xmm4
@@ -37016,22 +37016,22 @@ HIDDEN _sk_to_srgb_sse2
FUNCTION(_sk_to_srgb_sse2)
_sk_to_srgb_sse2:
.byte 68,15,82,232 // rsqrtps %xmm0,%xmm13
- .byte 68,15,40,5,5,221,0,0 // movaps 0xdd05(%rip),%xmm8 # 29f20 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
+ .byte 68,15,40,5,197,220,0,0 // movaps 0xdcc5(%rip),%xmm8 # 29ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xb5c>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,240 // mulps %xmm8,%xmm14
- .byte 68,15,40,13,5,221,0,0 // movaps 0xdd05(%rip),%xmm9 # 29f30 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,13,197,220,0,0 // movaps 0xdcc5(%rip),%xmm9 # 29ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xb6c>
.byte 69,15,40,253 // movaps %xmm13,%xmm15
.byte 69,15,89,249 // mulps %xmm9,%xmm15
- .byte 68,15,40,21,5,221,0,0 // movaps 0xdd05(%rip),%xmm10 # 29f40 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
+ .byte 68,15,40,21,197,220,0,0 // movaps 0xdcc5(%rip),%xmm10 # 29f00 <_sk_srcover_rgba_8888_sse2_lowp+0xb7c>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,253 // mulps %xmm13,%xmm15
- .byte 68,15,40,29,5,221,0,0 // movaps 0xdd05(%rip),%xmm11 # 29f50 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
+ .byte 68,15,40,29,197,220,0,0 // movaps 0xdcc5(%rip),%xmm11 # 29f10 <_sk_srcover_rgba_8888_sse2_lowp+0xb8c>
.byte 69,15,88,251 // addps %xmm11,%xmm15
- .byte 68,15,40,37,9,221,0,0 // movaps 0xdd09(%rip),%xmm12 # 29f60 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
+ .byte 68,15,40,37,201,220,0,0 // movaps 0xdcc9(%rip),%xmm12 # 29f20 <_sk_srcover_rgba_8888_sse2_lowp+0xb9c>
.byte 69,15,88,236 // addps %xmm12,%xmm13
.byte 69,15,83,237 // rcpps %xmm13,%xmm13
.byte 69,15,89,239 // mulps %xmm15,%xmm13
- .byte 68,15,40,61,5,221,0,0 // movaps 0xdd05(%rip),%xmm15 # 29f70 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
+ .byte 68,15,40,61,197,220,0,0 // movaps 0xdcc5(%rip),%xmm15 # 29f30 <_sk_srcover_rgba_8888_sse2_lowp+0xbac>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,197 // andnps %xmm13,%xmm0
@@ -37083,7 +37083,7 @@ _sk_rgb_to_hsl_sse2:
.byte 68,15,93,216 // minps %xmm0,%xmm11
.byte 65,15,40,202 // movaps %xmm10,%xmm1
.byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 68,15,40,45,200,218,0,0 // movaps 0xdac8(%rip),%xmm13 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,45,136,218,0,0 // movaps 0xda88(%rip),%xmm13 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 68,15,94,233 // divps %xmm1,%xmm13
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,194,192,0 // cmpeqps %xmm8,%xmm0
@@ -37092,30 +37092,30 @@ _sk_rgb_to_hsl_sse2:
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,40,241 // movaps %xmm9,%xmm14
.byte 68,15,194,242,1 // cmpltps %xmm2,%xmm14
- .byte 68,15,84,53,46,220,0,0 // andps 0xdc2e(%rip),%xmm14 # 29f80 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
+ .byte 68,15,84,53,238,219,0,0 // andps 0xdbee(%rip),%xmm14 # 29f40 <_sk_srcover_rgba_8888_sse2_lowp+0xbbc>
.byte 69,15,88,244 // addps %xmm12,%xmm14
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,194,249,0 // cmpeqps %xmm9,%xmm15
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 68,15,40,37,33,220,0,0 // movaps 0xdc21(%rip),%xmm12 # 29f90 <_sk_srcover_rgba_8888_sse2_lowp+0xbd4>
+ .byte 68,15,40,37,225,219,0,0 // movaps 0xdbe1(%rip),%xmm12 # 29f50 <_sk_srcover_rgba_8888_sse2_lowp+0xbcc>
.byte 65,15,88,212 // addps %xmm12,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,88,5,29,220,0,0 // addps 0xdc1d(%rip),%xmm8 # 29fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xbe4>
+ .byte 68,15,88,5,221,219,0,0 // addps 0xdbdd(%rip),%xmm8 # 29f60 <_sk_srcover_rgba_8888_sse2_lowp+0xbdc>
.byte 65,15,84,215 // andps %xmm15,%xmm2
.byte 69,15,85,248 // andnps %xmm8,%xmm15
.byte 68,15,86,250 // orps %xmm2,%xmm15
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,199 // andnps %xmm15,%xmm0
.byte 65,15,86,198 // orps %xmm14,%xmm0
- .byte 15,89,5,14,220,0,0 // mulps 0xdc0e(%rip),%xmm0 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xbf4>
+ .byte 15,89,5,206,219,0,0 // mulps 0xdbce(%rip),%xmm0 # 29f70 <_sk_srcover_rgba_8888_sse2_lowp+0xbec>
.byte 69,15,40,194 // movaps %xmm10,%xmm8
.byte 69,15,194,195,4 // cmpneqps %xmm11,%xmm8
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 69,15,92,226 // subps %xmm10,%xmm12
.byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 68,15,40,13,33,218,0,0 // movaps 0xda21(%rip),%xmm9 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,40,13,225,217,0,0 // movaps 0xd9e1(%rip),%xmm9 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 65,15,40,210 // movaps %xmm10,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 68,15,194,202,1 // cmpltps %xmm2,%xmm9
@@ -37139,7 +37139,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,218 // movaps %xmm2,%xmm11
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,13,208,217,0,0 // movaps 0xd9d0(%rip),%xmm9 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,40,13,144,217,0,0 // movaps 0xd990(%rip),%xmm9 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,194,211,2 // cmpleps %xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
@@ -37156,28 +37156,28 @@ _sk_hsl_to_rgb_sse2:
.byte 69,15,88,211 // addps %xmm11,%xmm10
.byte 69,15,88,219 // addps %xmm11,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 15,40,5,105,219,0,0 // movaps 0xdb69(%rip),%xmm0 # 29fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc04>
+ .byte 15,40,5,41,219,0,0 // movaps 0xdb29(%rip),%xmm0 # 29f80 <_sk_srcover_rgba_8888_sse2_lowp+0xbfc>
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,194,217,1 // cmpltps %xmm1,%xmm3
- .byte 15,84,29,129,217,0,0 // andps 0xd981(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,84,29,65,217,0,0 // andps 0xd941(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 68,15,40,45,83,219,0,0 // movaps 0xdb53(%rip),%xmm13 # 29fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc14>
+ .byte 68,15,40,45,19,219,0,0 // movaps 0xdb13(%rip),%xmm13 # 29f90 <_sk_srcover_rgba_8888_sse2_lowp+0xc0c>
.byte 69,15,40,197 // movaps %xmm13,%xmm8
.byte 68,15,194,192,2 // cmpleps %xmm0,%xmm8
.byte 69,15,40,242 // movaps %xmm10,%xmm14
.byte 69,15,92,243 // subps %xmm11,%xmm14
.byte 65,15,40,217 // movaps %xmm9,%xmm3
.byte 15,194,216,2 // cmpleps %xmm0,%xmm3
- .byte 15,40,21,19,219,0,0 // movaps 0xdb13(%rip),%xmm2 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xbf4>
+ .byte 15,40,21,211,218,0,0 // movaps 0xdad3(%rip),%xmm2 # 29f70 <_sk_srcover_rgba_8888_sse2_lowp+0xbec>
.byte 68,15,40,250 // movaps %xmm2,%xmm15
.byte 68,15,194,248,2 // cmpleps %xmm0,%xmm15
- .byte 15,40,13,211,218,0,0 // movaps 0xdad3(%rip),%xmm1 # 29f80 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
+ .byte 15,40,13,147,218,0,0 // movaps 0xda93(%rip),%xmm1 # 29f40 <_sk_srcover_rgba_8888_sse2_lowp+0xbbc>
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,45,233,218,0,0 // movaps 0xdae9(%rip),%xmm5 # 29fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xbe4>
+ .byte 15,40,45,169,218,0,0 // movaps 0xdaa9(%rip),%xmm5 # 29f60 <_sk_srcover_rgba_8888_sse2_lowp+0xbdc>
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 65,15,89,230 // mulps %xmm14,%xmm4
@@ -37200,7 +37200,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,222,216,0,0 // andps 0xd8de(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,84,29,158,216,0,0 // andps 0xd89e(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 68,15,40,230 // movaps %xmm6,%xmm12
.byte 68,15,92,224 // subps %xmm0,%xmm12
@@ -37230,12 +37230,12 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,124,36,136 // movaps -0x78(%rsp),%xmm7
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 15,85,227 // andnps %xmm3,%xmm4
- .byte 15,88,53,86,218,0,0 // addps 0xda56(%rip),%xmm6 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
+ .byte 15,88,53,22,218,0,0 // addps 0xda16(%rip),%xmm6 # 29fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xc1c>
.byte 243,15,91,198 // cvttps2dq %xmm6,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,81,216,0,0 // andps 0xd851(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,84,29,17,216,0,0 // andps 0xd811(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,89,206 // mulps %xmm6,%xmm1
@@ -37303,9 +37303,9 @@ _sk_scale_u8_sse2:
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,36,216,0,0 // pand 0xd824(%rip),%xmm8 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,68,15,219,5,228,215,0,0 // pand 0xd7e4(%rip),%xmm8 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,104,217,0,0 // mulps 0xd968(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,89,5,40,217,0,0 // mulps 0xd928(%rip),%xmm8 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -37350,17 +37350,17 @@ _sk_scale_565_sse2:
.byte 15,133,173,0,0,0 // jne 1c7c5 <_sk_scale_565_sse2+0xcc>
.byte 243,71,15,126,20,80 // movq (%r8,%r10,2),%xmm10
.byte 102,68,15,97,208 // punpcklwd %xmm0,%xmm10
- .byte 102,68,15,111,5,212,216,0,0 // movdqa 0xd8d4(%rip),%xmm8 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
+ .byte 102,68,15,111,5,148,216,0,0 // movdqa 0xd894(%rip),%xmm8 # 29fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc3c>
.byte 102,69,15,219,194 // pand %xmm10,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,211,216,0,0 // mulps 0xd8d3(%rip),%xmm8 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
- .byte 102,68,15,111,13,218,216,0,0 // movdqa 0xd8da(%rip),%xmm9 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
+ .byte 68,15,89,5,147,216,0,0 // mulps 0xd893(%rip),%xmm8 # 29fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc4c>
+ .byte 102,68,15,111,13,154,216,0,0 // movdqa 0xd89a(%rip),%xmm9 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc5c>
.byte 102,69,15,219,202 // pand %xmm10,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,217,216,0,0 // mulps 0xd8d9(%rip),%xmm9 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
- .byte 102,68,15,219,21,224,216,0,0 // pand 0xd8e0(%rip),%xmm10 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 68,15,89,13,153,216,0,0 // mulps 0xd899(%rip),%xmm9 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc6c>
+ .byte 102,68,15,219,21,160,216,0,0 // pand 0xd8a0(%rip),%xmm10 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc7c>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,228,216,0,0 // mulps 0xd8e4(%rip),%xmm10 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,89,21,164,216,0,0 // mulps 0xd8a4(%rip),%xmm10 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
.byte 68,15,40,219 // movaps %xmm3,%xmm11
.byte 68,15,194,223,1 // cmpltps %xmm7,%xmm11
.byte 69,15,40,225 // movaps %xmm9,%xmm12
@@ -37441,9 +37441,9 @@ _sk_lerp_u8_sse2:
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,26,214,0,0 // pand 0xd61a(%rip),%xmm8 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,68,15,219,5,218,213,0,0 // pand 0xd5da(%rip),%xmm8 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,94,215,0,0 // mulps 0xd75e(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,89,5,30,215,0,0 // mulps 0xd71e(%rip),%xmm8 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -37495,17 +37495,17 @@ _sk_lerp_565_sse2:
.byte 15,133,173,0,0,0 // jne 1c9e6 <_sk_lerp_565_sse2+0xcc>
.byte 243,71,15,126,4,80 // movq (%r8,%r10,2),%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,111,13,179,214,0,0 // movdqa 0xd6b3(%rip),%xmm9 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
+ .byte 102,68,15,111,13,115,214,0,0 // movdqa 0xd673(%rip),%xmm9 # 29fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc3c>
.byte 102,69,15,219,200 // pand %xmm8,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,178,214,0,0 // mulps 0xd6b2(%rip),%xmm9 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
- .byte 102,68,15,111,21,185,214,0,0 // movdqa 0xd6b9(%rip),%xmm10 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
+ .byte 68,15,89,13,114,214,0,0 // mulps 0xd672(%rip),%xmm9 # 29fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc4c>
+ .byte 102,68,15,111,21,121,214,0,0 // movdqa 0xd679(%rip),%xmm10 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc5c>
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
- .byte 68,15,89,29,184,214,0,0 // mulps 0xd6b8(%rip),%xmm11 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
- .byte 102,68,15,219,5,191,214,0,0 // pand 0xd6bf(%rip),%xmm8 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 68,15,89,29,120,214,0,0 // mulps 0xd678(%rip),%xmm11 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc6c>
+ .byte 102,68,15,219,5,127,214,0,0 // pand 0xd67f(%rip),%xmm8 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc7c>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,195,214,0,0 // mulps 0xd6c3(%rip),%xmm8 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,89,5,131,214,0,0 // mulps 0xd683(%rip),%xmm8 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
.byte 68,15,40,211 // movaps %xmm3,%xmm10
.byte 68,15,194,215,1 // cmpltps %xmm7,%xmm10
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -37562,7 +37562,7 @@ _sk_load_tables_sse2:
.byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,68,15,111,5,66,212,0,0 // movdqa 0xd442(%rip),%xmm8 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,68,15,111,5,2,212,0,0 // movdqa 0xd402(%rip),%xmm8 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -37618,7 +37618,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
.byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 15,89,29,137,212,0,0 // mulps 0xd489(%rip),%xmm3 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 15,89,29,73,212,0,0 // mulps 0xd449(%rip),%xmm3 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -37658,7 +37658,7 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,15,111,21,99,212,0,0 // movdqa 0xd463(%rip),%xmm2 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 102,15,111,21,35,212,0,0 // movdqa 0xd423(%rip),%xmm2 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc9c>
.byte 102,15,112,217,238 // pshufd $0xee,%xmm1,%xmm3
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
@@ -37719,7 +37719,7 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,235,217 // por %xmm9,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,97,211,0,0 // mulps 0xd361(%rip),%xmm3 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 15,89,29,33,211,0,0 // mulps 0xd321(%rip),%xmm3 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xcbc>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -37760,7 +37760,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,65,15,97,194 // punpcklwd %xmm10,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,68,15,111,5,165,210,0,0 // movdqa 0xd2a5(%rip),%xmm8 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 102,68,15,111,5,101,210,0,0 // movdqa 0xd265(%rip),%xmm8 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc9c>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
@@ -37815,7 +37815,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 65,15,20,216 // unpcklps %xmm8,%xmm3
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,50,207,0,0 // movaps 0xcf32(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,29,242,206,0,0 // movaps 0xcef2(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -37847,7 +37847,7 @@ _sk_byte_tables_sse2:
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,159,207,0,0 // movaps 0xcf9f(%rip),%xmm8 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,5,95,207,0,0 // movaps 0xcf5f(%rip),%xmm8 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xb0c>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
@@ -37875,7 +37875,7 @@ _sk_byte_tables_sse2:
.byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,21,74,208,0,0 // movaps 0xd04a(%rip),%xmm10 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,40,21,10,208,0,0 // movaps 0xd00a(%rip),%xmm10 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 65,15,89,194 // mulps %xmm10,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -37994,7 +37994,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,21,138,206,0,0 // movaps 0xce8a(%rip),%xmm10 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,40,21,74,206,0,0 // movaps 0xce4a(%rip),%xmm10 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 65,15,89,194 // mulps %xmm10,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -38192,15 +38192,15 @@ _sk_parametric_r_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,86,204,0,0 // mulps 0xcc56(%rip),%xmm9 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 68,15,84,21,94,204,0,0 // andps 0xcc5e(%rip),%xmm10 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 68,15,86,21,150,201,0,0 // orps 0xc996(%rip),%xmm10 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
- .byte 68,15,88,13,94,204,0,0 // addps 0xcc5e(%rip),%xmm9 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
- .byte 68,15,40,37,102,204,0,0 // movaps 0xcc66(%rip),%xmm12 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 68,15,89,13,22,204,0,0 // mulps 0xcc16(%rip),%xmm9 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
+ .byte 68,15,84,21,30,204,0,0 // andps 0xcc1e(%rip),%xmm10 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xcdc>
+ .byte 68,15,86,21,86,201,0,0 // orps 0xc956(%rip),%xmm10 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
+ .byte 68,15,88,13,30,204,0,0 // addps 0xcc1e(%rip),%xmm9 # 2a070 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ .byte 68,15,40,37,38,204,0,0 // movaps 0xcc26(%rip),%xmm12 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,102,204,0,0 // addps 0xcc66(%rip),%xmm10 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
- .byte 68,15,40,37,110,204,0,0 // movaps 0xcc6e(%rip),%xmm12 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 68,15,88,21,38,204,0,0 // addps 0xcc26(%rip),%xmm10 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ .byte 68,15,40,37,46,204,0,0 // movaps 0xcc2e(%rip),%xmm12 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -38208,22 +38208,22 @@ _sk_parametric_r_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,88,201,0,0 // movaps 0xc958(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,21,24,201,0,0 // movaps 0xc918(%rip),%xmm10 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,60,204,0,0 // addps 0xcc3c(%rip),%xmm9 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 68,15,40,37,68,204,0,0 // movaps 0xcc44(%rip),%xmm12 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 68,15,88,13,252,203,0,0 // addps 0xcbfc(%rip),%xmm9 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ .byte 68,15,40,37,4,204,0,0 // movaps 0xcc04(%rip),%xmm12 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,68,204,0,0 // movaps 0xcc44(%rip),%xmm12 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,37,4,204,0,0 // movaps 0xcc04(%rip),%xmm12 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd4c>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,72,204,0,0 // movaps 0xcc48(%rip),%xmm13 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,40,45,8,204,0,0 // movaps 0xcc08(%rip),%xmm13 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd5c>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,72,204,0,0 // mulps 0xcc48(%rip),%xmm13 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,89,45,8,204,0,0 // mulps 0xcc08(%rip),%xmm13 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd6c>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -38259,15 +38259,15 @@ _sk_parametric_g_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,24,203,0,0 // mulps 0xcb18(%rip),%xmm9 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 68,15,84,21,32,203,0,0 // andps 0xcb20(%rip),%xmm10 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 68,15,86,21,88,200,0,0 // orps 0xc858(%rip),%xmm10 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
- .byte 68,15,88,13,32,203,0,0 // addps 0xcb20(%rip),%xmm9 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
- .byte 68,15,40,37,40,203,0,0 // movaps 0xcb28(%rip),%xmm12 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 68,15,89,13,216,202,0,0 // mulps 0xcad8(%rip),%xmm9 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
+ .byte 68,15,84,21,224,202,0,0 // andps 0xcae0(%rip),%xmm10 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xcdc>
+ .byte 68,15,86,21,24,200,0,0 // orps 0xc818(%rip),%xmm10 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
+ .byte 68,15,88,13,224,202,0,0 // addps 0xcae0(%rip),%xmm9 # 2a070 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ .byte 68,15,40,37,232,202,0,0 // movaps 0xcae8(%rip),%xmm12 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,40,203,0,0 // addps 0xcb28(%rip),%xmm10 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
- .byte 68,15,40,37,48,203,0,0 // movaps 0xcb30(%rip),%xmm12 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 68,15,88,21,232,202,0,0 // addps 0xcae8(%rip),%xmm10 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ .byte 68,15,40,37,240,202,0,0 // movaps 0xcaf0(%rip),%xmm12 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -38275,22 +38275,22 @@ _sk_parametric_g_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,26,200,0,0 // movaps 0xc81a(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,21,218,199,0,0 // movaps 0xc7da(%rip),%xmm10 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,254,202,0,0 // addps 0xcafe(%rip),%xmm9 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 68,15,40,37,6,203,0,0 // movaps 0xcb06(%rip),%xmm12 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 68,15,88,13,190,202,0,0 // addps 0xcabe(%rip),%xmm9 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ .byte 68,15,40,37,198,202,0,0 // movaps 0xcac6(%rip),%xmm12 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,6,203,0,0 // movaps 0xcb06(%rip),%xmm12 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,37,198,202,0,0 // movaps 0xcac6(%rip),%xmm12 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd4c>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,10,203,0,0 // movaps 0xcb0a(%rip),%xmm13 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,40,45,202,202,0,0 // movaps 0xcaca(%rip),%xmm13 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd5c>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,10,203,0,0 // mulps 0xcb0a(%rip),%xmm13 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,89,45,202,202,0,0 // mulps 0xcaca(%rip),%xmm13 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd6c>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -38326,15 +38326,15 @@ _sk_parametric_b_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,218,201,0,0 // mulps 0xc9da(%rip),%xmm9 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 68,15,84,21,226,201,0,0 // andps 0xc9e2(%rip),%xmm10 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 68,15,86,21,26,199,0,0 // orps 0xc71a(%rip),%xmm10 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
- .byte 68,15,88,13,226,201,0,0 // addps 0xc9e2(%rip),%xmm9 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
- .byte 68,15,40,37,234,201,0,0 // movaps 0xc9ea(%rip),%xmm12 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 68,15,89,13,154,201,0,0 // mulps 0xc99a(%rip),%xmm9 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
+ .byte 68,15,84,21,162,201,0,0 // andps 0xc9a2(%rip),%xmm10 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xcdc>
+ .byte 68,15,86,21,218,198,0,0 // orps 0xc6da(%rip),%xmm10 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
+ .byte 68,15,88,13,162,201,0,0 // addps 0xc9a2(%rip),%xmm9 # 2a070 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ .byte 68,15,40,37,170,201,0,0 // movaps 0xc9aa(%rip),%xmm12 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,234,201,0,0 // addps 0xc9ea(%rip),%xmm10 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
- .byte 68,15,40,37,242,201,0,0 // movaps 0xc9f2(%rip),%xmm12 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 68,15,88,21,170,201,0,0 // addps 0xc9aa(%rip),%xmm10 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ .byte 68,15,40,37,178,201,0,0 // movaps 0xc9b2(%rip),%xmm12 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -38342,22 +38342,22 @@ _sk_parametric_b_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,220,198,0,0 // movaps 0xc6dc(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,21,156,198,0,0 // movaps 0xc69c(%rip),%xmm10 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,192,201,0,0 // addps 0xc9c0(%rip),%xmm9 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 68,15,40,37,200,201,0,0 // movaps 0xc9c8(%rip),%xmm12 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 68,15,88,13,128,201,0,0 // addps 0xc980(%rip),%xmm9 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ .byte 68,15,40,37,136,201,0,0 // movaps 0xc988(%rip),%xmm12 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,200,201,0,0 // movaps 0xc9c8(%rip),%xmm12 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,37,136,201,0,0 // movaps 0xc988(%rip),%xmm12 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd4c>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,204,201,0,0 // movaps 0xc9cc(%rip),%xmm13 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,40,45,140,201,0,0 // movaps 0xc98c(%rip),%xmm13 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd5c>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,204,201,0,0 // mulps 0xc9cc(%rip),%xmm13 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,89,45,140,201,0,0 // mulps 0xc98c(%rip),%xmm13 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd6c>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -38393,15 +38393,15 @@ _sk_parametric_a_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,156,200,0,0 // mulps 0xc89c(%rip),%xmm9 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 68,15,84,21,164,200,0,0 // andps 0xc8a4(%rip),%xmm10 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 68,15,86,21,220,197,0,0 // orps 0xc5dc(%rip),%xmm10 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
- .byte 68,15,88,13,164,200,0,0 // addps 0xc8a4(%rip),%xmm9 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
- .byte 68,15,40,37,172,200,0,0 // movaps 0xc8ac(%rip),%xmm12 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 68,15,89,13,92,200,0,0 // mulps 0xc85c(%rip),%xmm9 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
+ .byte 68,15,84,21,100,200,0,0 // andps 0xc864(%rip),%xmm10 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xcdc>
+ .byte 68,15,86,21,156,197,0,0 // orps 0xc59c(%rip),%xmm10 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
+ .byte 68,15,88,13,100,200,0,0 // addps 0xc864(%rip),%xmm9 # 2a070 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ .byte 68,15,40,37,108,200,0,0 // movaps 0xc86c(%rip),%xmm12 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,172,200,0,0 // addps 0xc8ac(%rip),%xmm10 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
- .byte 68,15,40,37,180,200,0,0 // movaps 0xc8b4(%rip),%xmm12 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 68,15,88,21,108,200,0,0 // addps 0xc86c(%rip),%xmm10 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ .byte 68,15,40,37,116,200,0,0 // movaps 0xc874(%rip),%xmm12 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -38409,22 +38409,22 @@ _sk_parametric_a_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,158,197,0,0 // movaps 0xc59e(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,21,94,197,0,0 // movaps 0xc55e(%rip),%xmm10 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,130,200,0,0 // addps 0xc882(%rip),%xmm9 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 68,15,40,37,138,200,0,0 // movaps 0xc88a(%rip),%xmm12 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 68,15,88,13,66,200,0,0 // addps 0xc842(%rip),%xmm9 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ .byte 68,15,40,37,74,200,0,0 // movaps 0xc84a(%rip),%xmm12 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,138,200,0,0 // movaps 0xc88a(%rip),%xmm12 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,37,74,200,0,0 // movaps 0xc84a(%rip),%xmm12 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd4c>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,142,200,0,0 // movaps 0xc88e(%rip),%xmm13 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,40,45,78,200,0,0 // movaps 0xc84e(%rip),%xmm13 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd5c>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,142,200,0,0 // mulps 0xc88e(%rip),%xmm13 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,89,45,78,200,0,0 // mulps 0xc84e(%rip),%xmm13 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd6c>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -38449,19 +38449,19 @@ _sk_gamma_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,5,153,199,0,0 // mulps 0xc799(%rip),%xmm0 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 15,84,21,162,199,0,0 // andps 0xc7a2(%rip),%xmm2 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 68,15,40,53,218,196,0,0 // movaps 0xc4da(%rip),%xmm14 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,89,5,89,199,0,0 // mulps 0xc759(%rip),%xmm0 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
+ .byte 15,84,21,98,199,0,0 // andps 0xc762(%rip),%xmm2 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xcdc>
+ .byte 68,15,40,53,154,196,0,0 // movaps 0xc49a(%rip),%xmm14 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 65,15,86,214 // orps %xmm14,%xmm2
- .byte 68,15,40,37,158,199,0,0 // movaps 0xc79e(%rip),%xmm12 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 68,15,40,37,94,199,0,0 // movaps 0xc75e(%rip),%xmm12 # 2a070 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
.byte 65,15,88,196 // addps %xmm12,%xmm0
- .byte 68,15,40,29,162,199,0,0 // movaps 0xc7a2(%rip),%xmm11 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 68,15,40,29,98,199,0,0 // movaps 0xc762(%rip),%xmm11 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 65,15,89,227 // mulps %xmm11,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 68,15,40,21,160,199,0,0 // movaps 0xc7a0(%rip),%xmm10 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 68,15,40,21,96,199,0,0 // movaps 0xc760(%rip),%xmm10 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
.byte 65,15,88,210 // addps %xmm10,%xmm2
- .byte 68,15,40,45,164,199,0,0 // movaps 0xc7a4(%rip),%xmm13 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 68,15,40,45,100,199,0,0 // movaps 0xc764(%rip),%xmm13 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
.byte 65,15,40,229 // movaps %xmm13,%xmm4
.byte 15,94,226 // divps %xmm2,%xmm4
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -38473,27 +38473,27 @@ _sk_gamma_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,194,226,1 // cmpltps %xmm2,%xmm4
- .byte 68,15,40,13,132,196,0,0 // movaps 0xc484(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,13,68,196,0,0 // movaps 0xc444(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 65,15,84,225 // andps %xmm9,%xmm4
.byte 15,92,212 // subps %xmm4,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,53,112,199,0,0 // movaps 0xc770(%rip),%xmm6 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 15,40,53,48,199,0,0 // movaps 0xc730(%rip),%xmm6 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,61,134,199,0,0 // movaps 0xc786(%rip),%xmm7 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 15,40,61,70,199,0,0 // movaps 0xc746(%rip),%xmm7 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd4c>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,37,102,199,0,0 // movaps 0xc766(%rip),%xmm4 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 15,40,37,38,199,0,0 // movaps 0xc726(%rip),%xmm4 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 68,15,40,61,120,199,0,0 // movaps 0xc778(%rip),%xmm15 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,40,61,56,199,0,0 // movaps 0xc738(%rip),%xmm15 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd5c>
.byte 65,15,40,215 // movaps %xmm15,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,5,212,198,0,0 // mulps 0xc6d4(%rip),%xmm0 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 15,84,13,221,198,0,0 // andps 0xc6dd(%rip),%xmm1 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 15,89,5,148,198,0,0 // mulps 0xc694(%rip),%xmm0 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
+ .byte 15,84,13,157,198,0,0 // andps 0xc69d(%rip),%xmm1 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xcdc>
.byte 65,15,86,206 // orps %xmm14,%xmm1
.byte 65,15,88,196 // addps %xmm12,%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
@@ -38523,9 +38523,9 @@ _sk_gamma_sse2:
.byte 15,94,206 // divps %xmm6,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,5,99,198,0,0 // mulps 0xc663(%rip),%xmm0 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 15,84,29,108,198,0,0 // andps 0xc66c(%rip),%xmm3 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 15,86,29,165,195,0,0 // orps 0xc3a5(%rip),%xmm3 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,89,5,35,198,0,0 // mulps 0xc623(%rip),%xmm0 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
+ .byte 15,84,29,44,198,0,0 // andps 0xc62c(%rip),%xmm3 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xcdc>
+ .byte 15,86,29,101,195,0,0 // orps 0xc365(%rip),%xmm3 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 65,15,88,196 // addps %xmm12,%xmm0
.byte 68,15,89,219 // mulps %xmm3,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
@@ -38547,7 +38547,7 @@ _sk_gamma_sse2:
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 68,15,94,255 // divps %xmm7,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 15,40,5,162,198,0,0 // movaps 0xc6a2(%rip),%xmm0 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 15,40,5,98,198,0,0 // movaps 0xc662(%rip),%xmm0 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd6c>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 68,15,89,248 // mulps %xmm0,%xmm15
@@ -38566,29 +38566,29 @@ HIDDEN _sk_lab_to_xyz_sse2
.globl _sk_lab_to_xyz_sse2
FUNCTION(_sk_lab_to_xyz_sse2)
_sk_lab_to_xyz_sse2:
- .byte 15,89,5,119,198,0,0 // mulps 0xc677(%rip),%xmm0 # 2a140 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
- .byte 68,15,40,5,255,195,0,0 // movaps 0xc3ff(%rip),%xmm8 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 15,89,5,55,198,0,0 // mulps 0xc637(%rip),%xmm0 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd7c>
+ .byte 68,15,40,5,191,195,0,0 // movaps 0xc3bf(%rip),%xmm8 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xb0c>
.byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 68,15,40,13,115,198,0,0 // movaps 0xc673(%rip),%xmm9 # 2a150 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,13,51,198,0,0 // movaps 0xc633(%rip),%xmm9 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd8c>
.byte 65,15,88,201 // addps %xmm9,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 15,88,5,112,198,0,0 // addps 0xc670(%rip),%xmm0 # 2a160 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
- .byte 15,89,5,121,198,0,0 // mulps 0xc679(%rip),%xmm0 # 2a170 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
- .byte 15,89,13,130,198,0,0 // mulps 0xc682(%rip),%xmm1 # 2a180 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 15,88,5,48,198,0,0 // addps 0xc630(%rip),%xmm0 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd9c>
+ .byte 15,89,5,57,198,0,0 // mulps 0xc639(%rip),%xmm0 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xdac>
+ .byte 15,89,13,66,198,0,0 // mulps 0xc642(%rip),%xmm1 # 2a140 <_sk_srcover_rgba_8888_sse2_lowp+0xdbc>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,21,136,198,0,0 // mulps 0xc688(%rip),%xmm2 # 2a190 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 15,89,21,72,198,0,0 // mulps 0xc648(%rip),%xmm2 # 2a150 <_sk_srcover_rgba_8888_sse2_lowp+0xdcc>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 68,15,92,202 // subps %xmm2,%xmm9
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
.byte 68,15,89,225 // mulps %xmm1,%xmm12
- .byte 15,40,21,125,198,0,0 // movaps 0xc67d(%rip),%xmm2 # 2a1a0 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 15,40,21,61,198,0,0 // movaps 0xc63d(%rip),%xmm2 # 2a160 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
.byte 68,15,40,194 // movaps %xmm2,%xmm8
.byte 69,15,194,196,1 // cmpltps %xmm12,%xmm8
- .byte 68,15,40,21,124,198,0,0 // movaps 0xc67c(%rip),%xmm10 # 2a1b0 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
+ .byte 68,15,40,21,60,198,0,0 // movaps 0xc63c(%rip),%xmm10 # 2a170 <_sk_srcover_rgba_8888_sse2_lowp+0xdec>
.byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 68,15,40,29,128,198,0,0 // movaps 0xc680(%rip),%xmm11 # 2a1c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe04>
+ .byte 68,15,40,29,64,198,0,0 // movaps 0xc640(%rip),%xmm11 # 2a180 <_sk_srcover_rgba_8888_sse2_lowp+0xdfc>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 69,15,84,224 // andps %xmm8,%xmm12
.byte 68,15,85,193 // andnps %xmm1,%xmm8
@@ -38612,8 +38612,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,84,194 // andps %xmm2,%xmm0
.byte 65,15,85,209 // andnps %xmm9,%xmm2
.byte 15,86,208 // orps %xmm0,%xmm2
- .byte 68,15,89,5,48,198,0,0 // mulps 0xc630(%rip),%xmm8 # 2a1d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe14>
- .byte 15,89,21,57,198,0,0 // mulps 0xc639(%rip),%xmm2 # 2a1e0 <_sk_srcover_rgba_8888_sse2_lowp+0xe24>
+ .byte 68,15,89,5,240,197,0,0 // mulps 0xc5f0(%rip),%xmm8 # 2a190 <_sk_srcover_rgba_8888_sse2_lowp+0xe0c>
+ .byte 15,89,21,249,197,0,0 // mulps 0xc5f9(%rip),%xmm2 # 2a1a0 <_sk_srcover_rgba_8888_sse2_lowp+0xe1c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -38633,9 +38633,9 @@ _sk_load_a8_sse2:
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,195,194,0,0 // pand 0xc2c3(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,219,5,131,194,0,0 // pand 0xc283(%rip),%xmm0 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,9,196,0,0 // mulps 0xc409(%rip),%xmm3 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 15,89,29,201,195,0,0 // mulps 0xc3c9(%rip),%xmm3 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
@@ -38678,9 +38678,9 @@ _sk_load_a8_dst_sse2:
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,47,194,0,0 // pand 0xc22f(%rip),%xmm4 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,219,37,239,193,0,0 // pand 0xc1ef(%rip),%xmm4 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,117,195,0,0 // mulps 0xc375(%rip),%xmm7 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 15,89,61,53,195,0,0 // mulps 0xc335(%rip),%xmm7 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,87,237 // xorpd %xmm5,%xmm5
@@ -38746,7 +38746,7 @@ _sk_gather_a8_sse2:
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,133,194,0,0 // mulps 0xc285(%rip),%xmm3 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 15,89,29,69,194,0,0 // mulps 0xc245(%rip),%xmm3 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -38763,7 +38763,7 @@ _sk_store_a8_sse2:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,59,193,0,0 // movaps 0xc13b(%rip),%xmm8 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,5,251,192,0,0 // movaps 0xc0fb(%rip),%xmm8 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xb0c>
.byte 68,15,89,195 // mulps %xmm3,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
@@ -38788,7 +38788,7 @@ _sk_store_a8_sse2:
.byte 117,217 // jne 1ddc2 <_sk_store_a8_sse2+0x48>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 67,136,68,16,2 // mov %al,0x2(%r8,%r10,1)
- .byte 102,68,15,219,5,163,192,0,0 // pand 0xc0a3(%rip),%xmm8 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,68,15,219,5,99,192,0,0 // pand 0xc063(%rip),%xmm8 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
@@ -38813,11 +38813,11 @@ _sk_load_g8_sse2:
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,84,192,0,0 // pand 0xc054(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,219,5,20,192,0,0 // pand 0xc014(%rip),%xmm0 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,154,193,0,0 // mulps 0xc19a(%rip),%xmm0 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 15,89,5,90,193,0,0 // mulps 0xc15a(%rip),%xmm0 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,145,191,0,0 // movaps 0xbf91(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,29,81,191,0,0 // movaps 0xbf51(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -38858,11 +38858,11 @@ _sk_load_g8_dst_sse2:
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,189,191,0,0 // pand 0xbfbd(%rip),%xmm4 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,219,37,125,191,0,0 // pand 0xbf7d(%rip),%xmm4 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,3,193,0,0 // mulps 0xc103(%rip),%xmm4 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 15,89,37,195,192,0,0 // mulps 0xc0c3(%rip),%xmm4 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,250,190,0,0 // movaps 0xbefa(%rip),%xmm7 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,61,186,190,0,0 // movaps 0xbeba(%rip),%xmm7 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
@@ -38926,9 +38926,9 @@ _sk_gather_g8_sse2:
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,16,192,0,0 // mulps 0xc010(%rip),%xmm0 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 15,89,5,208,191,0,0 // mulps 0xbfd0(%rip),%xmm0 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,7,190,0,0 // movaps 0xbe07(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,29,199,189,0,0 // movaps 0xbdc7(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -38948,19 +38948,19 @@ _sk_load_565_sse2:
.byte 117,83 // jne 1e05f <_sk_load_565_sse2+0x6e>
.byte 243,67,15,126,20,80 // movq (%r8,%r10,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,5,226,191,0,0 // movdqa 0xbfe2(%rip),%xmm0 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
+ .byte 102,15,111,5,162,191,0,0 // movdqa 0xbfa2(%rip),%xmm0 # 29fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc3c>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,228,191,0,0 // mulps 0xbfe4(%rip),%xmm0 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
- .byte 102,15,111,13,236,191,0,0 // movdqa 0xbfec(%rip),%xmm1 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
+ .byte 15,89,5,164,191,0,0 // mulps 0xbfa4(%rip),%xmm0 # 29fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc4c>
+ .byte 102,15,111,13,172,191,0,0 // movdqa 0xbfac(%rip),%xmm1 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc5c>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,238,191,0,0 // mulps 0xbfee(%rip),%xmm1 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
- .byte 102,15,219,21,246,191,0,0 // pand 0xbff6(%rip),%xmm2 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 15,89,13,174,191,0,0 // mulps 0xbfae(%rip),%xmm1 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc6c>
+ .byte 102,15,219,21,182,191,0,0 // pand 0xbfb6(%rip),%xmm2 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc7c>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,252,191,0,0 // mulps 0xbffc(%rip),%xmm2 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,21,188,191,0,0 // mulps 0xbfbc(%rip),%xmm2 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,147,189,0,0 // movaps 0xbd93(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,29,83,189,0,0 // movaps 0xbd53(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
@@ -38997,19 +38997,19 @@ _sk_load_565_dst_sse2:
.byte 117,83 // jne 1e11b <_sk_load_565_dst_sse2+0x6e>
.byte 243,67,15,126,52,80 // movq (%r8,%r10,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,37,38,191,0,0 // movdqa 0xbf26(%rip),%xmm4 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
+ .byte 102,15,111,37,230,190,0,0 // movdqa 0xbee6(%rip),%xmm4 # 29fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc3c>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,40,191,0,0 // mulps 0xbf28(%rip),%xmm4 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
- .byte 102,15,111,45,48,191,0,0 // movdqa 0xbf30(%rip),%xmm5 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
+ .byte 15,89,37,232,190,0,0 // mulps 0xbee8(%rip),%xmm4 # 29fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc4c>
+ .byte 102,15,111,45,240,190,0,0 // movdqa 0xbef0(%rip),%xmm5 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc5c>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,50,191,0,0 // mulps 0xbf32(%rip),%xmm5 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
- .byte 102,15,219,53,58,191,0,0 // pand 0xbf3a(%rip),%xmm6 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 15,89,45,242,190,0,0 // mulps 0xbef2(%rip),%xmm5 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc6c>
+ .byte 102,15,219,53,250,190,0,0 // pand 0xbefa(%rip),%xmm6 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc7c>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,64,191,0,0 // mulps 0xbf40(%rip),%xmm6 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,53,0,191,0,0 // mulps 0xbf00(%rip),%xmm6 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,215,188,0,0 // movaps 0xbcd7(%rip),%xmm7 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,61,151,188,0,0 // movaps 0xbc97(%rip),%xmm7 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
@@ -39065,19 +39065,19 @@ _sk_gather_565_sse2:
.byte 102,15,196,208,3 // pinsrw $0x3,%eax,%xmm2
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,5,10,190,0,0 // movdqa 0xbe0a(%rip),%xmm0 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
+ .byte 102,15,111,5,202,189,0,0 // movdqa 0xbdca(%rip),%xmm0 # 29fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc3c>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,12,190,0,0 // mulps 0xbe0c(%rip),%xmm0 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
- .byte 102,15,111,13,20,190,0,0 // movdqa 0xbe14(%rip),%xmm1 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
+ .byte 15,89,5,204,189,0,0 // mulps 0xbdcc(%rip),%xmm0 # 29fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc4c>
+ .byte 102,15,111,13,212,189,0,0 // movdqa 0xbdd4(%rip),%xmm1 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc5c>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,22,190,0,0 // mulps 0xbe16(%rip),%xmm1 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
- .byte 102,15,219,21,30,190,0,0 // pand 0xbe1e(%rip),%xmm2 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 15,89,13,214,189,0,0 // mulps 0xbdd6(%rip),%xmm1 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc6c>
+ .byte 102,15,219,21,222,189,0,0 // pand 0xbdde(%rip),%xmm2 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc7c>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,36,190,0,0 // mulps 0xbe24(%rip),%xmm2 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,21,228,189,0,0 // mulps 0xbde4(%rip),%xmm2 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,187,187,0,0 // movaps 0xbbbb(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,29,123,187,0,0 // movaps 0xbb7b(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse2
@@ -39091,12 +39091,12 @@ _sk_store_565_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,171,191,0,0 // movaps 0xbfab(%rip),%xmm8 # 2a200 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 68,15,40,5,107,191,0,0 // movaps 0xbf6b(%rip),%xmm8 # 2a1c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe3c>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 68,15,40,21,160,191,0,0 // movaps 0xbfa0(%rip),%xmm10 # 2a210 <_sk_srcover_rgba_8888_sse2_lowp+0xe54>
+ .byte 68,15,40,21,96,191,0,0 // movaps 0xbf60(%rip),%xmm10 # 2a1d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe4c>
.byte 68,15,89,209 // mulps %xmm1,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
@@ -39145,21 +39145,21 @@ _sk_load_4444_sse2:
.byte 117,98 // jne 1e373 <_sk_load_4444_sse2+0x7d>
.byte 243,67,15,126,28,80 // movq (%r8,%r10,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,5,253,190,0,0 // movdqa 0xbefd(%rip),%xmm0 # 2a220 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
+ .byte 102,15,111,5,189,190,0,0 // movdqa 0xbebd(%rip),%xmm0 # 2a1e0 <_sk_srcover_rgba_8888_sse2_lowp+0xe5c>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,255,190,0,0 // mulps 0xbeff(%rip),%xmm0 # 2a230 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
- .byte 102,15,111,13,7,191,0,0 // movdqa 0xbf07(%rip),%xmm1 # 2a240 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
+ .byte 15,89,5,191,190,0,0 // mulps 0xbebf(%rip),%xmm0 # 2a1f0 <_sk_srcover_rgba_8888_sse2_lowp+0xe6c>
+ .byte 102,15,111,13,199,190,0,0 // movdqa 0xbec7(%rip),%xmm1 # 2a200 <_sk_srcover_rgba_8888_sse2_lowp+0xe7c>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,9,191,0,0 // mulps 0xbf09(%rip),%xmm1 # 2a250 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
- .byte 102,15,111,21,17,191,0,0 // movdqa 0xbf11(%rip),%xmm2 # 2a260 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 15,89,13,201,190,0,0 // mulps 0xbec9(%rip),%xmm1 # 2a210 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ .byte 102,15,111,21,209,190,0,0 // movdqa 0xbed1(%rip),%xmm2 # 2a220 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,19,191,0,0 // mulps 0xbf13(%rip),%xmm2 # 2a270 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
- .byte 102,15,219,29,27,191,0,0 // pand 0xbf1b(%rip),%xmm3 # 2a280 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
+ .byte 15,89,21,211,190,0,0 // mulps 0xbed3(%rip),%xmm2 # 2a230 <_sk_srcover_rgba_8888_sse2_lowp+0xeac>
+ .byte 102,15,219,29,219,190,0,0 // pand 0xbedb(%rip),%xmm3 # 2a240 <_sk_srcover_rgba_8888_sse2_lowp+0xebc>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,33,191,0,0 // mulps 0xbf21(%rip),%xmm3 # 2a290 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+ .byte 15,89,29,225,190,0,0 // mulps 0xbee1(%rip),%xmm3 # 2a250 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -39197,21 +39197,21 @@ _sk_load_4444_dst_sse2:
.byte 117,98 // jne 1e43e <_sk_load_4444_dst_sse2+0x7d>
.byte 243,67,15,126,60,80 // movq (%r8,%r10,2),%xmm7
.byte 102,15,97,248 // punpcklwd %xmm0,%xmm7
- .byte 102,15,111,37,50,190,0,0 // movdqa 0xbe32(%rip),%xmm4 # 2a220 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
+ .byte 102,15,111,37,242,189,0,0 // movdqa 0xbdf2(%rip),%xmm4 # 2a1e0 <_sk_srcover_rgba_8888_sse2_lowp+0xe5c>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,52,190,0,0 // mulps 0xbe34(%rip),%xmm4 # 2a230 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
- .byte 102,15,111,45,60,190,0,0 // movdqa 0xbe3c(%rip),%xmm5 # 2a240 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
+ .byte 15,89,37,244,189,0,0 // mulps 0xbdf4(%rip),%xmm4 # 2a1f0 <_sk_srcover_rgba_8888_sse2_lowp+0xe6c>
+ .byte 102,15,111,45,252,189,0,0 // movdqa 0xbdfc(%rip),%xmm5 # 2a200 <_sk_srcover_rgba_8888_sse2_lowp+0xe7c>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,62,190,0,0 // mulps 0xbe3e(%rip),%xmm5 # 2a250 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
- .byte 102,15,111,53,70,190,0,0 // movdqa 0xbe46(%rip),%xmm6 # 2a260 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 15,89,45,254,189,0,0 // mulps 0xbdfe(%rip),%xmm5 # 2a210 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ .byte 102,15,111,53,6,190,0,0 // movdqa 0xbe06(%rip),%xmm6 # 2a220 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,72,190,0,0 // mulps 0xbe48(%rip),%xmm6 # 2a270 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
- .byte 102,15,219,61,80,190,0,0 // pand 0xbe50(%rip),%xmm7 # 2a280 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
+ .byte 15,89,53,8,190,0,0 // mulps 0xbe08(%rip),%xmm6 # 2a230 <_sk_srcover_rgba_8888_sse2_lowp+0xeac>
+ .byte 102,15,219,61,16,190,0,0 // pand 0xbe10(%rip),%xmm7 # 2a240 <_sk_srcover_rgba_8888_sse2_lowp+0xebc>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,86,190,0,0 // mulps 0xbe56(%rip),%xmm7 # 2a290 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+ .byte 15,89,61,22,190,0,0 // mulps 0xbe16(%rip),%xmm7 # 2a250 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -39268,21 +39268,21 @@ _sk_gather_4444_sse2:
.byte 102,15,196,216,3 // pinsrw $0x3,%eax,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,5,7,189,0,0 // movdqa 0xbd07(%rip),%xmm0 # 2a220 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
+ .byte 102,15,111,5,199,188,0,0 // movdqa 0xbcc7(%rip),%xmm0 # 2a1e0 <_sk_srcover_rgba_8888_sse2_lowp+0xe5c>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,9,189,0,0 // mulps 0xbd09(%rip),%xmm0 # 2a230 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
- .byte 102,15,111,13,17,189,0,0 // movdqa 0xbd11(%rip),%xmm1 # 2a240 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
+ .byte 15,89,5,201,188,0,0 // mulps 0xbcc9(%rip),%xmm0 # 2a1f0 <_sk_srcover_rgba_8888_sse2_lowp+0xe6c>
+ .byte 102,15,111,13,209,188,0,0 // movdqa 0xbcd1(%rip),%xmm1 # 2a200 <_sk_srcover_rgba_8888_sse2_lowp+0xe7c>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,19,189,0,0 // mulps 0xbd13(%rip),%xmm1 # 2a250 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
- .byte 102,15,111,21,27,189,0,0 // movdqa 0xbd1b(%rip),%xmm2 # 2a260 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 15,89,13,211,188,0,0 // mulps 0xbcd3(%rip),%xmm1 # 2a210 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ .byte 102,15,111,21,219,188,0,0 // movdqa 0xbcdb(%rip),%xmm2 # 2a220 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,29,189,0,0 // mulps 0xbd1d(%rip),%xmm2 # 2a270 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
- .byte 102,15,219,29,37,189,0,0 // pand 0xbd25(%rip),%xmm3 # 2a280 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
+ .byte 15,89,21,221,188,0,0 // mulps 0xbcdd(%rip),%xmm2 # 2a230 <_sk_srcover_rgba_8888_sse2_lowp+0xeac>
+ .byte 102,15,219,29,229,188,0,0 // pand 0xbce5(%rip),%xmm3 # 2a240 <_sk_srcover_rgba_8888_sse2_lowp+0xebc>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,43,189,0,0 // mulps 0xbd2b(%rip),%xmm3 # 2a290 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+ .byte 15,89,29,235,188,0,0 // mulps 0xbceb(%rip),%xmm3 # 2a250 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -39297,7 +39297,7 @@ _sk_store_4444_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,25,189,0,0 // movaps 0xbd19(%rip),%xmm8 # 2a2a0 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 68,15,40,5,217,188,0,0 // movaps 0xbcd9(%rip),%xmm8 # 2a260 <_sk_srcover_rgba_8888_sse2_lowp+0xedc>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -39355,11 +39355,11 @@ _sk_load_8888_sse2:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,98 // jne 1e6ba <_sk_load_8888_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,21,58,184,0,0 // movdqa 0xb83a(%rip),%xmm2 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,111,21,250,183,0,0 // movdqa 0xb7fa(%rip),%xmm2 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,118,185,0,0 // movaps 0xb976(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,40,5,54,185,0,0 // movaps 0xb936(%rip),%xmm8 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39406,11 +39406,11 @@ _sk_load_8888_dst_sse2:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,98 // jne 1e779 <_sk_load_8888_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,53,123,183,0,0 // movdqa 0xb77b(%rip),%xmm6 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,111,53,59,183,0,0 // movdqa 0xb73b(%rip),%xmm6 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 102,65,15,111,225 // movdqa %xmm9,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,183,184,0,0 // movaps 0xb8b7(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,40,5,119,184,0,0 // movaps 0xb877(%rip),%xmm8 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -39474,11 +39474,11 @@ _sk_gather_8888_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,21,101,182,0,0 // movdqa 0xb665(%rip),%xmm2 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,111,21,37,182,0,0 // movdqa 0xb625(%rip),%xmm2 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,161,183,0,0 // movaps 0xb7a1(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,40,5,97,183,0,0 // movaps 0xb761(%rip),%xmm8 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39507,7 +39507,7 @@ _sk_store_8888_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,34,182,0,0 // movaps 0xb622(%rip),%xmm8 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,5,226,181,0,0 // movaps 0xb5e2(%rip),%xmm8 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xb0c>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -39559,11 +39559,11 @@ _sk_load_bgra_sse2:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,98 // jne 1e9c2 <_sk_load_bgra_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,5,50,181,0,0 // movdqa 0xb532(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,111,5,242,180,0,0 // movdqa 0xb4f2(%rip),%xmm0 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,110,182,0,0 // movaps 0xb66e(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,40,5,46,182,0,0 // movaps 0xb62e(%rip),%xmm8 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39610,11 +39610,11 @@ _sk_load_bgra_dst_sse2:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,98 // jne 1ea81 <_sk_load_bgra_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,37,115,180,0,0 // movdqa 0xb473(%rip),%xmm4 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,111,37,51,180,0,0 // movdqa 0xb433(%rip),%xmm4 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 68,15,40,5,175,181,0,0 // movaps 0xb5af(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,40,5,111,181,0,0 // movaps 0xb56f(%rip),%xmm8 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -39678,11 +39678,11 @@ _sk_gather_bgra_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,5,93,179,0,0 // movdqa 0xb35d(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 102,15,111,5,29,179,0,0 // movdqa 0xb31d(%rip),%xmm0 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xadc>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,153,180,0,0 // movaps 0xb499(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,40,5,89,180,0,0 // movaps 0xb459(%rip),%xmm8 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39711,7 +39711,7 @@ _sk_store_bgra_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,26,179,0,0 // movaps 0xb31a(%rip),%xmm8 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,5,218,178,0,0 // movaps 0xb2da(%rip),%xmm8 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xb0c>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -39773,18 +39773,18 @@ _sk_load_f16_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,4,182,0,0 // movdqa 0xb604(%rip),%xmm9 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 102,68,15,111,13,196,181,0,0 // movdqa 0xb5c4(%rip),%xmm9 # 2a270 <_sk_srcover_rgba_8888_sse2_lowp+0xeec>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,1,182,0,0 // movdqa 0xb601(%rip),%xmm11 # 2a2c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
+ .byte 102,68,15,111,29,193,181,0,0 // movdqa 0xb5c1(%rip),%xmm11 # 2a280 <_sk_srcover_rgba_8888_sse2_lowp+0xefc>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,4,182,0,0 // movdqa 0xb604(%rip),%xmm3 # 2a2d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 102,15,111,29,196,181,0,0 // movdqa 0xb5c4(%rip),%xmm3 # 2a290 <_sk_srcover_rgba_8888_sse2_lowp+0xf0c>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,243,181,0,0 // movdqa 0xb5f3(%rip),%xmm12 # 2a2e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
+ .byte 102,68,15,111,37,179,181,0,0 // movdqa 0xb5b3(%rip),%xmm12 # 2a2a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf1c>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,210 // punpckhwd %xmm10,%xmm2
@@ -39858,18 +39858,18 @@ _sk_load_f16_dst_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,97,234 // punpcklwd %xmm10,%xmm5
- .byte 102,68,15,111,13,123,180,0,0 // movdqa 0xb47b(%rip),%xmm9 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 102,68,15,111,13,59,180,0,0 // movdqa 0xb43b(%rip),%xmm9 # 2a270 <_sk_srcover_rgba_8888_sse2_lowp+0xeec>
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,120,180,0,0 // movdqa 0xb478(%rip),%xmm11 # 2a2c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
+ .byte 102,68,15,111,29,56,180,0,0 // movdqa 0xb438(%rip),%xmm11 # 2a280 <_sk_srcover_rgba_8888_sse2_lowp+0xefc>
.byte 102,65,15,219,235 // pand %xmm11,%xmm5
- .byte 102,15,111,61,123,180,0,0 // movdqa 0xb47b(%rip),%xmm7 # 2a2d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 102,15,111,61,59,180,0,0 // movdqa 0xb43b(%rip),%xmm7 # 2a290 <_sk_srcover_rgba_8888_sse2_lowp+0xf0c>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
.byte 102,15,102,229 // pcmpgtd %xmm5,%xmm4
.byte 102,15,114,245,13 // pslld $0xd,%xmm5
.byte 102,65,15,235,236 // por %xmm12,%xmm5
- .byte 102,68,15,111,37,106,180,0,0 // movdqa 0xb46a(%rip),%xmm12 # 2a2e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
+ .byte 102,68,15,111,37,42,180,0,0 // movdqa 0xb42a(%rip),%xmm12 # 2a2a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf1c>
.byte 102,65,15,254,236 // paddd %xmm12,%xmm5
.byte 102,15,223,229 // pandn %xmm5,%xmm4
.byte 102,65,15,105,242 // punpckhwd %xmm10,%xmm6
@@ -39958,18 +39958,18 @@ _sk_gather_f16_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,172,178,0,0 // movdqa 0xb2ac(%rip),%xmm9 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 102,68,15,111,13,108,178,0,0 // movdqa 0xb26c(%rip),%xmm9 # 2a270 <_sk_srcover_rgba_8888_sse2_lowp+0xeec>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,169,178,0,0 // movdqa 0xb2a9(%rip),%xmm11 # 2a2c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
+ .byte 102,68,15,111,29,105,178,0,0 // movdqa 0xb269(%rip),%xmm11 # 2a280 <_sk_srcover_rgba_8888_sse2_lowp+0xefc>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,172,178,0,0 // movdqa 0xb2ac(%rip),%xmm3 # 2a2d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 102,15,111,29,108,178,0,0 // movdqa 0xb26c(%rip),%xmm3 # 2a290 <_sk_srcover_rgba_8888_sse2_lowp+0xf0c>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,155,178,0,0 // movdqa 0xb29b(%rip),%xmm12 # 2a2e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
+ .byte 102,68,15,111,37,91,178,0,0 // movdqa 0xb25b(%rip),%xmm12 # 2a2a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf1c>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,210 // punpckhwd %xmm10,%xmm2
@@ -40012,19 +40012,19 @@ HIDDEN _sk_store_f16_sse2
FUNCTION(_sk_store_f16_sse2)
_sk_store_f16_sse2:
.byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 102,68,15,111,29,239,177,0,0 // movdqa 0xb1ef(%rip),%xmm11 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 102,68,15,111,29,175,177,0,0 // movdqa 0xb1af(%rip),%xmm11 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf2c>
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,69,15,219,195 // pand %xmm11,%xmm8
- .byte 102,68,15,111,21,236,177,0,0 // movdqa 0xb1ec(%rip),%xmm10 # 2a300 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
+ .byte 102,68,15,111,21,172,177,0,0 // movdqa 0xb1ac(%rip),%xmm10 # 2a2c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf3c>
.byte 102,68,15,111,240 // movdqa %xmm0,%xmm14
.byte 102,69,15,219,242 // pand %xmm10,%xmm14
- .byte 102,15,111,61,234,177,0,0 // movdqa 0xb1ea(%rip),%xmm7 # 2a310 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
- .byte 102,68,15,111,37,145,179,0,0 // movdqa 0xb391(%rip),%xmm12 # 2a4c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 102,15,111,61,170,177,0,0 // movdqa 0xb1aa(%rip),%xmm7 # 2a2d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ .byte 102,68,15,111,37,81,179,0,0 // movdqa 0xb351(%rip),%xmm12 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x10fc>
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
.byte 102,65,15,114,247,3 // pslld $0x3,%xmm15
.byte 102,69,15,219,252 // pand %xmm12,%xmm15
.byte 102,69,15,254,248 // paddd %xmm8,%xmm15
- .byte 102,68,15,111,45,67,174,0,0 // movdqa 0xae43(%rip),%xmm13 # 29f90 <_sk_srcover_rgba_8888_sse2_lowp+0xbd4>
+ .byte 102,68,15,111,45,3,174,0,0 // movdqa 0xae03(%rip),%xmm13 # 29f50 <_sk_srcover_rgba_8888_sse2_lowp+0xbcc>
.byte 102,69,15,254,253 // paddd %xmm13,%xmm15
.byte 102,65,15,114,231,16 // psrad $0x10,%xmm15
.byte 102,68,15,111,199 // movdqa %xmm7,%xmm8
@@ -40131,7 +40131,7 @@ _sk_load_u16_be_sse2:
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,5,88,173,0,0 // movaps 0xad58(%rip),%xmm8 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 68,15,40,5,24,173,0,0 // movaps 0xad18(%rip),%xmm8 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xcbc>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -40206,7 +40206,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,13,34,172,0,0 // movaps 0xac22(%rip),%xmm9 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 68,15,40,13,226,171,0,0 // movaps 0xabe2(%rip),%xmm9 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xcbc>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -40223,7 +40223,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,73,169,0,0 // movaps 0xa949(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,29,9,169,0,0 // movaps 0xa909(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -40257,7 +40257,7 @@ _sk_store_u16_be_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 68,15,40,21,2,174,0,0 // movaps 0xae02(%rip),%xmm10 # 2a330 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 68,15,40,21,194,173,0,0 // movaps 0xadc2(%rip),%xmm10 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf6c>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
@@ -40496,7 +40496,7 @@ _sk_repeat_x_sse2:
.byte 243,69,15,91,194 // cvttps2dq %xmm10,%xmm8
.byte 69,15,91,216 // cvtdq2ps %xmm8,%xmm11
.byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
- .byte 68,15,84,21,95,165,0,0 // andps 0xa55f(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,84,21,31,165,0,0 // andps 0xa51f(%rip),%xmm10 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
@@ -40522,7 +40522,7 @@ _sk_repeat_y_sse2:
.byte 243,69,15,91,194 // cvttps2dq %xmm10,%xmm8
.byte 69,15,91,216 // cvtdq2ps %xmm8,%xmm11
.byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
- .byte 68,15,84,21,5,165,0,0 // andps 0xa505(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,84,21,197,164,0,0 // andps 0xa4c5(%rip),%xmm10 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
@@ -40548,13 +40548,13 @@ _sk_mirror_x_sse2:
.byte 65,15,92,193 // subps %xmm9,%xmm0
.byte 243,69,15,88,210 // addss %xmm10,%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,89,29,158,162,0,0 // mulss 0xa29e(%rip),%xmm11 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 243,68,15,89,29,94,162,0,0 // mulss 0xa25e(%rip),%xmm11 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
.byte 243,69,15,91,195 // cvttps2dq %xmm11,%xmm8
.byte 69,15,91,224 // cvtdq2ps %xmm8,%xmm12
.byte 69,15,194,220,1 // cmpltps %xmm12,%xmm11
- .byte 68,15,84,29,139,164,0,0 // andps 0xa48b(%rip),%xmm11 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,84,29,75,164,0,0 // andps 0xa44b(%rip),%xmm11 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,227 // subps %xmm11,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
@@ -40583,13 +40583,13 @@ _sk_mirror_y_sse2:
.byte 65,15,92,201 // subps %xmm9,%xmm1
.byte 243,69,15,88,210 // addss %xmm10,%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,89,29,25,162,0,0 // mulss 0xa219(%rip),%xmm11 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 243,68,15,89,29,217,161,0,0 // mulss 0xa1d9(%rip),%xmm11 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 68,15,89,217 // mulps %xmm1,%xmm11
.byte 243,69,15,91,195 // cvttps2dq %xmm11,%xmm8
.byte 69,15,91,224 // cvtdq2ps %xmm8,%xmm12
.byte 69,15,194,220,1 // cmpltps %xmm12,%xmm11
- .byte 68,15,84,29,6,164,0,0 // andps 0xa406(%rip),%xmm11 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,84,29,198,163,0,0 // andps 0xa3c6(%rip),%xmm11 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,227 // subps %xmm11,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
@@ -40612,7 +40612,7 @@ FUNCTION(_sk_clamp_x_1_sse2)
_sk_clamp_x_1_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,189,163,0,0 // minps 0xa3bd(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,93,5,125,163,0,0 // minps 0xa37d(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -40625,7 +40625,7 @@ _sk_repeat_x_1_sse2:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9
- .byte 68,15,84,13,155,163,0,0 // andps 0xa39b(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,84,13,91,163,0,0 // andps 0xa35b(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40635,14 +40635,14 @@ HIDDEN _sk_mirror_x_1_sse2
.globl _sk_mirror_x_1_sse2
FUNCTION(_sk_mirror_x_1_sse2)
_sk_mirror_x_1_sse2:
- .byte 68,15,40,5,231,163,0,0 // movaps 0xa3e7(%rip),%xmm8 # 29e50 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,167,163,0,0 // movaps 0xa3a7(%rip),%xmm8 # 29e10 <_sk_srcover_rgba_8888_sse2_lowp+0xa8c>
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,13,107,163,0,0 // movaps 0xa36b(%rip),%xmm9 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,40,13,43,163,0,0 // movaps 0xa32b(%rip),%xmm9 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,97,163,0,0 // andps 0xa361(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,84,13,33,163,0,0 // andps 0xa321(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,88,210 // addps %xmm10,%xmm10
@@ -40658,10 +40658,10 @@ HIDDEN _sk_luminance_to_alpha_sse2
FUNCTION(_sk_luminance_to_alpha_sse2)
_sk_luminance_to_alpha_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,135,168,0,0 // mulps 0xa887(%rip),%xmm0 # 2a340 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
- .byte 15,89,13,144,168,0,0 // mulps 0xa890(%rip),%xmm1 # 2a350 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 15,89,5,71,168,0,0 // mulps 0xa847(%rip),%xmm0 # 2a300 <_sk_srcover_rgba_8888_sse2_lowp+0xf7c>
+ .byte 15,89,13,80,168,0,0 // mulps 0xa850(%rip),%xmm1 # 2a310 <_sk_srcover_rgba_8888_sse2_lowp+0xf8c>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,150,168,0,0 // mulps 0xa896(%rip),%xmm3 # 2a360 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
+ .byte 15,89,29,86,168,0,0 // mulps 0xa856(%rip),%xmm3 # 2a320 <_sk_srcover_rgba_8888_sse2_lowp+0xf9c>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -41073,15 +41073,15 @@ HIDDEN _sk_gauss_a_to_rgba_sse2
.globl _sk_gauss_a_to_rgba_sse2
FUNCTION(_sk_gauss_a_to_rgba_sse2)
_sk_gauss_a_to_rgba_sse2:
- .byte 15,40,5,94,162,0,0 // movaps 0xa25e(%rip),%xmm0 # 2a370 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
+ .byte 15,40,5,30,162,0,0 // movaps 0xa21e(%rip),%xmm0 # 2a330 <_sk_srcover_rgba_8888_sse2_lowp+0xfac>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,100,162,0,0 // addps 0xa264(%rip),%xmm0 # 2a380 <_sk_srcover_rgba_8888_sse2_lowp+0xfc4>
+ .byte 15,88,5,36,162,0,0 // addps 0xa224(%rip),%xmm0 # 2a340 <_sk_srcover_rgba_8888_sse2_lowp+0xfbc>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,106,162,0,0 // addps 0xa26a(%rip),%xmm0 # 2a390 <_sk_srcover_rgba_8888_sse2_lowp+0xfd4>
+ .byte 15,88,5,42,162,0,0 // addps 0xa22a(%rip),%xmm0 # 2a350 <_sk_srcover_rgba_8888_sse2_lowp+0xfcc>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,112,162,0,0 // addps 0xa270(%rip),%xmm0 # 2a3a0 <_sk_srcover_rgba_8888_sse2_lowp+0xfe4>
+ .byte 15,88,5,48,162,0,0 // addps 0xa230(%rip),%xmm0 # 2a360 <_sk_srcover_rgba_8888_sse2_lowp+0xfdc>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,118,162,0,0 // addps 0xa276(%rip),%xmm0 # 2a3b0 <_sk_srcover_rgba_8888_sse2_lowp+0xff4>
+ .byte 15,88,5,54,162,0,0 // addps 0xa236(%rip),%xmm0 # 2a370 <_sk_srcover_rgba_8888_sse2_lowp+0xfec>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
@@ -41247,29 +41247,29 @@ _sk_xy_to_unit_angle_sse2:
.byte 69,15,94,220 // divps %xmm12,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
- .byte 68,15,40,45,6,160,0,0 // movaps 0xa006(%rip),%xmm13 # 2a3c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1004>
+ .byte 68,15,40,45,198,159,0,0 // movaps 0x9fc6(%rip),%xmm13 # 2a380 <_sk_srcover_rgba_8888_sse2_lowp+0xffc>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,10,160,0,0 // addps 0xa00a(%rip),%xmm13 # 2a3d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1014>
+ .byte 68,15,88,45,202,159,0,0 // addps 0x9fca(%rip),%xmm13 # 2a390 <_sk_srcover_rgba_8888_sse2_lowp+0x100c>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,14,160,0,0 // addps 0xa00e(%rip),%xmm13 # 2a3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1024>
+ .byte 68,15,88,45,206,159,0,0 // addps 0x9fce(%rip),%xmm13 # 2a3a0 <_sk_srcover_rgba_8888_sse2_lowp+0x101c>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,18,160,0,0 // addps 0xa012(%rip),%xmm13 # 2a3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1034>
+ .byte 68,15,88,45,210,159,0,0 // addps 0x9fd2(%rip),%xmm13 # 2a3b0 <_sk_srcover_rgba_8888_sse2_lowp+0x102c>
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,40,21,17,160,0,0 // movaps 0xa011(%rip),%xmm10 # 2a400 <_sk_srcover_rgba_8888_sse2_lowp+0x1044>
+ .byte 68,15,40,21,209,159,0,0 // movaps 0x9fd1(%rip),%xmm10 # 2a3c0 <_sk_srcover_rgba_8888_sse2_lowp+0x103c>
.byte 69,15,92,213 // subps %xmm13,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,205 // andnps %xmm13,%xmm9
.byte 69,15,86,202 // orps %xmm10,%xmm9
.byte 68,15,194,192,1 // cmpltps %xmm0,%xmm8
- .byte 68,15,40,21,212,153,0,0 // movaps 0x99d4(%rip),%xmm10 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,40,21,148,153,0,0 // movaps 0x9994(%rip),%xmm10 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,84,208 // andps %xmm8,%xmm10
.byte 69,15,85,193 // andnps %xmm9,%xmm8
.byte 69,15,86,194 // orps %xmm10,%xmm8
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,194,200,1 // cmpltps %xmm0,%xmm9
- .byte 68,15,40,21,195,153,0,0 // movaps 0x99c3(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,21,131,153,0,0 // movaps 0x9983(%rip),%xmm10 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,92,208 // subps %xmm8,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,200 // andnps %xmm8,%xmm9
@@ -41304,7 +41304,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,122,159,0,0 // mulps 0x9f7a(%rip),%xmm9 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
+ .byte 68,15,89,13,58,159,0,0 // mulps 0x9f3a(%rip),%xmm9 # 2a3d0 <_sk_srcover_rgba_8888_sse2_lowp+0x104c>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -41312,7 +41312,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,101,159,0,0 // mulps 0x9f65(%rip),%xmm10 # 2a420 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
+ .byte 68,15,89,21,37,159,0,0 // mulps 0x9f25(%rip),%xmm10 # 2a3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x105c>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -41321,8 +41321,8 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,13,158,0,0 // xorps 0x9e0d(%rip),%xmm9 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
- .byte 68,15,89,5,245,152,0,0 // mulps 0x98f5(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,87,13,205,157,0,0 // xorps 0x9dcd(%rip),%xmm9 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf2c>
+ .byte 68,15,89,5,181,152,0,0 // mulps 0x98b5(%rip),%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -41343,7 +41343,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,220,158,0,0 // mulps 0x9edc(%rip),%xmm9 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
+ .byte 68,15,89,13,156,158,0,0 // mulps 0x9e9c(%rip),%xmm9 # 2a3d0 <_sk_srcover_rgba_8888_sse2_lowp+0x104c>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -41351,7 +41351,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,199,158,0,0 // mulps 0x9ec7(%rip),%xmm10 # 2a420 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
+ .byte 68,15,89,21,135,158,0,0 // mulps 0x9e87(%rip),%xmm10 # 2a3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x105c>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -41360,8 +41360,8 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,111,157,0,0 // xorps 0x9d6f(%rip),%xmm9 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
- .byte 68,15,89,5,87,152,0,0 // mulps 0x9857(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,87,13,47,157,0,0 // xorps 0x9d2f(%rip),%xmm9 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf2c>
+ .byte 68,15,89,5,23,152,0,0 // mulps 0x9817(%rip),%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -41379,7 +41379,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,79,158,0,0 // mulps 0x9e4f(%rip),%xmm9 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
+ .byte 68,15,89,13,15,158,0,0 // mulps 0x9e0f(%rip),%xmm9 # 2a3d0 <_sk_srcover_rgba_8888_sse2_lowp+0x104c>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -41387,7 +41387,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,11,157,0,0 // xorps 0x9d0b(%rip),%xmm0 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 15,87,5,203,156,0,0 // xorps 0x9ccb(%rip),%xmm0 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf2c>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41430,7 +41430,7 @@ HIDDEN _sk_save_xy_sse2
FUNCTION(_sk_save_xy_sse2)
_sk_save_xy_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,145,151,0,0 // movaps 0x9791(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,40,5,81,151,0,0 // movaps 0x9751(%rip),%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -41438,7 +41438,7 @@ _sk_save_xy_sse2:
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,40,217 // movaps %xmm9,%xmm11
.byte 69,15,194,218,1 // cmpltps %xmm10,%xmm11
- .byte 68,15,40,37,124,151,0,0 // movaps 0x977c(%rip),%xmm12 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 68,15,40,37,60,151,0,0 // movaps 0x973c(%rip),%xmm12 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,92,211 // subps %xmm11,%xmm10
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -41485,8 +41485,8 @@ _sk_bilinear_nx_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,37,157,0,0 // addps 0x9d25(%rip),%xmm0 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
- .byte 68,15,40,13,221,150,0,0 // movaps 0x96dd(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,88,5,229,156,0,0 // addps 0x9ce5(%rip),%xmm0 # 2a3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x106c>
+ .byte 68,15,40,13,157,150,0,0 // movaps 0x969d(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41499,7 +41499,7 @@ _sk_bilinear_px_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,172,150,0,0 // addps 0x96ac(%rip),%xmm0 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,88,5,108,150,0,0 // addps 0x966c(%rip),%xmm0 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41511,8 +41511,8 @@ _sk_bilinear_ny_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,222,156,0,0 // addps 0x9cde(%rip),%xmm1 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
- .byte 68,15,40,13,150,150,0,0 // movaps 0x9696(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,88,13,158,156,0,0 // addps 0x9c9e(%rip),%xmm1 # 2a3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x106c>
+ .byte 68,15,40,13,86,150,0,0 // movaps 0x9656(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41525,7 +41525,7 @@ _sk_bilinear_py_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,100,150,0,0 // addps 0x9664(%rip),%xmm1 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,88,13,36,150,0,0 // addps 0x9624(%rip),%xmm1 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41537,13 +41537,13 @@ _sk_bicubic_n3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,167,156,0,0 // addps 0x9ca7(%rip),%xmm0 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
- .byte 68,15,40,13,79,150,0,0 // movaps 0x964f(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,88,5,103,156,0,0 // addps 0x9c67(%rip),%xmm0 # 2a400 <_sk_srcover_rgba_8888_sse2_lowp+0x107c>
+ .byte 68,15,40,13,15,150,0,0 // movaps 0x960f(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,155,156,0,0 // mulps 0x9c9b(%rip),%xmm9 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
- .byte 68,15,88,13,35,152,0,0 // addps 0x9823(%rip),%xmm9 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
+ .byte 68,15,89,13,91,156,0,0 // mulps 0x9c5b(%rip),%xmm9 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x108c>
+ .byte 68,15,88,13,227,151,0,0 // addps 0x97e3(%rip),%xmm9 # 29fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xc1c>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41556,16 +41556,16 @@ _sk_bicubic_n1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,82,156,0,0 // addps 0x9c52(%rip),%xmm0 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
- .byte 68,15,40,13,10,150,0,0 // movaps 0x960a(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,88,5,18,156,0,0 // addps 0x9c12(%rip),%xmm0 # 2a3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x106c>
+ .byte 68,15,40,13,202,149,0,0 // movaps 0x95ca(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,110,156,0,0 // movaps 0x9c6e(%rip),%xmm8 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,40,5,46,156,0,0 // movaps 0x9c2e(%rip),%xmm8 # 2a420 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,114,156,0,0 // addps 0x9c72(%rip),%xmm8 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,88,5,50,156,0,0 // addps 0x9c32(%rip),%xmm8 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,214,149,0,0 // addps 0x95d6(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,88,5,150,149,0,0 // addps 0x9596(%rip),%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,106,156,0,0 // addps 0x9c6a(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 68,15,88,5,42,156,0,0 // addps 0x9c2a(%rip),%xmm8 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x10bc>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41575,17 +41575,17 @@ HIDDEN _sk_bicubic_p1x_sse2
FUNCTION(_sk_bicubic_p1x_sse2)
_sk_bicubic_p1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,180,149,0,0 // movaps 0x95b4(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,40,5,116,149,0,0 // movaps 0x9574(%rip),%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,32,156,0,0 // movaps 0x9c20(%rip),%xmm10 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,40,21,224,155,0,0 // movaps 0x9be0(%rip),%xmm10 # 2a420 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,36,156,0,0 // addps 0x9c24(%rip),%xmm10 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,88,21,228,155,0,0 // addps 0x9be4(%rip),%xmm10 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,32,156,0,0 // addps 0x9c20(%rip),%xmm10 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 68,15,88,21,224,155,0,0 // addps 0x9be0(%rip),%xmm10 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x10bc>
.byte 68,15,17,144,128,0,0,0 // movups %xmm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41597,11 +41597,11 @@ _sk_bicubic_p3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,243,155,0,0 // addps 0x9bf3(%rip),%xmm0 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 15,88,5,179,155,0,0 // addps 0x9bb3(%rip),%xmm0 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,195,155,0,0 // mulps 0x9bc3(%rip),%xmm8 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
- .byte 68,15,88,5,75,151,0,0 // addps 0x974b(%rip),%xmm8 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
+ .byte 68,15,89,5,131,155,0,0 // mulps 0x9b83(%rip),%xmm8 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x108c>
+ .byte 68,15,88,5,11,151,0,0 // addps 0x970b(%rip),%xmm8 # 29fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xc1c>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41614,13 +41614,13 @@ _sk_bicubic_n3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,137,155,0,0 // addps 0x9b89(%rip),%xmm1 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
- .byte 68,15,40,13,49,149,0,0 // movaps 0x9531(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,88,13,73,155,0,0 // addps 0x9b49(%rip),%xmm1 # 2a400 <_sk_srcover_rgba_8888_sse2_lowp+0x107c>
+ .byte 68,15,40,13,241,148,0,0 // movaps 0x94f1(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,125,155,0,0 // mulps 0x9b7d(%rip),%xmm9 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
- .byte 68,15,88,13,5,151,0,0 // addps 0x9705(%rip),%xmm9 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
+ .byte 68,15,89,13,61,155,0,0 // mulps 0x9b3d(%rip),%xmm9 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x108c>
+ .byte 68,15,88,13,197,150,0,0 // addps 0x96c5(%rip),%xmm9 # 29fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xc1c>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41633,16 +41633,16 @@ _sk_bicubic_n1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,51,155,0,0 // addps 0x9b33(%rip),%xmm1 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
- .byte 68,15,40,13,235,148,0,0 // movaps 0x94eb(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,88,13,243,154,0,0 // addps 0x9af3(%rip),%xmm1 # 2a3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x106c>
+ .byte 68,15,40,13,171,148,0,0 // movaps 0x94ab(%rip),%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,79,155,0,0 // movaps 0x9b4f(%rip),%xmm8 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,40,5,15,155,0,0 // movaps 0x9b0f(%rip),%xmm8 # 2a420 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,83,155,0,0 // addps 0x9b53(%rip),%xmm8 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,88,5,19,155,0,0 // addps 0x9b13(%rip),%xmm8 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,183,148,0,0 // addps 0x94b7(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,88,5,119,148,0,0 // addps 0x9477(%rip),%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,75,155,0,0 // addps 0x9b4b(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 68,15,88,5,11,155,0,0 // addps 0x9b0b(%rip),%xmm8 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x10bc>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41652,17 +41652,17 @@ HIDDEN _sk_bicubic_p1y_sse2
FUNCTION(_sk_bicubic_p1y_sse2)
_sk_bicubic_p1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,149,148,0,0 // movaps 0x9495(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,40,5,85,148,0,0 // movaps 0x9455(%rip),%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,0,155,0,0 // movaps 0x9b00(%rip),%xmm10 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,40,21,192,154,0,0 // movaps 0x9ac0(%rip),%xmm10 # 2a420 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,4,155,0,0 // addps 0x9b04(%rip),%xmm10 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,88,21,196,154,0,0 // addps 0x9ac4(%rip),%xmm10 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,0,155,0,0 // addps 0x9b00(%rip),%xmm10 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 68,15,88,21,192,154,0,0 // addps 0x9ac0(%rip),%xmm10 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x10bc>
.byte 68,15,17,144,160,0,0,0 // movups %xmm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41674,11 +41674,11 @@ _sk_bicubic_p3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,210,154,0,0 // addps 0x9ad2(%rip),%xmm1 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 15,88,13,146,154,0,0 // addps 0x9a92(%rip),%xmm1 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,162,154,0,0 // mulps 0x9aa2(%rip),%xmm8 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
- .byte 68,15,88,5,42,150,0,0 // addps 0x962a(%rip),%xmm8 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
+ .byte 68,15,89,5,98,154,0,0 // mulps 0x9a62(%rip),%xmm8 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x108c>
+ .byte 68,15,88,5,234,149,0,0 // addps 0x95ea(%rip),%xmm8 # 29fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xc1c>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41823,7 +41823,7 @@ _sk_clut_3D_sse2:
.byte 102,65,15,254,205 // paddd %xmm13,%xmm1
.byte 102,68,15,127,108,36,208 // movdqa %xmm13,-0x30(%rsp)
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,5,233,152,0,0 // movdqa 0x98e9(%rip),%xmm8 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 102,68,15,111,5,169,152,0,0 // movdqa 0x98a9(%rip),%xmm8 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,65,15,244,216 // pmuludq %xmm8,%xmm3
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
@@ -41862,7 +41862,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,37,176,145,0,0 // movdqa 0x91b0(%rip),%xmm12 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,68,15,111,37,112,145,0,0 // movdqa 0x9170(%rip),%xmm12 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,65,15,254,196 // paddd %xmm12,%xmm0
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -41878,7 +41878,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
.byte 15,20,224 // unpcklps %xmm0,%xmm4
.byte 102,15,20,236 // unpcklpd %xmm4,%xmm5
- .byte 15,40,37,213,151,0,0 // movaps 0x97d5(%rip),%xmm4 # 2a490 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+ .byte 15,40,37,149,151,0,0 // movaps 0x9795(%rip),%xmm4 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x10cc>
.byte 68,15,88,220 // addps %xmm4,%xmm11
.byte 68,15,41,92,36,192 // movaps %xmm11,-0x40(%rsp)
.byte 68,15,40,223 // movaps %xmm7,%xmm11
@@ -41914,7 +41914,7 @@ _sk_clut_3D_sse2:
.byte 15,20,249 // unpcklps %xmm1,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,74,151,0,0 // psubd 0x974a(%rip),%xmm1 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 102,15,250,13,10,151,0,0 // psubd 0x970a(%rip),%xmm1 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
.byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42004,7 +42004,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,233 // unpcklps %xmm1,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,45,34,143,0,0 // movdqa 0x8f22(%rip),%xmm13 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,68,15,111,45,226,142,0,0 // movdqa 0x8ee2(%rip),%xmm13 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,65,15,254,197 // paddd %xmm13,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
@@ -42101,7 +42101,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
- .byte 102,15,111,29,229,147,0,0 // movdqa 0x93e5(%rip),%xmm3 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 102,15,111,29,165,147,0,0 // movdqa 0x93a5(%rip),%xmm3 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
.byte 102,15,244,203 // pmuludq %xmm3,%xmm1
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -42139,7 +42139,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,213 // unpcklpd %xmm5,%xmm2
- .byte 102,15,111,5,181,140,0,0 // movdqa 0x8cb5(%rip),%xmm0 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,15,111,5,117,140,0,0 // movdqa 0x8c75(%rip),%xmm0 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -42220,7 +42220,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,65,15,254,212 // paddd %xmm12,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,194,145,0,0 // movdqa 0x91c2(%rip),%xmm1 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 102,15,111,13,130,145,0,0 // movdqa 0x9182(%rip),%xmm1 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -42242,7 +42242,7 @@ _sk_clut_3D_sse2:
.byte 68,15,20,209 // unpcklps %xmm1,%xmm10
.byte 102,68,15,20,210 // unpcklpd %xmm2,%xmm10
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,103,145,0,0 // psubd 0x9167(%rip),%xmm1 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 102,15,250,13,39,145,0,0 // psubd 0x9127(%rip),%xmm1 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42257,7 +42257,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
- .byte 102,15,254,5,146,138,0,0 // paddd 0x8a92(%rip),%xmm0 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,15,254,5,82,138,0,0 // paddd 0x8a52(%rip),%xmm0 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -42294,7 +42294,7 @@ _sk_clut_3D_sse2:
.byte 15,20,199 // unpcklps %xmm7,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,113,144,0,0 // psubd 0x9071(%rip),%xmm1 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 102,15,250,13,49,144,0,0 // psubd 0x9031(%rip),%xmm1 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
.byte 102,15,112,249,78 // pshufd $0x4e,%xmm1,%xmm7
.byte 102,73,15,126,248 // movq %xmm7,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42309,7 +42309,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
.byte 15,20,247 // unpcklps %xmm7,%xmm6
.byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,15,254,21,156,137,0,0 // paddd 0x899c(%rip),%xmm2 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,15,254,21,92,137,0,0 // paddd 0x895c(%rip),%xmm2 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -42455,7 +42455,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,210 // paddd %xmm10,%xmm2
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,37,180,141,0,0 // movdqa 0x8db4(%rip),%xmm4 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 102,15,111,37,116,141,0,0 // movdqa 0x8d74(%rip),%xmm4 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -42494,7 +42494,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,5,126,134,0,0 // paddd 0x867e(%rip),%xmm0 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,15,254,5,62,134,0,0 // paddd 0x863e(%rip),%xmm0 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -42509,7 +42509,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,53,168,140,0,0 // movaps 0x8ca8(%rip),%xmm6 # 2a490 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+ .byte 15,40,53,104,140,0,0 // movaps 0x8c68(%rip),%xmm6 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x10cc>
.byte 68,15,88,198 // addps %xmm6,%xmm8
.byte 68,15,41,68,36,176 // movaps %xmm8,-0x50(%rsp)
.byte 68,15,88,254 // addps %xmm6,%xmm15
@@ -42527,7 +42527,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,215 // paddd %xmm15,%xmm2
.byte 102,68,15,127,124,36,224 // movdqa %xmm15,-0x20(%rsp)
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,94,140,0,0 // movdqa 0x8c5e(%rip),%xmm1 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 102,15,111,13,30,140,0,0 // movdqa 0x8c1e(%rip),%xmm1 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -42548,7 +42548,7 @@ _sk_clut_4D_sse2:
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,242 // unpcklpd %xmm2,%xmm6
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,9,140,0,0 // psubd 0x8c09(%rip),%xmm0 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 102,15,250,5,201,139,0,0 // psubd 0x8bc9(%rip),%xmm0 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -42563,7 +42563,7 @@ _sk_clut_4D_sse2:
.byte 243,68,15,16,28,131 // movss (%rbx,%rax,4),%xmm11
.byte 68,15,20,216 // unpcklps %xmm0,%xmm11
.byte 102,65,15,20,211 // unpcklpd %xmm11,%xmm2
- .byte 102,15,254,13,49,133,0,0 // paddd 0x8531(%rip),%xmm1 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,15,254,13,241,132,0,0 // paddd 0x84f1(%rip),%xmm1 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42601,7 +42601,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
.byte 102,15,254,68,36,160 // paddd -0x60(%rsp),%xmm0
.byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3
- .byte 102,15,111,37,8,139,0,0 // movdqa 0x8b08(%rip),%xmm4 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 102,15,111,37,200,138,0,0 // movdqa 0x8ac8(%rip),%xmm4 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,68,15,111,220 // movdqa %xmm4,%xmm11
@@ -42639,7 +42639,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
.byte 15,20,253 // unpcklps %xmm5,%xmm7
.byte 102,15,20,199 // unpcklpd %xmm7,%xmm0
- .byte 102,68,15,111,5,212,131,0,0 // movdqa 0x83d4(%rip),%xmm8 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,68,15,111,5,148,131,0,0 // movdqa 0x8394(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,65,15,254,224 // paddd %xmm8,%xmm4
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,73,15,126,232 // movq %xmm5,%r8
@@ -42785,7 +42785,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,226 // unpcklps %xmm2,%xmm4
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,68,15,111,61,46,129,0,0 // movdqa 0x812e(%rip),%xmm15 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,68,15,111,61,238,128,0,0 // movdqa 0x80ee(%rip),%xmm15 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,65,15,254,207 // paddd %xmm15,%xmm1
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
@@ -42868,7 +42868,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
.byte 102,65,15,254,216 // paddd %xmm8,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,45,61,134,0,0 // movdqa 0x863d(%rip),%xmm5 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 102,15,111,45,253,133,0,0 // movdqa 0x85fd(%rip),%xmm5 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
.byte 102,15,244,221 // pmuludq %xmm5,%xmm3
.byte 102,15,244,213 // pmuludq %xmm5,%xmm2
.byte 102,15,112,234,232 // pshufd $0xe8,%xmm2,%xmm5
@@ -42889,7 +42889,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,198 // unpcklps %xmm6,%xmm8
.byte 102,68,15,20,197 // unpcklpd %xmm5,%xmm8
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,250,45,230,133,0,0 // psubd 0x85e6(%rip),%xmm5 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 102,15,250,45,166,133,0,0 // psubd 0x85a6(%rip),%xmm5 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
.byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -42921,7 +42921,7 @@ _sk_clut_4D_sse2:
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
.byte 102,69,15,254,205 // paddd %xmm13,%xmm9
.byte 102,65,15,112,233,245 // pshufd $0xf5,%xmm9,%xmm5
- .byte 102,15,111,29,68,133,0,0 // movdqa 0x8544(%rip),%xmm3 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 102,15,111,29,4,133,0,0 // movdqa 0x8504(%rip),%xmm3 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
.byte 102,68,15,244,203 // pmuludq %xmm3,%xmm9
.byte 102,15,244,235 // pmuludq %xmm3,%xmm5
.byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
@@ -42942,7 +42942,7 @@ _sk_clut_4D_sse2:
.byte 69,15,20,233 // unpcklps %xmm9,%xmm13
.byte 102,68,15,20,237 // unpcklpd %xmm5,%xmm13
.byte 102,65,15,111,239 // movdqa %xmm15,%xmm5
- .byte 102,15,250,45,228,132,0,0 // psubd 0x84e4(%rip),%xmm5 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 102,15,250,45,164,132,0,0 // psubd 0x84a4(%rip),%xmm5 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
.byte 102,15,112,221,78 // pshufd $0x4e,%xmm5,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -42957,7 +42957,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,245 // unpcklpd %xmm5,%xmm6
- .byte 102,68,15,111,13,14,126,0,0 // movdqa 0x7e0e(%rip),%xmm9 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,68,15,111,13,206,125,0,0 // movdqa 0x7dce(%rip),%xmm9 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,69,15,254,249 // paddd %xmm9,%xmm15
.byte 102,65,15,112,223,78 // pshufd $0x4e,%xmm15,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -43019,7 +43019,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,21,127,131,0,0 // movdqa 0x837f(%rip),%xmm2 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 102,15,111,21,63,131,0,0 // movdqa 0x833f(%rip),%xmm2 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,68,15,111,234 // movdqa %xmm2,%xmm13
@@ -43212,7 +43212,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,238 // unpcklps %xmm6,%xmm13
.byte 102,68,15,20,234 // unpcklpd %xmm2,%xmm13
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,250,21,27,128,0,0 // psubd 0x801b(%rip),%xmm2 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 102,15,250,21,219,127,0,0 // psubd 0x7fdb(%rip),%xmm2 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -43272,7 +43272,7 @@ _sk_clut_4D_sse2:
.byte 102,68,15,111,116,36,160 // movdqa -0x60(%rsp),%xmm14
.byte 102,65,15,254,198 // paddd %xmm14,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,68,15,111,5,250,126,0,0 // movdqa 0x7efa(%rip),%xmm8 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 102,68,15,111,5,186,126,0,0 // movdqa 0x7eba(%rip),%xmm8 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
.byte 102,65,15,244,200 // pmuludq %xmm8,%xmm1
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
@@ -43310,7 +43310,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
- .byte 102,68,15,111,5,200,119,0,0 // movdqa 0x77c8(%rip),%xmm8 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,68,15,111,5,136,119,0,0 // movdqa 0x7788(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,65,15,254,208 // paddd %xmm8,%xmm2
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -43393,7 +43393,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,37,212,124,0,0 // movdqa 0x7cd4(%rip),%xmm4 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 102,15,111,37,148,124,0,0 // movdqa 0x7c94(%rip),%xmm4 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1
@@ -43414,7 +43414,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,193 // unpcklps %xmm1,%xmm8
.byte 102,68,15,20,194 // unpcklpd %xmm2,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,125,124,0,0 // psubd 0x7c7d(%rip),%xmm1 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 102,15,250,13,61,124,0,0 // psubd 0x7c3d(%rip),%xmm1 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -43429,7 +43429,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,68,15,20,242 // unpcklpd %xmm2,%xmm14
- .byte 102,15,254,5,166,117,0,0 // paddd 0x75a6(%rip),%xmm0 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,15,254,5,102,117,0,0 // paddd 0x7566(%rip),%xmm0 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -43467,7 +43467,7 @@ _sk_clut_4D_sse2:
.byte 15,20,198 // unpcklps %xmm6,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,133,123,0,0 // psubd 0x7b85(%rip),%xmm1 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 102,15,250,13,69,123,0,0 // psubd 0x7b45(%rip),%xmm1 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -43482,7 +43482,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,230 // unpcklps %xmm6,%xmm4
.byte 102,15,20,204 // unpcklpd %xmm4,%xmm1
- .byte 102,15,254,21,176,116,0,0 // paddd 0x74b0(%rip),%xmm2 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 102,15,254,21,112,116,0,0 // paddd 0x7470(%rip),%xmm2 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa5c>
.byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -43541,7 +43541,7 @@ _sk_clut_4D_sse2:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,215 // addps %xmm15,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,156,115,0,0 // movaps 0x739c(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 15,40,29,92,115,0,0 // movaps 0x735c(%rip),%xmm3 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
.byte 15,40,100,36,96 // movaps 0x60(%rsp),%xmm4
.byte 15,40,108,36,112 // movaps 0x70(%rsp),%xmm5
.byte 15,40,180,36,128,0,0,0 // movaps 0x80(%rsp),%xmm6
@@ -43635,18 +43635,10 @@ HIDDEN _sk_uniform_color_hsw_lowp
FUNCTION(_sk_uniform_color_hsw_lowp)
_sk_uniform_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,182,64,16 // movzbl 0x10(%rax),%r8d
- .byte 196,193,121,110,192 // vmovd %r8d,%xmm0
- .byte 196,226,125,121,192 // vpbroadcastw %xmm0,%ymm0
- .byte 68,15,182,64,17 // movzbl 0x11(%rax),%r8d
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 196,226,125,121,201 // vpbroadcastw %xmm1,%ymm1
- .byte 68,15,182,64,18 // movzbl 0x12(%rax),%r8d
- .byte 196,193,121,110,208 // vmovd %r8d,%xmm2
- .byte 196,226,125,121,210 // vpbroadcastw %xmm2,%ymm2
- .byte 15,182,64,19 // movzbl 0x13(%rax),%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,226,125,121,219 // vpbroadcastw %xmm3,%ymm3
+ .byte 196,226,125,121,64,16 // vpbroadcastw 0x10(%rax),%ymm0
+ .byte 196,226,125,121,72,18 // vpbroadcastw 0x12(%rax),%ymm1
+ .byte 196,226,125,121,80,20 // vpbroadcastw 0x14(%rax),%ymm2
+ .byte 196,226,125,121,88,22 // vpbroadcastw 0x16(%rax),%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -43655,7 +43647,7 @@ HIDDEN _sk_black_color_hsw_lowp
FUNCTION(_sk_black_color_hsw_lowp)
_sk_black_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,64,111,0,0 // vpbroadcastw 0x6f40(%rip),%ymm3 # 29ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x724>
+ .byte 196,226,125,121,29,34,111,0,0 // vpbroadcastw 0x6f22(%rip),%ymm3 # 29aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x71c>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -43666,7 +43658,7 @@ HIDDEN _sk_white_color_hsw_lowp
FUNCTION(_sk_white_color_hsw_lowp)
_sk_white_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,5,41,111,0,0 // vpbroadcastw 0x6f29(%rip),%ymm0 # 29ae2 <_sk_srcover_rgba_8888_sse2_lowp+0x726>
+ .byte 196,226,125,121,5,11,111,0,0 // vpbroadcastw 0x6f0b(%rip),%ymm0 # 29aa2 <_sk_srcover_rgba_8888_sse2_lowp+0x71e>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 197,253,111,216 // vmovdqa %ymm0,%ymm3
@@ -43677,8 +43669,8 @@ HIDDEN _sk_set_rgb_hsw_lowp
FUNCTION(_sk_set_rgb_hsw_lowp)
_sk_set_rgb_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,5,19,112,0,0 // vmovss 0x7013(%rip),%xmm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
- .byte 197,250,16,21,59,112,0,0 // vmovss 0x703b(%rip),%xmm2 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 197,122,16,5,245,111,0,0 // vmovss 0x6ff5(%rip),%xmm8 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
+ .byte 197,250,16,21,29,112,0,0 // vmovss 0x701d(%rip),%xmm2 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 197,250,16,0 // vmovss (%rax),%xmm0
.byte 196,226,57,153,194 // vfmadd132ss %xmm2,%xmm8,%xmm0
.byte 197,122,44,192 // vcvttss2si %xmm0,%r8d
@@ -43701,7 +43693,7 @@ HIDDEN _sk_premul_hsw_lowp
FUNCTION(_sk_premul_hsw_lowp)
_sk_premul_hsw_lowp:
.byte 197,229,213,192 // vpmullw %ymm0,%ymm3,%ymm0
- .byte 196,98,125,121,5,184,110,0,0 // vpbroadcastw 0x6eb8(%rip),%ymm8 # 29ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x728>
+ .byte 196,98,125,121,5,154,110,0,0 // vpbroadcastw 0x6e9a(%rip),%ymm8 # 29aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x720>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,229,213,201 // vpmullw %ymm1,%ymm3,%ymm1
@@ -43749,7 +43741,7 @@ HIDDEN _sk_invert_hsw_lowp
.globl _sk_invert_hsw_lowp
FUNCTION(_sk_invert_hsw_lowp)
_sk_invert_hsw_lowp:
- .byte 196,98,125,121,5,79,110,0,0 // vpbroadcastw 0x6e4f(%rip),%ymm8 # 29ae6 <_sk_srcover_rgba_8888_sse2_lowp+0x72a>
+ .byte 196,98,125,121,5,49,110,0,0 // vpbroadcastw 0x6e31(%rip),%ymm8 # 29aa6 <_sk_srcover_rgba_8888_sse2_lowp+0x722>
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,189,249,201 // vpsubw %ymm1,%ymm8,%ymm1
.byte 197,189,249,210 // vpsubw %ymm2,%ymm8,%ymm2
@@ -43773,7 +43765,7 @@ HIDDEN _sk_srcatop_hsw_lowp
FUNCTION(_sk_srcatop_hsw_lowp)
_sk_srcatop_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,28,110,0,0 // vpbroadcastw 0x6e1c(%rip),%ymm8 # 29ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x72c>
+ .byte 196,98,125,121,5,254,109,0,0 // vpbroadcastw 0x6dfe(%rip),%ymm8 # 29aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x724>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,101,213,204 // vpmullw %ymm4,%ymm3,%ymm9
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -43800,7 +43792,7 @@ HIDDEN _sk_dstatop_hsw_lowp
FUNCTION(_sk_dstatop_hsw_lowp)
_sk_dstatop_hsw_lowp:
.byte 197,93,213,195 // vpmullw %ymm3,%ymm4,%ymm8
- .byte 196,98,125,121,13,188,109,0,0 // vpbroadcastw 0x6dbc(%rip),%ymm9 # 29aea <_sk_srcover_rgba_8888_sse2_lowp+0x72e>
+ .byte 196,98,125,121,13,158,109,0,0 // vpbroadcastw 0x6d9e(%rip),%ymm9 # 29aaa <_sk_srcover_rgba_8888_sse2_lowp+0x726>
.byte 197,53,249,215 // vpsubw %ymm7,%ymm9,%ymm10
.byte 197,173,213,192 // vpmullw %ymm0,%ymm10,%ymm0
.byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
@@ -43827,7 +43819,7 @@ HIDDEN _sk_srcin_hsw_lowp
FUNCTION(_sk_srcin_hsw_lowp)
_sk_srcin_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,89,109,0,0 // vpbroadcastw 0x6d59(%rip),%ymm8 # 29aec <_sk_srcover_rgba_8888_sse2_lowp+0x730>
+ .byte 196,98,125,121,5,59,109,0,0 // vpbroadcastw 0x6d3b(%rip),%ymm8 # 29aac <_sk_srcover_rgba_8888_sse2_lowp+0x728>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,197,213,201 // vpmullw %ymm1,%ymm7,%ymm1
@@ -43847,7 +43839,7 @@ HIDDEN _sk_dstin_hsw_lowp
FUNCTION(_sk_dstin_hsw_lowp)
_sk_dstin_hsw_lowp:
.byte 197,221,213,195 // vpmullw %ymm3,%ymm4,%ymm0
- .byte 196,98,125,121,5,22,109,0,0 // vpbroadcastw 0x6d16(%rip),%ymm8 # 29aee <_sk_srcover_rgba_8888_sse2_lowp+0x732>
+ .byte 196,98,125,121,5,248,108,0,0 // vpbroadcastw 0x6cf8(%rip),%ymm8 # 29aae <_sk_srcover_rgba_8888_sse2_lowp+0x72a>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,203 // vpmullw %ymm3,%ymm5,%ymm1
@@ -43866,7 +43858,7 @@ HIDDEN _sk_srcout_hsw_lowp
.globl _sk_srcout_hsw_lowp
FUNCTION(_sk_srcout_hsw_lowp)
_sk_srcout_hsw_lowp:
- .byte 196,98,125,121,5,215,108,0,0 // vpbroadcastw 0x6cd7(%rip),%ymm8 # 29af0 <_sk_srcover_rgba_8888_sse2_lowp+0x734>
+ .byte 196,98,125,121,5,185,108,0,0 // vpbroadcastw 0x6cb9(%rip),%ymm8 # 29ab0 <_sk_srcover_rgba_8888_sse2_lowp+0x72c>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -43887,7 +43879,7 @@ HIDDEN _sk_dstout_hsw_lowp
.globl _sk_dstout_hsw_lowp
FUNCTION(_sk_dstout_hsw_lowp)
_sk_dstout_hsw_lowp:
- .byte 196,98,125,121,5,144,108,0,0 // vpbroadcastw 0x6c90(%rip),%ymm8 # 29af2 <_sk_srcover_rgba_8888_sse2_lowp+0x736>
+ .byte 196,98,125,121,5,114,108,0,0 // vpbroadcastw 0x6c72(%rip),%ymm8 # 29ab2 <_sk_srcover_rgba_8888_sse2_lowp+0x72e>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,229,213,196 // vpmullw %ymm4,%ymm3,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -43908,7 +43900,7 @@ HIDDEN _sk_srcover_hsw_lowp
.globl _sk_srcover_hsw_lowp
FUNCTION(_sk_srcover_hsw_lowp)
_sk_srcover_hsw_lowp:
- .byte 196,98,125,121,5,73,108,0,0 // vpbroadcastw 0x6c49(%rip),%ymm8 # 29af4 <_sk_srcover_rgba_8888_sse2_lowp+0x738>
+ .byte 196,98,125,121,5,43,108,0,0 // vpbroadcastw 0x6c2b(%rip),%ymm8 # 29ab4 <_sk_srcover_rgba_8888_sse2_lowp+0x730>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,45,253,208 // vpaddw %ymm8,%ymm10,%ymm10
@@ -43933,7 +43925,7 @@ HIDDEN _sk_dstover_hsw_lowp
.globl _sk_dstover_hsw_lowp
FUNCTION(_sk_dstover_hsw_lowp)
_sk_dstover_hsw_lowp:
- .byte 196,98,125,121,5,238,107,0,0 // vpbroadcastw 0x6bee(%rip),%ymm8 # 29af6 <_sk_srcover_rgba_8888_sse2_lowp+0x73a>
+ .byte 196,98,125,121,5,208,107,0,0 // vpbroadcastw 0x6bd0(%rip),%ymm8 # 29ab6 <_sk_srcover_rgba_8888_sse2_lowp+0x732>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -43959,7 +43951,7 @@ HIDDEN _sk_modulate_hsw_lowp
FUNCTION(_sk_modulate_hsw_lowp)
_sk_modulate_hsw_lowp:
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,147,107,0,0 // vpbroadcastw 0x6b93(%rip),%ymm8 # 29af8 <_sk_srcover_rgba_8888_sse2_lowp+0x73c>
+ .byte 196,98,125,121,5,117,107,0,0 // vpbroadcastw 0x6b75(%rip),%ymm8 # 29ab8 <_sk_srcover_rgba_8888_sse2_lowp+0x734>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,201 // vpmullw %ymm1,%ymm5,%ymm1
@@ -43978,7 +43970,7 @@ HIDDEN _sk_multiply_hsw_lowp
.globl _sk_multiply_hsw_lowp
FUNCTION(_sk_multiply_hsw_lowp)
_sk_multiply_hsw_lowp:
- .byte 196,98,125,121,5,84,107,0,0 // vpbroadcastw 0x6b54(%rip),%ymm8 # 29afa <_sk_srcover_rgba_8888_sse2_lowp+0x73e>
+ .byte 196,98,125,121,5,54,107,0,0 // vpbroadcastw 0x6b36(%rip),%ymm8 # 29aba <_sk_srcover_rgba_8888_sse2_lowp+0x736>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,93,253,216 // vpaddw %ymm8,%ymm4,%ymm11
@@ -44014,7 +44006,7 @@ HIDDEN _sk_plus__hsw_lowp
FUNCTION(_sk_plus__hsw_lowp)
_sk_plus__hsw_lowp:
.byte 197,221,253,192 // vpaddw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,202,106,0,0 // vpbroadcastw 0x6aca(%rip),%ymm8 # 29afc <_sk_srcover_rgba_8888_sse2_lowp+0x740>
+ .byte 196,98,125,121,5,172,106,0,0 // vpbroadcastw 0x6aac(%rip),%ymm8 # 29abc <_sk_srcover_rgba_8888_sse2_lowp+0x738>
.byte 196,194,125,58,192 // vpminuw %ymm8,%ymm0,%ymm0
.byte 197,213,253,201 // vpaddw %ymm1,%ymm5,%ymm1
.byte 196,194,117,58,200 // vpminuw %ymm8,%ymm1,%ymm1
@@ -44031,7 +44023,7 @@ FUNCTION(_sk_screen_hsw_lowp)
_sk_screen_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,151,106,0,0 // vpbroadcastw 0x6a97(%rip),%ymm9 # 29afe <_sk_srcover_rgba_8888_sse2_lowp+0x742>
+ .byte 196,98,125,121,13,121,106,0,0 // vpbroadcastw 0x6a79(%rip),%ymm9 # 29abe <_sk_srcover_rgba_8888_sse2_lowp+0x73a>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -44057,7 +44049,7 @@ HIDDEN _sk_xor__hsw_lowp
.globl _sk_xor__hsw_lowp
FUNCTION(_sk_xor__hsw_lowp)
_sk_xor__hsw_lowp:
- .byte 196,98,125,121,5,60,106,0,0 // vpbroadcastw 0x6a3c(%rip),%ymm8 # 29b00 <_sk_srcover_rgba_8888_sse2_lowp+0x744>
+ .byte 196,98,125,121,5,30,106,0,0 // vpbroadcastw 0x6a1e(%rip),%ymm8 # 29ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x73c>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 197,61,249,211 // vpsubw %ymm3,%ymm8,%ymm10
@@ -44091,7 +44083,7 @@ _sk_darken_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,62,193 // vpmaxuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,192,105,0,0 // vpbroadcastw 0x69c0(%rip),%ymm9 # 29b02 <_sk_srcover_rgba_8888_sse2_lowp+0x746>
+ .byte 196,98,125,121,13,162,105,0,0 // vpbroadcastw 0x69a2(%rip),%ymm9 # 29ac2 <_sk_srcover_rgba_8888_sse2_lowp+0x73e>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -44125,7 +44117,7 @@ _sk_lighten_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,65,105,0,0 // vpbroadcastw 0x6941(%rip),%ymm9 # 29b04 <_sk_srcover_rgba_8888_sse2_lowp+0x748>
+ .byte 196,98,125,121,13,35,105,0,0 // vpbroadcastw 0x6923(%rip),%ymm9 # 29ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x740>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -44159,10 +44151,10 @@ _sk_difference_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,194,104,0,0 // vpbroadcastw 0x68c2(%rip),%ymm9 # 29b06 <_sk_srcover_rgba_8888_sse2_lowp+0x74a>
+ .byte 196,98,125,121,13,164,104,0,0 // vpbroadcastw 0x68a4(%rip),%ymm9 # 29ac6 <_sk_srcover_rgba_8888_sse2_lowp+0x742>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,177,104,0,0 // vpbroadcastw 0x68b1(%rip),%ymm10 # 29b08 <_sk_srcover_rgba_8888_sse2_lowp+0x74c>
+ .byte 196,98,125,121,21,147,104,0,0 // vpbroadcastw 0x6893(%rip),%ymm10 # 29ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x744>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -44195,10 +44187,10 @@ FUNCTION(_sk_exclusion_hsw_lowp)
_sk_exclusion_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,54,104,0,0 // vpbroadcastw 0x6836(%rip),%ymm9 # 29b0a <_sk_srcover_rgba_8888_sse2_lowp+0x74e>
+ .byte 196,98,125,121,13,24,104,0,0 // vpbroadcastw 0x6818(%rip),%ymm9 # 29aca <_sk_srcover_rgba_8888_sse2_lowp+0x746>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,37,104,0,0 // vpbroadcastw 0x6825(%rip),%ymm10 # 29b0c <_sk_srcover_rgba_8888_sse2_lowp+0x750>
+ .byte 196,98,125,121,21,7,104,0,0 // vpbroadcastw 0x6807(%rip),%ymm10 # 29acc <_sk_srcover_rgba_8888_sse2_lowp+0x748>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -44226,7 +44218,7 @@ HIDDEN _sk_hardlight_hsw_lowp
FUNCTION(_sk_hardlight_hsw_lowp)
_sk_hardlight_hsw_lowp:
.byte 197,125,253,192 // vpaddw %ymm0,%ymm0,%ymm8
- .byte 196,98,125,121,13,194,103,0,0 // vpbroadcastw 0x67c2(%rip),%ymm9 # 29b10 <_sk_srcover_rgba_8888_sse2_lowp+0x754>
+ .byte 196,98,125,121,13,164,103,0,0 // vpbroadcastw 0x67a4(%rip),%ymm9 # 29ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x74c>
.byte 196,65,101,239,209 // vpxor %ymm9,%ymm3,%ymm10
.byte 196,65,61,239,217 // vpxor %ymm9,%ymm8,%ymm11
.byte 196,65,37,101,218 // vpcmpgtw %ymm10,%ymm11,%ymm11
@@ -44254,7 +44246,7 @@ _sk_hardlight_hsw_lowp:
.byte 197,101,249,210 // vpsubw %ymm2,%ymm3,%ymm10
.byte 197,69,249,246 // vpsubw %ymm6,%ymm7,%ymm14
.byte 196,65,45,213,214 // vpmullw %ymm14,%ymm10,%ymm10
- .byte 196,98,125,121,53,57,103,0,0 // vpbroadcastw 0x6739(%rip),%ymm14 # 29b0e <_sk_srcover_rgba_8888_sse2_lowp+0x752>
+ .byte 196,98,125,121,53,27,103,0,0 // vpbroadcastw 0x671b(%rip),%ymm14 # 29ace <_sk_srcover_rgba_8888_sse2_lowp+0x74a>
.byte 196,65,45,253,210 // vpaddw %ymm10,%ymm10,%ymm10
.byte 196,65,61,249,194 // vpsubw %ymm10,%ymm8,%ymm8
.byte 197,13,249,215 // vpsubw %ymm7,%ymm14,%ymm10
@@ -44291,7 +44283,7 @@ HIDDEN _sk_overlay_hsw_lowp
FUNCTION(_sk_overlay_hsw_lowp)
_sk_overlay_hsw_lowp:
.byte 197,93,253,196 // vpaddw %ymm4,%ymm4,%ymm8
- .byte 196,98,125,121,13,174,102,0,0 // vpbroadcastw 0x66ae(%rip),%ymm9 # 29b14 <_sk_srcover_rgba_8888_sse2_lowp+0x758>
+ .byte 196,98,125,121,13,144,102,0,0 // vpbroadcastw 0x6690(%rip),%ymm9 # 29ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x750>
.byte 196,65,69,239,209 // vpxor %ymm9,%ymm7,%ymm10
.byte 196,65,61,239,193 // vpxor %ymm9,%ymm8,%ymm8
.byte 196,65,61,101,218 // vpcmpgtw %ymm10,%ymm8,%ymm11
@@ -44315,7 +44307,7 @@ _sk_overlay_hsw_lowp:
.byte 196,65,21,253,237 // vpaddw %ymm13,%ymm13,%ymm13
.byte 196,65,61,249,237 // vpsubw %ymm13,%ymm8,%ymm13
.byte 196,67,13,76,229,192 // vpblendvb %ymm12,%ymm13,%ymm14,%ymm12
- .byte 196,98,125,121,45,54,102,0,0 // vpbroadcastw 0x6636(%rip),%ymm13 # 29b12 <_sk_srcover_rgba_8888_sse2_lowp+0x756>
+ .byte 196,98,125,121,45,24,102,0,0 // vpbroadcastw 0x6618(%rip),%ymm13 # 29ad2 <_sk_srcover_rgba_8888_sse2_lowp+0x74e>
.byte 197,77,253,246 // vpaddw %ymm6,%ymm6,%ymm14
.byte 196,65,13,239,201 // vpxor %ymm9,%ymm14,%ymm9
.byte 196,65,53,101,202 // vpcmpgtw %ymm10,%ymm9,%ymm9
@@ -44367,10 +44359,10 @@ _sk_load_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 235d2 <_sk_load_8888_hsw_lowp+0x52>
+ .byte 119,55 // ja 235b0 <_sk_load_8888_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2374c <_sk_load_8888_hsw_lowp+0x1cc>
+ .byte 76,141,13,161,1,0,0 // lea 0x1a1(%rip),%r9 # 23728 <_sk_load_8888_hsw_lowp+0x1ca>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44380,10 +44372,10 @@ _sk_load_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 236f9 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 236d7 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 236f9 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 236d7 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -44392,7 +44384,7 @@ _sk_load_8888_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 236f9 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 236d7 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44408,7 +44400,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 236f9 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 236d7 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44418,7 +44410,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 236f9 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 235,81 // jmp 236d7 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44438,7 +44430,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,227,101,14,200,170 // vpblendw $0xaa,%ymm0,%ymm3,%ymm1
.byte 196,227,109,14,192,170 // vpblendw $0xaa,%ymm0,%ymm2,%ymm0
.byte 196,226,125,43,201 // vpackusdw %ymm1,%ymm0,%ymm1
- .byte 197,125,111,5,254,99,0,0 // vmovdqa 0x63fe(%rip),%ymm8 # 29b20 <_sk_srcover_rgba_8888_sse2_lowp+0x764>
+ .byte 197,125,111,5,224,99,0,0 // vmovdqa 0x63e0(%rip),%ymm8 # 29ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x75c>
.byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3
@@ -44448,39 +44440,40 @@ _sk_load_8888_hsw_lowp:
.byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2374c <_sk_load_8888_hsw_lowp+0x1cc>
+ .byte 144 // nop
+ .byte 121,254 // jns 23728 <_sk_load_8888_hsw_lowp+0x1ca>
.byte 255 // (bad)
- .byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
+ .byte 255,176,254,255,255,154 // pushq -0x65000002(%rax)
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
+ .byte 255,16 // callq *(%rax)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,246 // push %rsi
- .byte 254 // (bad)
.byte 255 // (bad)
+ .byte 248 // clc
+ .byte 254 // (bad)
.byte 255 // (bad)
- .byte 222,254 // fdivrp %st,%st(6)
+ .byte 255,224 // jmpq *%rax
+ .byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,200 // dec %eax
+ .byte 255,202 // dec %edx
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,84,255,255 // callq *-0x1(%rdi,%rdi,8)
- .byte 255,71,255 // incl -0x1(%rdi)
+ .byte 255,86,255 // callq *-0x1(%rsi)
.byte 255 // (bad)
+ .byte 255,73,255 // decl -0x1(%rcx)
.byte 255 // (bad)
- .byte 57,255 // cmp %edi,%edi
.byte 255 // (bad)
- .byte 255,35 // jmpq *(%rbx)
+ .byte 59,255 // cmp %edi,%edi
.byte 255 // (bad)
+ .byte 255,37,255,255,255,156 // jmpq *-0x63000001(%rip) # ffffffff9d023754 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffff9cffa3d0>
.byte 255 // (bad)
- .byte 255,154,255,255,255,134 // lcall *-0x79000001(%rdx)
.byte 255 // (bad)
+ .byte 255,136,255,255,255,116 // decl 0x74ffffff(%rax)
.byte 255 // (bad)
- .byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
- .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
+ .byte 255,94,255 // lcall *-0x1(%rsi)
+ .byte 255 // (bad)
.byte 255 // .byte 0xff
HIDDEN _sk_load_8888_dst_hsw_lowp
@@ -44496,10 +44489,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 237da <_sk_load_8888_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 237b6 <_sk_load_8888_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 23954 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 23930 <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44509,10 +44502,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 23901 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 238dd <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 23901 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 238dd <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -44521,7 +44514,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 23901 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 238dd <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44537,7 +44530,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 23901 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 238dd <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44547,7 +44540,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 23901 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 238dd <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44567,7 +44560,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,22,98,0,0 // vmovdqa 0x6216(%rip),%ymm8 # 29b40 <_sk_srcover_rgba_8888_sse2_lowp+0x784>
+ .byte 197,125,111,5,250,97,0,0 // vmovdqa 0x61fa(%rip),%ymm8 # 29b00 <_sk_srcover_rgba_8888_sse2_lowp+0x77c>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
@@ -44578,7 +44571,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 23954 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 23930 <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -44639,20 +44632,20 @@ _sk_store_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 23a11 <_sk_store_8888_hsw_lowp+0x81>
+ .byte 119,30 // ja 239ed <_sk_store_8888_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 23ac0 <_sk_store_8888_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 23a9c <_sk_store_8888_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 23abc <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 23a98 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 23abc <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 23a98 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 23abc <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 23a98 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -44660,12 +44653,12 @@ _sk_store_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 23abc <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 23a98 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 23abc <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 23a98 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -44722,10 +44715,10 @@ _sk_load_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 23b4e <_sk_load_bgra_hsw_lowp+0x52>
+ .byte 119,55 // ja 23b2a <_sk_load_bgra_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 23cc8 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 23ca4 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44735,10 +44728,10 @@ _sk_load_bgra_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 23c75 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 23c51 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 23c75 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 23c51 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -44747,7 +44740,7 @@ _sk_load_bgra_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 23c75 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 23c51 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44763,7 +44756,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 23c75 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 23c51 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44773,7 +44766,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 23c75 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 235,81 // jmp 23c51 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44793,7 +44786,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,227,125,14,209,170 // vpblendw $0xaa,%ymm1,%ymm0,%ymm2
.byte 196,227,101,14,201,170 // vpblendw $0xaa,%ymm1,%ymm3,%ymm1
.byte 196,226,117,43,202 // vpackusdw %ymm2,%ymm1,%ymm1
- .byte 197,125,111,5,194,94,0,0 // vmovdqa 0x5ec2(%rip),%ymm8 # 29b60 <_sk_srcover_rgba_8888_sse2_lowp+0x7a4>
+ .byte 197,125,111,5,166,94,0,0 // vmovdqa 0x5ea6(%rip),%ymm8 # 29b20 <_sk_srcover_rgba_8888_sse2_lowp+0x79c>
.byte 196,193,117,219,208 // vpand %ymm8,%ymm1,%ymm2
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0
@@ -44804,7 +44797,7 @@ _sk_load_bgra_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 23cc8 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 23ca4 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -44851,10 +44844,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 23d56 <_sk_load_bgra_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 23d32 <_sk_load_bgra_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 23ed0 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 23eac <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44864,10 +44857,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 23e7d <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 23e59 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 23e7d <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 23e59 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -44876,7 +44869,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 23e7d <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 23e59 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44892,7 +44885,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 23e7d <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 23e59 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44902,7 +44895,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 23e7d <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 23e59 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44922,7 +44915,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6
.byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5
.byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5
- .byte 197,125,111,5,218,92,0,0 // vmovdqa 0x5cda(%rip),%ymm8 # 29b80 <_sk_srcover_rgba_8888_sse2_lowp+0x7c4>
+ .byte 197,125,111,5,190,92,0,0 // vmovdqa 0x5cbe(%rip),%ymm8 # 29b40 <_sk_srcover_rgba_8888_sse2_lowp+0x7bc>
.byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4
@@ -44933,7 +44926,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 23ed0 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 23eac <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -44994,20 +44987,20 @@ _sk_store_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 23f8d <_sk_store_bgra_hsw_lowp+0x81>
+ .byte 119,30 // ja 23f69 <_sk_store_bgra_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2403c <_sk_store_bgra_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 24018 <_sk_store_bgra_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 24038 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 24014 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 24038 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 24014 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 24038 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 24014 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -45015,12 +45008,12 @@ _sk_store_bgra_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 24038 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 24014 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 24038 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 24014 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -45077,24 +45070,24 @@ _sk_load_565_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 240b7 <_sk_load_565_dst_hsw_lowp+0x3f>
+ .byte 119,37 // ja 24093 <_sk_load_565_dst_hsw_lowp+0x3f>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 24224 <_sk_load_565_dst_hsw_lowp+0x1ac>
+ .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 24200 <_sk_load_565_dst_hsw_lowp+0x1ac>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,8,1,0,0 // jmpq 241bf <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2419b <_sk_load_565_dst_hsw_lowp+0x147>
.byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4
- .byte 233,253,0,0,0 // jmpq 241bf <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2419b <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 233,218,0,0,0 // jmpq 241bf <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2419b <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
@@ -45104,7 +45097,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4
- .byte 233,155,0,0,0 // jmpq 241bf <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2419b <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -45116,7 +45109,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
.byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5
.byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- .byte 235,83 // jmp 241bf <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2419b <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -45130,13 +45123,13 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,193,122,111,52,80 // vmovdqu (%r8,%rdx,2),%xmm6
.byte 196,227,77,56,237,1 // vinserti128 $0x1,%xmm5,%ymm6,%ymm5
.byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4
- .byte 196,226,125,121,45,216,89,0,0 // vpbroadcastw 0x59d8(%rip),%ymm5 # 29ba0 <_sk_srcover_rgba_8888_sse2_lowp+0x7e4>
+ .byte 196,226,125,121,45,188,89,0,0 // vpbroadcastw 0x59bc(%rip),%ymm5 # 29b60 <_sk_srcover_rgba_8888_sse2_lowp+0x7dc>
.byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,205,113,212,5 // vpsrlw $0x5,%ymm4,%ymm6
- .byte 196,226,125,121,61,195,89,0,0 // vpbroadcastw 0x59c3(%rip),%ymm7 # 29ba2 <_sk_srcover_rgba_8888_sse2_lowp+0x7e6>
+ .byte 196,226,125,121,61,167,89,0,0 // vpbroadcastw 0x59a7(%rip),%ymm7 # 29b62 <_sk_srcover_rgba_8888_sse2_lowp+0x7de>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
- .byte 196,226,125,121,61,184,89,0,0 // vpbroadcastw 0x59b8(%rip),%ymm7 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x7e8>
+ .byte 196,226,125,121,61,156,89,0,0 // vpbroadcastw 0x599c(%rip),%ymm7 # 29b64 <_sk_srcover_rgba_8888_sse2_lowp+0x7e0>
.byte 197,221,219,255 // vpand %ymm7,%ymm4,%ymm7
.byte 197,221,113,212,13 // vpsrlw $0xd,%ymm4,%ymm4
.byte 197,213,235,228 // vpor %ymm4,%ymm5,%ymm4
@@ -45147,7 +45140,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 197,197,113,215,2 // vpsrlw $0x2,%ymm7,%ymm7
.byte 197,205,235,247 // vpor %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,134,89,0,0 // vpbroadcastw 0x5986(%rip),%ymm7 # 29ba6 <_sk_srcover_rgba_8888_sse2_lowp+0x7ea>
+ .byte 196,226,125,121,61,106,89,0,0 // vpbroadcastw 0x596a(%rip),%ymm7 # 29b66 <_sk_srcover_rgba_8888_sse2_lowp+0x7e2>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 133,254 // test %edi,%esi
@@ -45198,10 +45191,10 @@ _sk_store_565_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
- .byte 196,98,125,121,5,47,89,0,0 // vpbroadcastw 0x592f(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x7ec>
+ .byte 196,98,125,121,5,19,89,0,0 // vpbroadcastw 0x5913(%rip),%ymm8 # 29b68 <_sk_srcover_rgba_8888_sse2_lowp+0x7e4>
.byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9
.byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,30,89,0,0 // vpbroadcastw 0x591e(%rip),%ymm9 # 29baa <_sk_srcover_rgba_8888_sse2_lowp+0x7ee>
+ .byte 196,98,125,121,13,2,89,0,0 // vpbroadcastw 0x5902(%rip),%ymm9 # 29b6a <_sk_srcover_rgba_8888_sse2_lowp+0x7e6>
.byte 197,173,113,241,3 // vpsllw $0x3,%ymm1,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -45211,31 +45204,31 @@ _sk_store_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,31 // ja 242ce <_sk_store_565_hsw_lowp+0x6e>
+ .byte 119,31 // ja 242aa <_sk_store_565_hsw_lowp+0x6e>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2437c <_sk_store_565_hsw_lowp+0x11c>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 24358 <_sk_store_565_hsw_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 233,167,0,0,0 // jmpq 24375 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,167,0,0,0 // jmpq 24351 <_sk_store_565_hsw_lowp+0x115>
.byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2)
- .byte 233,156,0,0,0 // jmpq 24375 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,156,0,0,0 // jmpq 24351 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 233,137,0,0,0 // jmpq 24375 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,137,0,0,0 // jmpq 24351 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,105 // jmp 24375 <_sk_store_565_hsw_lowp+0x115>
+ .byte 235,105 // jmp 24351 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- .byte 235,55 // jmp 2436f <_sk_store_565_hsw_lowp+0x10f>
+ .byte 235,55 // jmp 2434b <_sk_store_565_hsw_lowp+0x10f>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -45258,7 +45251,7 @@ _sk_store_565_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 120,255 // js 24391 <_sk_store_565_hsw_lowp+0x131>
+ .byte 120,255 // js 2436d <_sk_store_565_hsw_lowp+0x131>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -45294,38 +45287,38 @@ _sk_load_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 243f4 <_sk_load_a8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 243d0 <_sk_load_a8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 244b8 <_sk_load_a8_hsw_lowp+0x100>
+ .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 24494 <_sk_load_a8_hsw_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 244a3 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2447f <_sk_load_a8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 244a3 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2447f <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 244a3 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2447f <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 244a3 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2447f <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 244a3 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2447f <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -45385,38 +45378,38 @@ _sk_load_a8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 24530 <_sk_load_a8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2450c <_sk_load_a8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 245f4 <_sk_load_a8_dst_hsw_lowp+0x100>
+ .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 245d0 <_sk_load_a8_dst_hsw_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 245df <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 245bb <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 245df <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 245bb <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 245df <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 245bb <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 245df <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 245bb <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 245df <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 245bb <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -45473,7 +45466,7 @@ _sk_store_a8_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 196,195,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm8
- .byte 197,121,111,13,133,94,0,0 // vmovdqa 0x5e85(%rip),%xmm9 # 2a4d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 197,121,111,13,105,94,0,0 // vmovdqa 0x5e69(%rip),%xmm9 # 2a490 <_sk_srcover_rgba_8888_sse2_lowp+0x110c>
.byte 196,66,57,0,193 // vpshufb %xmm9,%xmm8,%xmm8
.byte 196,66,97,0,201 // vpshufb %xmm9,%xmm3,%xmm9
.byte 196,65,49,108,192 // vpunpcklqdq %xmm8,%xmm9,%xmm8
@@ -45481,28 +45474,28 @@ _sk_store_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,28 // ja 24680 <_sk_store_a8_hsw_lowp+0x50>
+ .byte 119,28 // ja 2465c <_sk_store_a8_hsw_lowp+0x50>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 24700 <_sk_store_a8_hsw_lowp+0xd0>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 246dc <_sk_store_a8_hsw_lowp+0xd0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,20,4,16,0 // vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,121 // jmp 246f9 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,121 // jmp 246d5 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,65,122,127,4,16 // vmovdqu %xmm8,(%r8,%rdx,1)
- .byte 235,113 // jmp 246f9 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,113 // jmp 246d5 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,2,2 // vpextrb $0x2,%xmm8,0x2(%r8,%rdx,1)
.byte 196,67,121,21,4,16,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 246f9 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,96 // jmp 246d5 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,6,6 // vpextrb $0x6,%xmm8,0x6(%r8,%rdx,1)
.byte 196,67,121,20,68,16,5,5 // vpextrb $0x5,%xmm8,0x5(%r8,%rdx,1)
.byte 196,67,121,20,68,16,4,4 // vpextrb $0x4,%xmm8,0x4(%r8,%rdx,1)
.byte 196,65,121,126,4,16 // vmovd %xmm8,(%r8,%rdx,1)
- .byte 235,64 // jmp 246f9 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,64 // jmp 246d5 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,10,10 // vpextrb $0xa,%xmm8,0xa(%r8,%rdx,1)
.byte 196,67,121,20,68,16,9,9 // vpextrb $0x9,%xmm8,0x9(%r8,%rdx,1)
.byte 196,67,121,20,68,16,8,8 // vpextrb $0x8,%xmm8,0x8(%r8,%rdx,1)
- .byte 235,32 // jmp 246f3 <_sk_store_a8_hsw_lowp+0xc3>
+ .byte 235,32 // jmp 246cf <_sk_store_a8_hsw_lowp+0xc3>
.byte 196,67,121,20,68,16,14,14 // vpextrb $0xe,%xmm8,0xe(%r8,%rdx,1)
.byte 196,67,121,20,68,16,13,13 // vpextrb $0xd,%xmm8,0xd(%r8,%rdx,1)
.byte 196,67,121,20,68,16,12,12 // vpextrb $0xc,%xmm8,0xc(%r8,%rdx,1)
@@ -45511,7 +45504,7 @@ _sk_store_a8_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,255 // ja 24701 <_sk_store_a8_hsw_lowp+0xd1>
+ .byte 119,255 // ja 246dd <_sk_store_a8_hsw_lowp+0xd1>
.byte 255 // (bad)
.byte 255,144,255,255,255,136 // callq *-0x77000001(%rax)
.byte 255 // (bad)
@@ -45558,38 +45551,38 @@ _sk_load_g8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 24778 <_sk_load_g8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 24754 <_sk_load_g8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 24844 <_sk_load_g8_hsw_lowp+0x108>
+ .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 24820 <_sk_load_g8_hsw_lowp+0x108>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 24827 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 24803 <_sk_load_g8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 24827 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 24803 <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 24827 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 24803 <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 24827 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 24803 <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 24827 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 24803 <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -45599,7 +45592,7 @@ _sk_load_g8_hsw_lowp:
.byte 196,227,113,2,192,8 // vpblendd $0x8,%xmm0,%xmm1,%xmm0
.byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,117,83,0,0 // vpbroadcastw 0x5375(%rip),%ymm3 # 29bac <_sk_srcover_rgba_8888_sse2_lowp+0x7f0>
+ .byte 196,226,125,121,29,89,83,0,0 // vpbroadcastw 0x5359(%rip),%ymm3 # 29b6c <_sk_srcover_rgba_8888_sse2_lowp+0x7e8>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -45613,7 +45606,7 @@ _sk_load_g8_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 24851 <_sk_load_g8_hsw_lowp+0x115>
+ .byte 123,255 // jnp 2482d <_sk_load_g8_hsw_lowp+0x115>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -45651,38 +45644,38 @@ _sk_load_g8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 248bc <_sk_load_g8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 24898 <_sk_load_g8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 24988 <_sk_load_g8_dst_hsw_lowp+0x108>
+ .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 24964 <_sk_load_g8_dst_hsw_lowp+0x108>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 2496b <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 24947 <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 2496b <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 24947 <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 2496b <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 24947 <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 2496b <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 24947 <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 2496b <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 24947 <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -45692,7 +45685,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 196,227,81,2,228,8 // vpblendd $0x8,%xmm4,%xmm5,%xmm4
.byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,51,82,0,0 // vpbroadcastw 0x5233(%rip),%ymm7 # 29bae <_sk_srcover_rgba_8888_sse2_lowp+0x7f2>
+ .byte 196,226,125,121,61,23,82,0,0 // vpbroadcastw 0x5217(%rip),%ymm7 # 29b6e <_sk_srcover_rgba_8888_sse2_lowp+0x7ea>
.byte 197,253,111,236 // vmovdqa %ymm4,%ymm5
.byte 197,253,111,244 // vmovdqa %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -45706,7 +45699,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 24995 <_sk_load_g8_dst_hsw_lowp+0x115>
+ .byte 123,255 // jnp 24971 <_sk_load_g8_dst_hsw_lowp+0x115>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -45738,13 +45731,13 @@ FUNCTION(_sk_scale_1_float_hsw_lowp)
_sk_scale_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,66,82,0,0 // vmovss 0x5242(%rip),%xmm9 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
- .byte 196,98,57,169,13,9,82,0,0 // vfmadd213ss 0x5209(%rip),%xmm8,%xmm9 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 197,122,16,13,38,82,0,0 // vmovss 0x5226(%rip),%xmm9 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ .byte 196,98,57,169,13,237,81,0,0 // vfmadd213ss 0x51ed(%rip),%xmm8,%xmm9 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,186,81,0,0 // vpbroadcastw 0x51ba(%rip),%ymm9 # 29bb0 <_sk_srcover_rgba_8888_sse2_lowp+0x7f4>
+ .byte 196,98,125,121,13,158,81,0,0 // vpbroadcastw 0x519e(%rip),%ymm9 # 29b70 <_sk_srcover_rgba_8888_sse2_lowp+0x7ec>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -45771,38 +45764,38 @@ _sk_scale_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 24a6b <_sk_scale_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 24a47 <_sk_scale_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,20,1,0,0 // lea 0x114(%rip),%r9 # 24b68 <_sk_scale_u8_hsw_lowp+0x13a>
+ .byte 76,141,13,20,1,0,0 // lea 0x114(%rip),%r9 # 24b44 <_sk_scale_u8_hsw_lowp+0x13a>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 24b1e <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 24afa <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 24b1e <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 24afa <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 24b1e <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 24afa <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 24b1e <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 24afa <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 24b1e <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 24afa <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -45812,7 +45805,7 @@ _sk_scale_u8_hsw_lowp:
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,130,80,0,0 // vpbroadcastw 0x5082(%rip),%ymm9 # 29bb2 <_sk_srcover_rgba_8888_sse2_lowp+0x7f6>
+ .byte 196,98,125,121,13,102,80,0,0 // vpbroadcastw 0x5066(%rip),%ymm9 # 29b72 <_sk_srcover_rgba_8888_sse2_lowp+0x7ee>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -45865,12 +45858,12 @@ FUNCTION(_sk_lerp_1_float_hsw_lowp)
_sk_lerp_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,98,80,0,0 // vmovss 0x5062(%rip),%xmm9 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
- .byte 196,98,57,169,13,41,80,0,0 // vfmadd213ss 0x5029(%rip),%xmm8,%xmm9 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 197,122,16,13,70,80,0,0 // vmovss 0x5046(%rip),%xmm9 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ .byte 196,98,57,169,13,13,80,0,0 // vfmadd213ss 0x500d(%rip),%xmm8,%xmm9 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
- .byte 196,98,125,121,13,226,79,0,0 // vpbroadcastw 0x4fe2(%rip),%ymm9 # 29bb4 <_sk_srcover_rgba_8888_sse2_lowp+0x7f8>
+ .byte 196,98,125,121,13,198,79,0,0 // vpbroadcastw 0x4fc6(%rip),%ymm9 # 29b74 <_sk_srcover_rgba_8888_sse2_lowp+0x7f0>
.byte 196,65,53,249,208 // vpsubw %ymm8,%ymm9,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -45907,38 +45900,38 @@ _sk_lerp_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 24c70 <_sk_lerp_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 24c4c <_sk_lerp_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,59,1,0,0 // lea 0x13b(%rip),%r9 # 24d94 <_sk_lerp_u8_hsw_lowp+0x161>
+ .byte 76,141,13,59,1,0,0 // lea 0x13b(%rip),%r9 # 24d70 <_sk_lerp_u8_hsw_lowp+0x161>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 24d23 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 24cff <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 24d23 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 24cff <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 24d23 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 24cff <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 24d23 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 24cff <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 24d23 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 24cff <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -45947,7 +45940,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 196,67,49,34,76,16,8,2 // vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm9,%xmm9
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
- .byte 196,98,125,121,13,133,78,0,0 // vpbroadcastw 0x4e85(%rip),%ymm9 # 29bb6 <_sk_srcover_rgba_8888_sse2_lowp+0x7fa>
+ .byte 196,98,125,121,13,105,78,0,0 // vpbroadcastw 0x4e69(%rip),%ymm9 # 29b76 <_sk_srcover_rgba_8888_sse2_lowp+0x7f2>
.byte 196,65,61,239,209 // vpxor %ymm9,%ymm8,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -45981,10 +45974,10 @@ _sk_lerp_u8_hsw_lowp:
.byte 255,231 // jmpq *%rdi
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,37,255,255,255,29 // jmpq *0x1dffffff(%rip) # 1e024da4 <_sk_srcover_rgba_8888_sse2_lowp+0x1dffb9e8>
+ .byte 255,37,255,255,255,29 // jmpq *0x1dffffff(%rip) # 1e024d80 <_sk_srcover_rgba_8888_sse2_lowp+0x1dffb9fc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,8 // callq *0x8ffffff(%rip) # 9024dac <_sk_srcover_rgba_8888_sse2_lowp+0x8ffb9f0>
+ .byte 255,21,255,255,255,8 // callq *0x8ffffff(%rip) # 9024d88 <_sk_srcover_rgba_8888_sse2_lowp+0x8ffba04>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,80,255 // callq *-0x1(%rax)
@@ -45997,7 +45990,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 24dc1 <_sk_lerp_u8_hsw_lowp+0x18e>
+ .byte 123,255 // jnp 24d9d <_sk_lerp_u8_hsw_lowp+0x18e>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -46022,9 +46015,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,194 // movzbl %r10b,%r8d
.byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 119,51 // ja 24e2c <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
+ .byte 119,51 // ja 24e08 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 250f0 <_sk_srcover_rgba_8888_hsw_lowp+0x320>
+ .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 250cc <_sk_srcover_rgba_8888_hsw_lowp+0x320>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -46034,10 +46027,10 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,41 // vmovd (%r9),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,22,1,0,0 // jmpq 24f42 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,22,1,0,0 // jmpq 24f1e <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
.byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4
- .byte 233,6,1,0,0 // jmpq 24f42 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,6,1,0,0 // jmpq 24f1e <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -46046,7 +46039,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,216,0,0,0 // jmpq 24f42 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,216,0,0,0 // jmpq 24f1e <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -46062,7 +46055,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,129,0,0,0 // jmpq 24f42 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,129,0,0,0 // jmpq 24f1e <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -46072,7 +46065,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 235,76 // jmp 24f42 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 235,76 // jmp 24f1e <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -46092,9 +46085,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,85,76,0,0 // vmovdqa 0x4c55(%rip),%ymm8 # 29bc0 <_sk_srcover_rgba_8888_sse2_lowp+0x804>
+ .byte 197,125,111,5,57,76,0,0 // vmovdqa 0x4c39(%rip),%ymm8 # 29b80 <_sk_srcover_rgba_8888_sse2_lowp+0x7fc>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
- .byte 196,98,125,121,13,103,76,0,0 // vpbroadcastw 0x4c67(%rip),%ymm9 # 29be0 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
+ .byte 196,98,125,121,13,75,76,0,0 // vpbroadcastw 0x4c4b(%rip),%ymm9 # 29ba0 <_sk_srcover_rgba_8888_sse2_lowp+0x81c>
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
.byte 197,205,114,214,16 // vpsrld $0x10,%ymm6,%ymm6
@@ -46133,19 +46126,19 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,26 // ja 25053 <_sk_srcover_rgba_8888_hsw_lowp+0x283>
- .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 2512c <_sk_srcover_rgba_8888_hsw_lowp+0x35c>
+ .byte 119,26 // ja 2502f <_sk_srcover_rgba_8888_hsw_lowp+0x283>
+ .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 25108 <_sk_srcover_rgba_8888_hsw_lowp+0x35c>
.byte 75,99,4,130 // movslq (%r10,%r8,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,1 // vmovd %xmm8,(%r9)
- .byte 233,151,0,0,0 // jmpq 250ea <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,151,0,0,0 // jmpq 250c6 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
.byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9)
- .byte 233,135,0,0,0 // jmpq 250ea <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,135,0,0,0 // jmpq 250c6 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9)
.byte 196,65,121,214,1 // vmovq %xmm8,(%r9)
- .byte 235,121 // jmp 250ea <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,121 // jmp 250c6 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -46153,12 +46146,12 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9)
.byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9)
- .byte 235,76 // jmp 250ea <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,76 // jmp 250c6 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9)
.byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9)
.byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9)
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 235,49 // jmp 250ea <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,49 // jmp 250c6 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -46206,7 +46199,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255,6 // incl (%rsi)
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f025130 <_sk_srcover_rgba_8888_sse2_lowp+0x3effbd74>
+ .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f02510c <_sk_srcover_rgba_8888_sse2_lowp+0x3effbd88>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,55 // pushq (%rdi)
@@ -46224,7 +46217,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 121,255 // jns 25151 <_sk_srcover_rgba_8888_hsw_lowp+0x381>
+ .byte 121,255 // jns 2512d <_sk_srcover_rgba_8888_hsw_lowp+0x381>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -46257,13 +46250,13 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 2521e <_sk_start_pipeline_sse41_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 251fa <_sk_start_pipeline_sse41_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 251ec <_sk_start_pipeline_sse41_lowp+0x84>
+ .byte 119,59 // ja 251c8 <_sk_start_pipeline_sse41_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -46282,10 +46275,10 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 251b5 <_sk_start_pipeline_sse41_lowp+0x4d>
+ .byte 118,201 // jbe 25191 <_sk_start_pipeline_sse41_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 25215 <_sk_start_pipeline_sse41_lowp+0xad>
+ .byte 116,33 // je 251f1 <_sk_start_pipeline_sse41_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -46299,7 +46292,7 @@ _sk_start_pipeline_sse41_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 251a7 <_sk_start_pipeline_sse41_lowp+0x3f>
+ .byte 117,137 // jne 25183 <_sk_start_pipeline_sse41_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -46320,19 +46313,17 @@ HIDDEN _sk_uniform_color_sse41_lowp
FUNCTION(_sk_uniform_color_sse41_lowp)
_sk_uniform_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,182,64,16 // movzbl 0x10(%rax),%r8d
- .byte 102,65,15,110,192 // movd %r8d,%xmm0
+ .byte 102,15,110,64,16 // movd 0x10(%rax),%xmm0
.byte 242,15,112,192,0 // pshuflw $0x0,%xmm0,%xmm0
.byte 102,15,112,192,80 // pshufd $0x50,%xmm0,%xmm0
- .byte 68,15,182,64,17 // movzbl 0x11(%rax),%r8d
+ .byte 68,15,183,64,18 // movzwl 0x12(%rax),%r8d
.byte 102,65,15,110,200 // movd %r8d,%xmm1
.byte 242,15,112,201,0 // pshuflw $0x0,%xmm1,%xmm1
.byte 102,15,112,201,80 // pshufd $0x50,%xmm1,%xmm1
- .byte 68,15,182,64,18 // movzbl 0x12(%rax),%r8d
- .byte 102,65,15,110,208 // movd %r8d,%xmm2
+ .byte 102,15,110,80,20 // movd 0x14(%rax),%xmm2
.byte 242,15,112,210,0 // pshuflw $0x0,%xmm2,%xmm2
.byte 102,15,112,210,80 // pshufd $0x50,%xmm2,%xmm2
- .byte 15,182,64,19 // movzbl 0x13(%rax),%eax
+ .byte 15,183,64,22 // movzwl 0x16(%rax),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
.byte 242,15,112,219,0 // pshuflw $0x0,%xmm3,%xmm3
.byte 102,15,112,219,80 // pshufd $0x50,%xmm3,%xmm3
@@ -46344,7 +46335,7 @@ HIDDEN _sk_black_color_sse41_lowp
FUNCTION(_sk_black_color_sse41_lowp)
_sk_black_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,245,74,0,0 // movaps 0x4af5(%rip),%xmm3 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 15,40,29,227,74,0,0 // movaps 0x4ae3(%rip),%xmm3 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -46355,7 +46346,7 @@ HIDDEN _sk_white_color_sse41_lowp
FUNCTION(_sk_white_color_sse41_lowp)
_sk_white_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,225,74,0,0 // movaps 0x4ae1(%rip),%xmm0 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 15,40,5,207,74,0,0 // movaps 0x4acf(%rip),%xmm0 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -46366,10 +46357,10 @@ HIDDEN _sk_set_rgb_sse41_lowp
FUNCTION(_sk_set_rgb_sse41_lowp)
_sk_set_rgb_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,96,73,0,0 // movss 0x4960(%rip),%xmm2 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 243,15,16,21,78,73,0,0 // movss 0x494e(%rip),%xmm2 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,31,73,0,0 // movss 0x491f(%rip),%xmm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 243,68,15,16,5,13,73,0,0 // movss 0x490d(%rip),%xmm8 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -46396,7 +46387,7 @@ HIDDEN _sk_premul_sse41_lowp
FUNCTION(_sk_premul_sse41_lowp)
_sk_premul_sse41_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,83,74,0,0 // movdqa 0x4a53(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,65,74,0,0 // movdqa 0x4a41(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -46444,7 +46435,7 @@ HIDDEN _sk_invert_sse41_lowp
.globl _sk_invert_sse41_lowp
FUNCTION(_sk_invert_sse41_lowp)
_sk_invert_sse41_lowp:
- .byte 102,68,15,111,5,241,73,0,0 // movdqa 0x49f1(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,223,73,0,0 // movdqa 0x49df(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -46476,7 +46467,7 @@ FUNCTION(_sk_srcatop_sse41_lowp)
_sk_srcatop_sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,149,73,0,0 // movdqa 0x4995(%rip),%xmm3 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,15,111,29,131,73,0,0 // movdqa 0x4983(%rip),%xmm3 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -46508,7 +46499,7 @@ FUNCTION(_sk_dstatop_sse41_lowp)
_sk_dstatop_sse41_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,21,73,0,0 // movdqa 0x4915(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,3,73,0,0 // movdqa 0x4903(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -46537,7 +46528,7 @@ HIDDEN _sk_srcin_sse41_lowp
FUNCTION(_sk_srcin_sse41_lowp)
_sk_srcin_sse41_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,160,72,0,0 // movdqa 0x48a0(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,142,72,0,0 // movdqa 0x488e(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -46558,7 +46549,7 @@ FUNCTION(_sk_dstin_sse41_lowp)
_sk_dstin_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,87,72,0,0 // movdqa 0x4857(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,69,72,0,0 // movdqa 0x4845(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -46579,7 +46570,7 @@ HIDDEN _sk_srcout_sse41_lowp
.globl _sk_srcout_sse41_lowp
FUNCTION(_sk_srcout_sse41_lowp)
_sk_srcout_sse41_lowp:
- .byte 102,68,15,111,5,14,72,0,0 // movdqa 0x480e(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,252,71,0,0 // movdqa 0x47fc(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -46602,7 +46593,7 @@ HIDDEN _sk_dstout_sse41_lowp
FUNCTION(_sk_dstout_sse41_lowp)
_sk_dstout_sse41_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,183,71,0,0 // movdqa 0x47b7(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,165,71,0,0 // movdqa 0x47a5(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -46627,7 +46618,7 @@ HIDDEN _sk_srcover_sse41_lowp
.globl _sk_srcover_sse41_lowp
FUNCTION(_sk_srcover_sse41_lowp)
_sk_srcover_sse41_lowp:
- .byte 102,68,15,111,13,93,71,0,0 // movdqa 0x475d(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,75,71,0,0 // movdqa 0x474b(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -46656,7 +46647,7 @@ HIDDEN _sk_dstover_sse41_lowp
.globl _sk_dstover_sse41_lowp
FUNCTION(_sk_dstover_sse41_lowp)
_sk_dstover_sse41_lowp:
- .byte 102,68,15,111,5,227,70,0,0 // movdqa 0x46e3(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,209,70,0,0 // movdqa 0x46d1(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -46683,7 +46674,7 @@ HIDDEN _sk_modulate_sse41_lowp
FUNCTION(_sk_modulate_sse41_lowp)
_sk_modulate_sse41_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,124,70,0,0 // movdqa 0x467c(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,106,70,0,0 // movdqa 0x466a(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -46702,7 +46693,7 @@ HIDDEN _sk_multiply_sse41_lowp
.globl _sk_multiply_sse41_lowp
FUNCTION(_sk_multiply_sse41_lowp)
_sk_multiply_sse41_lowp:
- .byte 102,68,15,111,13,59,70,0,0 // movdqa 0x463b(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,41,70,0,0 // movdqa 0x4629(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -46745,7 +46736,7 @@ HIDDEN _sk_plus__sse41_lowp
FUNCTION(_sk_plus__sse41_lowp)
_sk_plus__sse41_lowp:
.byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,68,15,111,5,128,69,0,0 // movdqa 0x4580(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,110,69,0,0 // movdqa 0x456e(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,56,58,192 // pminuw %xmm8,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,65,15,56,58,200 // pminuw %xmm8,%xmm1
@@ -46765,7 +46756,7 @@ _sk_screen_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,58,69,0,0 // movdqa 0x453a(%rip),%xmm10 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,21,40,69,0,0 // movdqa 0x4528(%rip),%xmm10 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -46797,7 +46788,7 @@ HIDDEN _sk_xor__sse41_lowp
FUNCTION(_sk_xor__sse41_lowp)
_sk_xor__sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,184,68,0,0 // movdqa 0x44b8(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,166,68,0,0 // movdqa 0x44a6(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -46840,7 +46831,7 @@ _sk_darken_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,62,201 // pmaxuw %xmm9,%xmm1
- .byte 102,68,15,111,13,255,67,0,0 // movdqa 0x43ff(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,237,67,0,0 // movdqa 0x43ed(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -46884,7 +46875,7 @@ _sk_lighten_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,66,67,0,0 // movdqa 0x4342(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,48,67,0,0 // movdqa 0x4330(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -46928,10 +46919,10 @@ _sk_difference_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,133,66,0,0 // movdqa 0x4285(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,115,66,0,0 // movdqa 0x4273(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,210,73,0,0 // movdqa 0x49d2(%rip),%xmm10 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 102,68,15,111,21,192,73,0,0 // movdqa 0x49c0(%rip),%xmm10 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x111c>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,221 // movdqa %xmm5,%xmm11
@@ -46973,10 +46964,10 @@ _sk_exclusion_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,193,65,0,0 // movdqa 0x41c1(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,175,65,0,0 // movdqa 0x41af(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,14,73,0,0 // movdqa 0x490e(%rip),%xmm10 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 102,68,15,111,21,252,72,0,0 // movdqa 0x48fc(%rip),%xmm10 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x111c>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -47012,14 +47003,14 @@ _sk_hardlight_sse41_lowp:
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,28,65,0,0 // movdqa 0x411c(%rip),%xmm11 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,29,10,65,0,0 // movdqa 0x410a(%rip),%xmm11 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,227 // movdqa %xmm11,%xmm4
.byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
.byte 102,68,15,111,251 // movdqa %xmm3,%xmm15
.byte 102,69,15,249,248 // psubw %xmm8,%xmm15
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
- .byte 102,68,15,111,13,101,72,0,0 // movdqa 0x4865(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 102,68,15,111,13,83,72,0,0 // movdqa 0x4853(%rip),%xmm9 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x112c>
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,239,241 // pxor %xmm9,%xmm14
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -47066,7 +47057,7 @@ _sk_hardlight_sse41_lowp:
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,13,64,0,0 // movdqa 0x400d(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,251,63,0,0 // movdqa 0x3ffb(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -47105,7 +47096,7 @@ FUNCTION(_sk_overlay_sse41_lowp)
_sk_overlay_sse41_lowp:
.byte 102,68,15,111,231 // movdqa %xmm7,%xmm12
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,112,63,0,0 // movdqa 0x3f70(%rip),%xmm11 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,29,94,63,0,0 // movdqa 0x3f5e(%rip),%xmm11 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
@@ -47117,7 +47108,7 @@ _sk_overlay_sse41_lowp:
.byte 102,68,15,249,252 // psubw %xmm4,%xmm15
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,68,15,111,13,161,70,0,0 // movdqa 0x46a1(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 102,68,15,111,13,143,70,0,0 // movdqa 0x468f(%rip),%xmm9 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x112c>
.byte 102,69,15,111,212 // movdqa %xmm12,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
.byte 102,69,15,213,254 // pmullw %xmm14,%xmm15
@@ -47163,7 +47154,7 @@ _sk_overlay_sse41_lowp:
.byte 102,15,253,210 // paddw %xmm2,%xmm2
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,83,62,0,0 // movdqa 0x3e53(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,65,62,0,0 // movdqa 0x3e41(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -47206,70 +47197,71 @@ _sk_load_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 25fef <_sk_load_8888_sse41_lowp+0x44>
+ .byte 119,41 // ja 25fc1 <_sk_load_8888_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,239,0,0,0 // lea 0xef(%rip),%r9 # 260c4 <_sk_load_8888_sse41_lowp+0x119>
+ .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 26098 <_sk_load_8888_sse41_lowp+0x11b>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,144 // movd (%r8,%rdx,4),%xmm2
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 26048 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 2601a <_sk_load_8888_sse41_lowp+0x9d>
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 26048 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 2601a <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 243,65,15,126,20,144 // movq (%r8,%rdx,4),%xmm2
.byte 102,65,15,58,14,208,240 // pblendw $0xf0,%xmm8,%xmm2
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,37 // jmp 26048 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 2601a <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
- .byte 102,15,111,5,176,68,0,0 // movdqa 0x44b0(%rip),%xmm0 # 2a500 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,15,111,5,158,68,0,0 // movdqa 0x449e(%rip),%xmm0 # 2a4c0 <_sk_srcover_rgba_8888_sse2_lowp+0x113c>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,56,0,200 // pshufb %xmm0,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,216 // pshufb %xmm0,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,16,61,0,0 // movdqa 0x3d10(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,254,60,0,0 // movdqa 0x3cfe(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,137,68,0,0 // movdqa 0x4489(%rip),%xmm10 # 2a510 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,68,15,111,21,119,68,0,0 // movdqa 0x4477(%rip),%xmm10 # 2a4d0 <_sk_srcover_rgba_8888_sse2_lowp+0x114c>
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,118,68,0,0 // movdqa 0x4476(%rip),%xmm10 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,68,15,111,21,100,68,0,0 // movdqa 0x4464(%rip),%xmm10 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0x115c>
.byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
- .byte 30 // (bad)
+ .byte 102,144 // xchg %ax,%ax
+ .byte 28,255 // sbb $0xff,%al
.byte 255 // (bad)
+ .byte 255,73,255 // decl -0x1(%rcx)
.byte 255 // (bad)
- .byte 255,75,255 // decl -0x1(%rbx)
.byte 255 // (bad)
+ .byte 56,255 // cmp %bh,%bh
.byte 255 // (bad)
- .byte 58,255 // cmp %bh,%bh
.byte 255 // (bad)
+ .byte 124,255 // jl 260a5 <_sk_load_8888_sse41_lowp+0x128>
.byte 255 // (bad)
- .byte 126,255 // jle 260d1 <_sk_load_8888_sse41_lowp+0x126>
+ .byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
- .byte 255,117,255 // pushq -0x1(%rbp)
+ .byte 255,106,255 // ljmp *-0x1(%rdx)
.byte 255 // (bad)
- .byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8)
- .byte 255,95,255 // lcall *-0x1(%rdi)
+ .byte 255,93,255 // lcall *-0x1(%rbp)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -47286,49 +47278,49 @@ _sk_load_8888_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 26124 <_sk_load_8888_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 260f8 <_sk_load_8888_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 261fc <_sk_load_8888_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 261d0 <_sk_load_8888_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2617d <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 26151 <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2617d <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 26151 <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 2617d <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 26151 <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,123,67,0,0 // movdqa 0x437b(%rip),%xmm4 # 2a500 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,15,111,37,103,67,0,0 // movdqa 0x4367(%rip),%xmm4 # 2a4c0 <_sk_srcover_rgba_8888_sse2_lowp+0x113c>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,219,59,0,0 // movdqa 0x3bdb(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,199,59,0,0 // movdqa 0x3bc7(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,84,67,0,0 // movdqa 0x4354(%rip),%xmm10 # 2a510 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,68,15,111,21,64,67,0,0 // movdqa 0x4340(%rip),%xmm10 # 2a4d0 <_sk_srcover_rgba_8888_sse2_lowp+0x114c>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,65,67,0,0 // movdqa 0x4341(%rip),%xmm10 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,68,15,111,21,45,67,0,0 // movdqa 0x432d(%rip),%xmm10 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0x115c>
.byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -47344,7 +47336,7 @@ _sk_load_8888_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 26209 <_sk_load_8888_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 261dd <_sk_load_8888_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -47381,20 +47373,20 @@ _sk_store_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 2629e <_sk_store_8888_sse41_lowp+0x86>
+ .byte 119,27 // ja 26272 <_sk_store_8888_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 262e4 <_sk_store_8888_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 262b8 <_sk_store_8888_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 262dd <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 262b1 <_sk_store_8888_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 262dd <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 262b1 <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 262dd <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 262b1 <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -47438,49 +47430,49 @@ _sk_load_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 26344 <_sk_load_bgra_sse41_lowp+0x44>
+ .byte 119,41 // ja 26318 <_sk_load_bgra_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2641c <_sk_load_bgra_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 263f0 <_sk_load_bgra_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2639d <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 26371 <_sk_load_bgra_sse41_lowp+0x9d>
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2639d <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 26371 <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,65,15,58,14,192,240 // pblendw $0xf0,%xmm8,%xmm0
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 235,37 // jmp 2639d <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 26371 <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
- .byte 102,15,111,21,91,65,0,0 // movdqa 0x415b(%rip),%xmm2 # 2a500 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,15,111,21,71,65,0,0 // movdqa 0x4147(%rip),%xmm2 # 2a4c0 <_sk_srcover_rgba_8888_sse2_lowp+0x113c>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,56,0,202 // pshufb %xmm2,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,218 // pshufb %xmm2,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,187,57,0,0 // movdqa 0x39bb(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,167,57,0,0 // movdqa 0x39a7(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,52,65,0,0 // movdqa 0x4134(%rip),%xmm10 # 2a510 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,68,15,111,21,32,65,0,0 // movdqa 0x4120(%rip),%xmm10 # 2a4d0 <_sk_srcover_rgba_8888_sse2_lowp+0x114c>
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,33,65,0,0 // movdqa 0x4121(%rip),%xmm10 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,68,15,111,21,13,65,0,0 // movdqa 0x410d(%rip),%xmm10 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0x115c>
.byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0
@@ -47496,7 +47488,7 @@ _sk_load_bgra_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 26429 <_sk_load_bgra_sse41_lowp+0x129>
+ .byte 123,255 // jnp 263fd <_sk_load_bgra_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -47518,49 +47510,49 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 2647c <_sk_load_bgra_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 26450 <_sk_load_bgra_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 26554 <_sk_load_bgra_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 26528 <_sk_load_bgra_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 264d5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 264a9 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 264d5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 264a9 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4
.byte 102,68,15,111,197 // movdqa %xmm5,%xmm8
- .byte 235,37 // jmp 264d5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 264a9 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 102,15,111,53,35,64,0,0 // movdqa 0x4023(%rip),%xmm6 # 2a500 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,15,111,53,15,64,0,0 // movdqa 0x400f(%rip),%xmm6 # 2a4c0 <_sk_srcover_rgba_8888_sse2_lowp+0x113c>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,254 // pshufb %xmm6,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,131,56,0,0 // movdqa 0x3883(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,111,56,0,0 // movdqa 0x386f(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,252,63,0,0 // movdqa 0x3ffc(%rip),%xmm10 # 2a510 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,68,15,111,21,232,63,0,0 // movdqa 0x3fe8(%rip),%xmm10 # 2a4d0 <_sk_srcover_rgba_8888_sse2_lowp+0x114c>
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,233,63,0,0 // movdqa 0x3fe9(%rip),%xmm10 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,68,15,111,21,213,63,0,0 // movdqa 0x3fd5(%rip),%xmm10 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0x115c>
.byte 102,65,15,56,0,226 // pshufb %xmm10,%xmm4
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4
@@ -47576,7 +47568,7 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 26561 <_sk_load_bgra_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 26535 <_sk_load_bgra_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -47613,20 +47605,20 @@ _sk_store_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 265f6 <_sk_store_bgra_sse41_lowp+0x86>
+ .byte 119,27 // ja 265ca <_sk_store_bgra_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 2663c <_sk_store_bgra_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 26610 <_sk_store_bgra_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 26635 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 26609 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 26635 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 26609 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 26635 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 26609 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -47670,23 +47662,23 @@ _sk_load_565_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 26694 <_sk_load_565_dst_sse41_lowp+0x3c>
+ .byte 119,34 // ja 26668 <_sk_load_565_dst_sse41_lowp+0x3c>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 26744 <_sk_load_565_dst_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 26718 <_sk_load_565_dst_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,74 // jmp 266de <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,74 // jmp 266b2 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,66 // jmp 266de <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,66 // jmp 266b2 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm5
.byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,40 // jmp 266de <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,40 // jmp 266b2 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm5
.byte 102,65,15,196,108,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm5
@@ -47695,11 +47687,11 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,65,62,0,0 // pand 0x3e41(%rip),%xmm7 # 2a530 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
+ .byte 102,15,219,61,45,62,0,0 // pand 0x3e2d(%rip),%xmm7 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0x116c>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,64,62,0,0 // pand 0x3e40(%rip),%xmm5 # 2a540 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
- .byte 102,15,111,53,72,62,0,0 // movdqa 0x3e48(%rip),%xmm6 # 2a550 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 102,15,219,45,44,62,0,0 // pand 0x3e2c(%rip),%xmm5 # 2a500 <_sk_srcover_rgba_8888_sse2_lowp+0x117c>
+ .byte 102,15,111,53,52,62,0,0 // movdqa 0x3e34(%rip),%xmm6 # 2a510 <_sk_srcover_rgba_8888_sse2_lowp+0x118c>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -47712,7 +47704,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,62,54,0,0 // movaps 0x363e(%rip),%xmm7 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 15,40,61,42,54,0,0 // movaps 0x362a(%rip),%xmm7 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -47723,7 +47715,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 26759 <_sk_load_565_dst_sse41_lowp+0x101>
+ .byte 126,255 // jle 2672d <_sk_load_565_dst_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -47740,10 +47732,10 @@ _sk_store_565_sse41_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,220,61,0,0 // pand 0x3ddc(%rip),%xmm8 # 2a560 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 102,68,15,219,5,200,61,0,0 // pand 0x3dc8(%rip),%xmm8 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0x119c>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,216,61,0,0 // pand 0x3dd8(%rip),%xmm9 # 2a570 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
+ .byte 102,68,15,219,13,196,61,0,0 // pand 0x3dc4(%rip),%xmm9 # 2a530 <_sk_srcover_rgba_8888_sse2_lowp+0x11ac>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -47752,19 +47744,19 @@ _sk_store_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 267d4 <_sk_store_565_sse41_lowp+0x74>
+ .byte 119,29 // ja 267a8 <_sk_store_565_sse41_lowp+0x74>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 26814 <_sk_store_565_sse41_lowp+0xb4>
+ .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 267e8 <_sk_store_565_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,58 // jmp 2680e <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,58 // jmp 267e2 <_sk_store_565_sse41_lowp+0xae>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,50 // jmp 2680e <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,50 // jmp 267e2 <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,33 // jmp 2680e <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,33 // jmp 267e2 <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
@@ -47784,7 +47776,7 @@ _sk_store_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 235,255 // jmp 26825 <_sk_store_565_sse41_lowp+0xc5>
+ .byte 235,255 // jmp 267f9 <_sk_store_565_sse41_lowp+0xc5>
.byte 255 // (bad)
.byte 255,226 // jmpq *%rdx
.byte 255 // (bad)
@@ -47806,18 +47798,18 @@ _sk_load_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 26869 <_sk_load_a8_sse41_lowp+0x39>
+ .byte 119,34 // ja 2683d <_sk_load_a8_sse41_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 268e4 <_sk_load_a8_sse41_lowp+0xb4>
+ .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 268b8 <_sk_load_a8_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,100 // jmp 268cd <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 268a1 <_sk_load_a8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,28,16 // pmovzxbw (%r8,%rdx,1),%xmm3
- .byte 235,91 // jmp 268cd <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 268a1 <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -47825,7 +47817,7 @@ _sk_load_a8_sse41_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,252 // pblendw $0xfc,%xmm0,%xmm3
- .byte 235,54 // jmp 268cd <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 268a1 <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -47836,13 +47828,13 @@ _sk_load_a8_sse41_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,240 // pblendw $0xf0,%xmm0,%xmm3
- .byte 102,15,219,29,171,52,0,0 // pand 0x34ab(%rip),%xmm3 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,15,219,29,151,52,0,0 // pand 0x3497(%rip),%xmm3 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
- .byte 122,255 // jp 268e5 <_sk_load_a8_sse41_lowp+0xb5>
+ .byte 122,255 // jp 268b9 <_sk_load_a8_sse41_lowp+0xb5>
.byte 255 // (bad)
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
.byte 255 // (bad)
@@ -47873,18 +47865,18 @@ _sk_load_a8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 26939 <_sk_load_a8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 2690d <_sk_load_a8_dst_sse41_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 269b4 <_sk_load_a8_dst_sse41_lowp+0xb4>
+ .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 26988 <_sk_load_a8_dst_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,100 // jmp 2699d <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 26971 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,60,16 // pmovzxbw (%r8,%rdx,1),%xmm7
- .byte 235,91 // jmp 2699d <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 26971 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -47892,7 +47884,7 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,252 // pblendw $0xfc,%xmm4,%xmm7
- .byte 235,54 // jmp 2699d <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 26971 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -47903,13 +47895,13 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,240 // pblendw $0xf0,%xmm4,%xmm7
- .byte 102,15,219,61,219,51,0,0 // pand 0x33db(%rip),%xmm7 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,15,219,61,199,51,0,0 // pand 0x33c7(%rip),%xmm7 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 122,255 // jp 269b5 <_sk_load_a8_dst_sse41_lowp+0xb5>
+ .byte 122,255 // jp 26989 <_sk_load_a8_dst_sse41_lowp+0xb5>
.byte 255 // (bad)
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
.byte 255 // (bad)
@@ -47940,28 +47932,28 @@ _sk_store_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 26a04 <_sk_store_a8_sse41_lowp+0x34>
+ .byte 119,29 // ja 269d8 <_sk_store_a8_sse41_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 26a74 <_sk_store_a8_sse41_lowp+0xa4>
+ .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 26a48 <_sk_store_a8_sse41_lowp+0xa4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,58,20,28,16,0 // pextrb $0x0,%xmm3,(%r8,%rdx,1)
- .byte 235,105 // jmp 26a6d <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,105 // jmp 26a41 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,189,58,0,0 // pshufb 0x3abd(%rip),%xmm8 # 2a4d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 102,68,15,56,0,5,169,58,0,0 // pshufb 0x3aa9(%rip),%xmm8 # 2a490 <_sk_srcover_rgba_8888_sse2_lowp+0x110c>
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,82 // jmp 26a6d <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,82 // jmp 26a41 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,2,4 // pextrb $0x4,%xmm3,0x2(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,93,51,0,0 // pshufb 0x335d(%rip),%xmm8 # 29d90 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+ .byte 102,68,15,56,0,5,73,51,0,0 // pshufb 0x3349(%rip),%xmm8 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
.byte 102,69,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,48 // jmp 26a6d <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,48 // jmp 26a41 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,6,12 // pextrb $0xc,%xmm3,0x6(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,5,10 // pextrb $0xa,%xmm3,0x5(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,4,8 // pextrb $0x8,%xmm3,0x4(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,57,51,0,0 // pshufb 0x3339(%rip),%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 102,68,15,56,0,5,37,51,0,0 // pshufb 0x3325(%rip),%xmm8 # 29d60 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -47997,18 +47989,18 @@ _sk_load_g8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 26ac9 <_sk_load_g8_sse41_lowp+0x39>
+ .byte 119,34 // ja 26a9d <_sk_load_g8_sse41_lowp+0x39>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 26b48 <_sk_load_g8_sse41_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 26b1c <_sk_load_g8_sse41_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,100 // jmp 26b2d <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 26b01 <_sk_load_g8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm0
- .byte 235,91 // jmp 26b2d <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 26b01 <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,2 // pinsrw $0x2,%eax,%xmm1
@@ -48016,7 +48008,7 @@ _sk_load_g8_sse41_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,54 // jmp 26b2d <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 26b01 <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,6 // pinsrw $0x6,%eax,%xmm1
@@ -48027,13 +48019,13 @@ _sk_load_g8_sse41_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
- .byte 102,15,219,5,75,50,0,0 // pand 0x324b(%rip),%xmm0 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,15,219,5,55,50,0,0 // pand 0x3237(%rip),%xmm0 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,66,50,0,0 // movaps 0x3242(%rip),%xmm3 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 15,40,29,46,50,0,0 // movaps 0x322e(%rip),%xmm3 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
- .byte 118,255 // jbe 26b49 <_sk_load_g8_sse41_lowp+0xb9>
+ .byte 118,255 // jbe 26b1d <_sk_load_g8_sse41_lowp+0xb9>
.byte 255 // (bad)
.byte 255,153,255,255,255,138 // lcall *-0x75000001(%rcx)
.byte 255 // (bad)
@@ -48062,18 +48054,18 @@ _sk_load_g8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 26b9d <_sk_load_g8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 26b71 <_sk_load_g8_dst_sse41_lowp+0x39>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 26c1c <_sk_load_g8_dst_sse41_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 26bf0 <_sk_load_g8_dst_sse41_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,100 // jmp 26c01 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 26bd5 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,36,16 // pmovzxbw (%r8,%rdx,1),%xmm4
- .byte 235,91 // jmp 26c01 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 26bd5 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,2 // pinsrw $0x2,%eax,%xmm5
@@ -48081,7 +48073,7 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,54 // jmp 26c01 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 26bd5 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,6 // pinsrw $0x6,%eax,%xmm5
@@ -48092,13 +48084,13 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
- .byte 102,15,219,37,119,49,0,0 // pand 0x3177(%rip),%xmm4 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,15,219,37,99,49,0,0 // pand 0x3163(%rip),%xmm4 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,110,49,0,0 // movaps 0x316e(%rip),%xmm7 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 15,40,61,90,49,0,0 // movaps 0x315a(%rip),%xmm7 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 118,255 // jbe 26c1d <_sk_load_g8_dst_sse41_lowp+0xb9>
+ .byte 118,255 // jbe 26bf1 <_sk_load_g8_dst_sse41_lowp+0xb9>
.byte 255 // (bad)
.byte 255,153,255,255,255,138 // lcall *-0x75000001(%rcx)
.byte 255 // (bad)
@@ -48121,14 +48113,14 @@ FUNCTION(_sk_scale_1_float_sse41_lowp)
_sk_scale_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,204,47,0,0 // mulss 0x2fcc(%rip),%xmm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
- .byte 243,68,15,88,5,147,47,0,0 // addss 0x2f93(%rip),%xmm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 243,68,15,89,5,184,47,0,0 // mulss 0x2fb8(%rip),%xmm8 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ .byte 243,68,15,88,5,127,47,0,0 // addss 0x2f7f(%rip),%xmm8 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,11,49,0,0 // movdqa 0x310b(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,247,48,0,0 // movdqa 0x30f7(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -48155,18 +48147,18 @@ _sk_scale_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 26ceb <_sk_scale_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 26cbf <_sk_scale_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,222,0,0,0 // lea 0xde(%rip),%r9 # 26db4 <_sk_scale_u8_sse41_lowp+0x104>
+ .byte 76,141,13,222,0,0,0 // lea 0xde(%rip),%r9 # 26d88 <_sk_scale_u8_sse41_lowp+0x104>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 26d5a <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 26d2e <_sk_scale_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 26d5a <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 26d2e <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -48174,7 +48166,7 @@ _sk_scale_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 26d5a <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 26d2e <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -48185,9 +48177,9 @@ _sk_scale_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,29,48,0,0 // pand 0x301d(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,219,5,9,48,0,0 // pand 0x3009(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,15,48,0,0 // movdqa 0x300f(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,251,47,0,0 // movdqa 0x2ffb(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -48213,7 +48205,7 @@ _sk_scale_u8_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 26dc9 <_sk_scale_u8_sse41_lowp+0x119>
+ .byte 123,255 // jnp 26d9d <_sk_scale_u8_sse41_lowp+0x119>
.byte 255 // (bad)
.byte 255,106,255 // ljmp *-0x1(%rdx)
.byte 255 // (bad)
@@ -48225,13 +48217,13 @@ FUNCTION(_sk_lerp_1_float_sse41_lowp)
_sk_lerp_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,52,46,0,0 // mulss 0x2e34(%rip),%xmm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
- .byte 243,68,15,88,5,251,45,0,0 // addss 0x2dfb(%rip),%xmm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 243,68,15,89,5,32,46,0,0 // mulss 0x2e20(%rip),%xmm8 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ .byte 243,68,15,88,5,231,45,0,0 // addss 0x2de7(%rip),%xmm8 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,120,47,0,0 // movdqa 0x2f78(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,100,47,0,0 // movdqa 0x2f64(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -48271,18 +48263,18 @@ _sk_lerp_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 26ebf <_sk_lerp_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 26e93 <_sk_lerp_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 26fc8 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 26f9c <_sk_lerp_u8_sse41_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 26f2e <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 26f02 <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 26f2e <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 26f02 <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -48290,7 +48282,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 26f2e <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 26f02 <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -48301,8 +48293,8 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,73,46,0,0 // pand 0x2e49(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
- .byte 102,68,15,111,21,64,46,0,0 // movdqa 0x2e40(%rip),%xmm10 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,219,5,53,46,0,0 // pand 0x2e35(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+ .byte 102,68,15,111,21,44,46,0,0 // movdqa 0x2e2c(%rip),%xmm10 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -48332,7 +48324,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 235,254 // jmp 26fc8 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 235,254 // jmp 26f9c <_sk_lerp_u8_sse41_lowp+0x144>
.byte 255 // (bad)
.byte 255,17 // callq *(%rcx)
.byte 255 // (bad)
@@ -48366,48 +48358,48 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 2702f <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
+ .byte 119,38 // ja 27003 <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 2722c <_sk_srcover_rgba_8888_sse41_lowp+0x248>
+ .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 27200 <_sk_srcover_rgba_8888_sse41_lowp+0x248>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 27088 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,89 // jmp 2705c <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 27088 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,74 // jmp 2705c <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 27088 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,37 // jmp 2705c <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,112,52,0,0 // movdqa 0x3470(%rip),%xmm4 # 2a500 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,15,111,37,92,52,0,0 // movdqa 0x345c(%rip),%xmm4 # 2a4c0 <_sk_srcover_rgba_8888_sse2_lowp+0x113c>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,37,208,44,0,0 // movdqa 0x2cd0(%rip),%xmm12 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,37,188,44,0,0 // movdqa 0x2cbc(%rip),%xmm12 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,13,73,52,0,0 // movdqa 0x3449(%rip),%xmm9 # 2a510 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,68,15,111,13,53,52,0,0 // movdqa 0x3435(%rip),%xmm9 # 2a4d0 <_sk_srcover_rgba_8888_sse2_lowp+0x114c>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
.byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7
- .byte 102,68,15,111,13,54,52,0,0 // movdqa 0x3436(%rip),%xmm9 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,68,15,111,13,34,52,0,0 // movdqa 0x3422(%rip),%xmm9 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0x115c>
.byte 102,65,15,56,0,241 // pshufb %xmm9,%xmm6
.byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -48449,19 +48441,19 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 102,65,15,235,196 // por %xmm12,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 271d2 <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 27248 <_sk_srcover_rgba_8888_sse41_lowp+0x264>
+ .byte 119,24 // ja 271a6 <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 2721c <_sk_srcover_rgba_8888_sse41_lowp+0x264>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4)
- .byte 235,63 // jmp 27211 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,63 // jmp 271e5 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
.byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 27211 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,48 // jmp 271e5 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
.byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4)
- .byte 235,31 // jmp 27211 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,31 // jmp 271e5 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
.byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
.byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4)
@@ -48526,13 +48518,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 2731a <_sk_start_pipeline_sse2_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 272ee <_sk_start_pipeline_sse2_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 272e8 <_sk_start_pipeline_sse2_lowp+0x84>
+ .byte 119,59 // ja 272bc <_sk_start_pipeline_sse2_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -48551,10 +48543,10 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 272b1 <_sk_start_pipeline_sse2_lowp+0x4d>
+ .byte 118,201 // jbe 27285 <_sk_start_pipeline_sse2_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 27311 <_sk_start_pipeline_sse2_lowp+0xad>
+ .byte 116,33 // je 272e5 <_sk_start_pipeline_sse2_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -48568,7 +48560,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 272a3 <_sk_start_pipeline_sse2_lowp+0x3f>
+ .byte 117,137 // jne 27277 <_sk_start_pipeline_sse2_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -48589,19 +48581,17 @@ HIDDEN _sk_uniform_color_sse2_lowp
FUNCTION(_sk_uniform_color_sse2_lowp)
_sk_uniform_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,182,64,16 // movzbl 0x10(%rax),%r8d
- .byte 102,65,15,110,192 // movd %r8d,%xmm0
+ .byte 102,15,110,64,16 // movd 0x10(%rax),%xmm0
.byte 242,15,112,192,0 // pshuflw $0x0,%xmm0,%xmm0
.byte 102,15,112,192,80 // pshufd $0x50,%xmm0,%xmm0
- .byte 68,15,182,64,17 // movzbl 0x11(%rax),%r8d
+ .byte 68,15,183,64,18 // movzwl 0x12(%rax),%r8d
.byte 102,65,15,110,200 // movd %r8d,%xmm1
.byte 242,15,112,201,0 // pshuflw $0x0,%xmm1,%xmm1
.byte 102,15,112,201,80 // pshufd $0x50,%xmm1,%xmm1
- .byte 68,15,182,64,18 // movzbl 0x12(%rax),%r8d
- .byte 102,65,15,110,208 // movd %r8d,%xmm2
+ .byte 102,15,110,80,20 // movd 0x14(%rax),%xmm2
.byte 242,15,112,210,0 // pshuflw $0x0,%xmm2,%xmm2
.byte 102,15,112,210,80 // pshufd $0x50,%xmm2,%xmm2
- .byte 15,182,64,19 // movzbl 0x13(%rax),%eax
+ .byte 15,183,64,22 // movzwl 0x16(%rax),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
.byte 242,15,112,219,0 // pshuflw $0x0,%xmm3,%xmm3
.byte 102,15,112,219,80 // pshufd $0x50,%xmm3,%xmm3
@@ -48613,7 +48603,7 @@ HIDDEN _sk_black_color_sse2_lowp
FUNCTION(_sk_black_color_sse2_lowp)
_sk_black_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,249,41,0,0 // movaps 0x29f9(%rip),%xmm3 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 15,40,29,239,41,0,0 // movaps 0x29ef(%rip),%xmm3 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -48624,7 +48614,7 @@ HIDDEN _sk_white_color_sse2_lowp
FUNCTION(_sk_white_color_sse2_lowp)
_sk_white_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,229,41,0,0 // movaps 0x29e5(%rip),%xmm0 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 15,40,5,219,41,0,0 // movaps 0x29db(%rip),%xmm0 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -48635,10 +48625,10 @@ HIDDEN _sk_set_rgb_sse2_lowp
FUNCTION(_sk_set_rgb_sse2_lowp)
_sk_set_rgb_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,100,40,0,0 // movss 0x2864(%rip),%xmm2 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 243,15,16,21,90,40,0,0 // movss 0x285a(%rip),%xmm2 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,35,40,0,0 // movss 0x2823(%rip),%xmm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 243,68,15,16,5,25,40,0,0 // movss 0x2819(%rip),%xmm8 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -48665,7 +48655,7 @@ HIDDEN _sk_premul_sse2_lowp
FUNCTION(_sk_premul_sse2_lowp)
_sk_premul_sse2_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,87,41,0,0 // movdqa 0x2957(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,77,41,0,0 // movdqa 0x294d(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -48713,7 +48703,7 @@ HIDDEN _sk_invert_sse2_lowp
.globl _sk_invert_sse2_lowp
FUNCTION(_sk_invert_sse2_lowp)
_sk_invert_sse2_lowp:
- .byte 102,68,15,111,5,245,40,0,0 // movdqa 0x28f5(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,235,40,0,0 // movdqa 0x28eb(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -48745,7 +48735,7 @@ FUNCTION(_sk_srcatop_sse2_lowp)
_sk_srcatop_sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,153,40,0,0 // movdqa 0x2899(%rip),%xmm3 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,15,111,29,143,40,0,0 // movdqa 0x288f(%rip),%xmm3 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -48777,7 +48767,7 @@ FUNCTION(_sk_dstatop_sse2_lowp)
_sk_dstatop_sse2_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,25,40,0,0 // movdqa 0x2819(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,15,40,0,0 // movdqa 0x280f(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -48806,7 +48796,7 @@ HIDDEN _sk_srcin_sse2_lowp
FUNCTION(_sk_srcin_sse2_lowp)
_sk_srcin_sse2_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,164,39,0,0 // movdqa 0x27a4(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,154,39,0,0 // movdqa 0x279a(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -48827,7 +48817,7 @@ FUNCTION(_sk_dstin_sse2_lowp)
_sk_dstin_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,91,39,0,0 // movdqa 0x275b(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,81,39,0,0 // movdqa 0x2751(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -48848,7 +48838,7 @@ HIDDEN _sk_srcout_sse2_lowp
.globl _sk_srcout_sse2_lowp
FUNCTION(_sk_srcout_sse2_lowp)
_sk_srcout_sse2_lowp:
- .byte 102,68,15,111,5,18,39,0,0 // movdqa 0x2712(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,8,39,0,0 // movdqa 0x2708(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -48871,7 +48861,7 @@ HIDDEN _sk_dstout_sse2_lowp
FUNCTION(_sk_dstout_sse2_lowp)
_sk_dstout_sse2_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,187,38,0,0 // movdqa 0x26bb(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,177,38,0,0 // movdqa 0x26b1(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -48896,7 +48886,7 @@ HIDDEN _sk_srcover_sse2_lowp
.globl _sk_srcover_sse2_lowp
FUNCTION(_sk_srcover_sse2_lowp)
_sk_srcover_sse2_lowp:
- .byte 102,68,15,111,13,97,38,0,0 // movdqa 0x2661(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,87,38,0,0 // movdqa 0x2657(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -48925,7 +48915,7 @@ HIDDEN _sk_dstover_sse2_lowp
.globl _sk_dstover_sse2_lowp
FUNCTION(_sk_dstover_sse2_lowp)
_sk_dstover_sse2_lowp:
- .byte 102,68,15,111,5,231,37,0,0 // movdqa 0x25e7(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,221,37,0,0 // movdqa 0x25dd(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -48952,7 +48942,7 @@ HIDDEN _sk_modulate_sse2_lowp
FUNCTION(_sk_modulate_sse2_lowp)
_sk_modulate_sse2_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,128,37,0,0 // movdqa 0x2580(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,118,37,0,0 // movdqa 0x2576(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -48971,7 +48961,7 @@ HIDDEN _sk_multiply_sse2_lowp
.globl _sk_multiply_sse2_lowp
FUNCTION(_sk_multiply_sse2_lowp)
_sk_multiply_sse2_lowp:
- .byte 102,68,15,111,13,63,37,0,0 // movdqa 0x253f(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,53,37,0,0 // movdqa 0x2535(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -49016,12 +49006,12 @@ _sk_plus__sse2_lowp:
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,68,15,111,21,123,44,0,0 // movdqa 0x2c7b(%rip),%xmm10 # 2a580 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 102,68,15,111,21,113,44,0,0 // movdqa 0x2c71(%rip),%xmm10 # 2a540 <_sk_srcover_rgba_8888_sse2_lowp+0x11bc>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,217,194 // psubusw %xmm10,%xmm0
.byte 102,69,15,239,228 // pxor %xmm12,%xmm12
.byte 102,65,15,117,196 // pcmpeqw %xmm12,%xmm0
- .byte 102,68,15,111,29,95,36,0,0 // movdqa 0x245f(%rip),%xmm11 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,29,85,36,0,0 // movdqa 0x2455(%rip),%xmm11 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 102,65,15,223,195 // pandn %xmm11,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
@@ -49060,7 +49050,7 @@ _sk_screen_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,191,35,0,0 // movdqa 0x23bf(%rip),%xmm10 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,21,181,35,0,0 // movdqa 0x23b5(%rip),%xmm10 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -49092,7 +49082,7 @@ HIDDEN _sk_xor__sse2_lowp
FUNCTION(_sk_xor__sse2_lowp)
_sk_xor__sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,61,35,0,0 // movdqa 0x233d(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,51,35,0,0 // movdqa 0x2333(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -49134,7 +49124,7 @@ _sk_darken_sse2_lowp:
.byte 102,65,15,253,194 // paddw %xmm10,%xmm0
.byte 102,68,15,213,215 // pmullw %xmm7,%xmm10
.byte 102,68,15,213,227 // pmullw %xmm3,%xmm12
- .byte 102,68,15,111,13,248,41,0,0 // movdqa 0x29f8(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 102,68,15,111,13,238,41,0,0 // movdqa 0x29ee(%rip),%xmm9 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x112c>
.byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,204 // movdqa %xmm12,%xmm1
@@ -49143,7 +49133,7 @@ _sk_darken_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,87,34,0,0 // movdqa 0x2257(%rip),%xmm10 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,21,77,34,0,0 // movdqa 0x224d(%rip),%xmm10 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -49199,7 +49189,7 @@ _sk_lighten_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,207,40,0,0 // movdqa 0x28cf(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 102,68,15,111,13,197,40,0,0 // movdqa 0x28c5(%rip),%xmm9 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x112c>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -49208,7 +49198,7 @@ _sk_lighten_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,46,33,0,0 // movdqa 0x212e(%rip),%xmm10 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,21,36,33,0,0 // movdqa 0x2124(%rip),%xmm10 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -49264,7 +49254,7 @@ _sk_difference_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,166,39,0,0 // movdqa 0x27a6(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 102,68,15,111,13,156,39,0,0 // movdqa 0x279c(%rip),%xmm9 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x112c>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -49273,10 +49263,10 @@ _sk_difference_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,5,32,0,0 // movdqa 0x2005(%rip),%xmm10 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,21,251,31,0,0 // movdqa 0x1ffb(%rip),%xmm10 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,29,82,39,0,0 // movdqa 0x2752(%rip),%xmm11 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 102,68,15,111,29,72,39,0,0 // movdqa 0x2748(%rip),%xmm11 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x111c>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
@@ -49331,10 +49321,10 @@ _sk_exclusion_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,2,31,0,0 // movdqa 0x1f02(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,248,30,0,0 // movdqa 0x1ef8(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,79,38,0,0 // movdqa 0x264f(%rip),%xmm10 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 102,68,15,111,21,69,38,0,0 // movdqa 0x2645(%rip),%xmm10 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x111c>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -49370,7 +49360,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,15,111,21,94,30,0,0 // movdqa 0x1e5e(%rip),%xmm2 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,15,111,21,84,30,0,0 // movdqa 0x1e54(%rip),%xmm2 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,68,15,249,231 // psubw %xmm7,%xmm12
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -49383,7 +49373,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,249,241 // psubw %xmm9,%xmm14
.byte 102,69,15,253,201 // paddw %xmm9,%xmm9
- .byte 102,15,111,21,138,37,0,0 // movdqa 0x258a(%rip),%xmm2 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 102,15,111,21,128,37,0,0 // movdqa 0x2580(%rip),%xmm2 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x112c>
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
@@ -49402,7 +49392,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,232 // pand %xmm0,%xmm13
.byte 102,65,15,223,193 // pandn %xmm9,%xmm0
.byte 102,65,15,235,197 // por %xmm13,%xmm0
- .byte 102,15,253,5,189,29,0,0 // paddw 0x1dbd(%rip),%xmm0 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,15,253,5,179,29,0,0 // paddw 0x1db3(%rip),%xmm0 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,199 // paddw %xmm15,%xmm0
.byte 102,69,15,111,204 // movdqa %xmm12,%xmm9
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
@@ -49425,7 +49415,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,65,15,219,249 // pand %xmm9,%xmm7
.byte 102,68,15,223,201 // pandn %xmm1,%xmm9
.byte 102,68,15,235,207 // por %xmm7,%xmm9
- .byte 102,68,15,253,13,72,29,0,0 // paddw 0x1d48(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,253,13,62,29,0,0 // paddw 0x1d3e(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,69,15,253,205 // paddw %xmm13,%xmm9
.byte 102,69,15,213,224 // pmullw %xmm8,%xmm12
.byte 102,69,15,111,251 // movdqa %xmm11,%xmm15
@@ -49447,7 +49437,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,65,15,223,208 // pandn %xmm8,%xmm2
.byte 102,65,15,235,210 // por %xmm10,%xmm2
- .byte 102,68,15,111,5,216,28,0,0 // movdqa 0x1cd8(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,206,28,0,0 // movdqa 0x1cce(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
.byte 102,65,15,253,215 // paddw %xmm15,%xmm2
.byte 102,68,15,213,220 // pmullw %xmm4,%xmm11
@@ -49475,7 +49465,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,127,124,36,232 // movdqa %xmm7,-0x18(%rsp)
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
- .byte 102,15,111,53,105,28,0,0 // movdqa 0x1c69(%rip),%xmm6 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,15,111,53,95,28,0,0 // movdqa 0x1c5f(%rip),%xmm6 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,69,15,249,222 // psubw %xmm14,%xmm11
.byte 102,65,15,111,203 // movdqa %xmm11,%xmm1
@@ -49497,7 +49487,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,253,201 // paddw %xmm1,%xmm1
.byte 102,69,15,111,225 // movdqa %xmm9,%xmm12
.byte 102,68,15,249,225 // psubw %xmm1,%xmm12
- .byte 102,15,111,13,109,35,0,0 // movdqa 0x236d(%rip),%xmm1 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 102,15,111,13,99,35,0,0 // movdqa 0x2363(%rip),%xmm1 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x112c>
.byte 102,69,15,111,238 // movdqa %xmm14,%xmm13
.byte 102,68,15,239,233 // pxor %xmm1,%xmm13
.byte 102,15,239,249 // pxor %xmm1,%xmm7
@@ -49524,7 +49514,7 @@ _sk_overlay_sse2_lowp:
.byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,61,236,34,0,0 // movdqa 0x22ec(%rip),%xmm7 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 102,15,111,61,226,34,0,0 // movdqa 0x22e2(%rip),%xmm7 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x112c>
.byte 102,15,239,231 // pxor %xmm7,%xmm4
.byte 102,65,15,101,229 // pcmpgtw %xmm13,%xmm4
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
@@ -49584,27 +49574,27 @@ _sk_load_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 2831a <_sk_load_8888_sse2_lowp+0x44>
+ .byte 119,41 // ja 282e4 <_sk_load_8888_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,24,1,0,0 // lea 0x118(%rip),%r9 # 28418 <_sk_load_8888_sse2_lowp+0x142>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 283e0 <_sk_load_8888_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 28380 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 2834a <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 28380 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 2834a <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 28380 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 2834a <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -49621,7 +49611,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,214,25,0,0 // movdqa 0x19d6(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,204,25,0,0 // movdqa 0x19cc(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -49644,23 +49634,20 @@ _sk_load_8888_sse2_lowp:
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
- .byte 102,144 // xchg %ax,%ax
- .byte 245 // cmc
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,34 // jmpq *(%rdx)
+ .byte 247,254 // idiv %esi
.byte 255 // (bad)
+ .byte 255,36,255 // jmpq *(%rdi,%rdi,8)
.byte 255 // (bad)
- .byte 255,17 // callq *(%rcx)
+ .byte 255,19 // callq *(%rbx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,98,255 // jmpq *-0x1(%rdx)
+ .byte 255,100,255,255 // jmpq *-0x1(%rdi,%rdi,8)
+ .byte 255,88,255 // lcall *-0x1(%rax)
.byte 255 // (bad)
- .byte 255,86,255 // callq *-0x1(%rsi)
+ .byte 255,67,255 // incl -0x1(%rbx)
.byte 255 // (bad)
- .byte 255,65,255 // incl -0x1(%rcx)
+ .byte 255,54 // pushq (%rsi)
.byte 255 // (bad)
- .byte 255,52,255 // pushq (%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -49677,27 +49664,27 @@ _sk_load_8888_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 28478 <_sk_load_8888_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 28440 <_sk_load_8888_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 28574 <_sk_load_8888_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 2853c <_sk_load_8888_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 284de <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 284a6 <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 284de <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 284a6 <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 284de <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 284a6 <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -49714,7 +49701,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,120,24,0,0 // movdqa 0x1878(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,112,24,0,0 // movdqa 0x1870(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -49782,21 +49769,21 @@ _sk_store_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 28613 <_sk_store_8888_sse2_lowp+0x83>
+ .byte 119,27 // ja 285db <_sk_store_8888_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 28664 <_sk_store_8888_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 2862c <_sk_store_8888_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 2865e <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,75 // jmp 28626 <_sk_store_8888_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 2865e <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,60 // jmp 28626 <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 2865e <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,39 // jmp 28626 <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -49841,27 +49828,27 @@ _sk_load_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 286c4 <_sk_load_bgra_sse2_lowp+0x44>
+ .byte 119,41 // ja 2868c <_sk_load_bgra_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 287c0 <_sk_load_bgra_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 28788 <_sk_load_bgra_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 2872a <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 286f2 <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 2872a <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 286f2 <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 2872a <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 286f2 <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -49878,7 +49865,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,44,22,0,0 // movdqa 0x162c(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,36,22,0,0 // movdqa 0x1624(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -49931,27 +49918,27 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 28820 <_sk_load_bgra_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 287e8 <_sk_load_bgra_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 2891c <_sk_load_bgra_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 288e4 <_sk_load_bgra_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 28886 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 2884e <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 28886 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 2884e <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 28886 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 2884e <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -49968,7 +49955,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,208,20,0,0 // movdqa 0x14d0(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,200,20,0,0 // movdqa 0x14c8(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -50036,21 +50023,21 @@ _sk_store_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 289bb <_sk_store_bgra_sse2_lowp+0x83>
+ .byte 119,27 // ja 28983 <_sk_store_bgra_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 28a0c <_sk_store_bgra_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 289d4 <_sk_store_bgra_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 28a06 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,75 // jmp 289ce <_sk_store_bgra_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 28a06 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,60 // jmp 289ce <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 28a06 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,39 // jmp 289ce <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -50095,23 +50082,23 @@ _sk_load_565_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 28a64 <_sk_load_565_dst_sse2_lowp+0x3c>
+ .byte 119,34 // ja 28a2c <_sk_load_565_dst_sse2_lowp+0x3c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 28b0c <_sk_load_565_dst_sse2_lowp+0xe4>
+ .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 28ad4 <_sk_load_565_dst_sse2_lowp+0xe4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,66 // jmp 28aa6 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 28a6e <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,58 // jmp 28aa6 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 28a6e <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
.byte 243,65,15,16,44,80 // movss (%r8,%rdx,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,34 // jmp 28aa6 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 28a6e <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
.byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
@@ -50119,11 +50106,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,65,15,18,36,80 // movlpd (%r8,%rdx,2),%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,121,26,0,0 // pand 0x1a79(%rip),%xmm7 # 2a530 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
+ .byte 102,15,219,61,113,26,0,0 // pand 0x1a71(%rip),%xmm7 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0x116c>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,120,26,0,0 // pand 0x1a78(%rip),%xmm5 # 2a540 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
- .byte 102,15,111,53,128,26,0,0 // movdqa 0x1a80(%rip),%xmm6 # 2a550 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 102,15,219,45,112,26,0,0 // pand 0x1a70(%rip),%xmm5 # 2a500 <_sk_srcover_rgba_8888_sse2_lowp+0x117c>
+ .byte 102,15,111,53,120,26,0,0 // movdqa 0x1a78(%rip),%xmm6 # 2a510 <_sk_srcover_rgba_8888_sse2_lowp+0x118c>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -50136,7 +50123,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,118,18,0,0 // movaps 0x1276(%rip),%xmm7 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 15,40,61,110,18,0,0 // movaps 0x126e(%rip),%xmm7 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 255,224 // jmpq *%rax
.byte 77,255 // rex.WRB (bad)
.byte 255 // (bad)
@@ -50160,10 +50147,10 @@ _sk_store_565_sse2_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,20,26,0,0 // pand 0x1a14(%rip),%xmm8 # 2a560 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 102,68,15,219,5,12,26,0,0 // pand 0x1a0c(%rip),%xmm8 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0x119c>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,16,26,0,0 // pand 0x1a10(%rip),%xmm9 # 2a570 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
+ .byte 102,68,15,219,13,8,26,0,0 // pand 0x1a08(%rip),%xmm9 # 2a530 <_sk_srcover_rgba_8888_sse2_lowp+0x11ac>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -50172,21 +50159,21 @@ _sk_store_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,31 // ja 28b9e <_sk_store_565_sse2_lowp+0x76>
+ .byte 119,31 // ja 28b66 <_sk_store_565_sse2_lowp+0x76>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 28be8 <_sk_store_565_sse2_lowp+0xc0>
+ .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 28bb0 <_sk_store_565_sse2_lowp+0xc0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,70 // jmp 28be4 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,70 // jmp 28bac <_sk_store_565_sse2_lowp+0xbc>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,62 // jmp 28be4 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,62 // jmp 28bac <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax
.byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,42 // jmp 28be4 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,42 // jmp 28bac <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax
.byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2)
.byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax
@@ -50230,19 +50217,19 @@ _sk_load_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 28c3d <_sk_load_a8_sse2_lowp+0x39>
+ .byte 119,34 // ja 28c05 <_sk_load_a8_sse2_lowp+0x39>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 28cb4 <_sk_load_a8_sse2_lowp+0xb0>
+ .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 28c7c <_sk_load_a8_sse2_lowp+0xb0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,97 // jmp 28c9e <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 28c66 <_sk_load_a8_sse2_lowp+0x9a>
.byte 243,65,15,126,28,16 // movq (%r8,%rdx,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,85 // jmp 28c9e <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 28c66 <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,2 // pinsrw $0x2,%eax,%xmm3
@@ -50250,7 +50237,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 243,15,16,216 // movss %xmm0,%xmm3
- .byte 235,51 // jmp 28c9e <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 28c66 <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,6 // pinsrw $0x6,%eax,%xmm3
@@ -50261,14 +50248,14 @@ _sk_load_a8_sse2_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 102,15,219,29,218,16,0,0 // pand 0x10da(%rip),%xmm3 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,15,219,29,210,16,0,0 // pand 0x10d2(%rip),%xmm3 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 126,255 // jle 28cb5 <_sk_load_a8_sse2_lowp+0xb1>
+ .byte 126,255 // jle 28c7d <_sk_load_a8_sse2_lowp+0xb1>
.byte 255 // (bad)
.byte 255,164,255,255,255,149,255 // jmpq *-0x6a0001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -50298,19 +50285,19 @@ _sk_load_a8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 28d09 <_sk_load_a8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 28cd1 <_sk_load_a8_dst_sse2_lowp+0x39>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 28d80 <_sk_load_a8_dst_sse2_lowp+0xb0>
+ .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 28d48 <_sk_load_a8_dst_sse2_lowp+0xb0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,97 // jmp 28d6a <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 28d32 <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,60,16 // movq (%r8,%rdx,1),%xmm7
.byte 102,15,96,248 // punpcklbw %xmm0,%xmm7
- .byte 235,85 // jmp 28d6a <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 28d32 <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,2 // pinsrw $0x2,%eax,%xmm7
@@ -50318,7 +50305,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,252 // movss %xmm4,%xmm7
- .byte 235,51 // jmp 28d6a <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 28d32 <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,6 // pinsrw $0x6,%eax,%xmm7
@@ -50329,14 +50316,14 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 102,15,219,61,14,16,0,0 // pand 0x100e(%rip),%xmm7 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,15,219,61,6,16,0,0 // pand 0x1006(%rip),%xmm7 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 126,255 // jle 28d81 <_sk_load_a8_dst_sse2_lowp+0xb1>
+ .byte 126,255 // jle 28d49 <_sk_load_a8_dst_sse2_lowp+0xb1>
.byte 255 // (bad)
.byte 255,164,255,255,255,149,255 // jmpq *-0x6a0001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -50366,42 +50353,42 @@ _sk_store_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 28dd0 <_sk_store_a8_sse2_lowp+0x34>
+ .byte 119,29 // ja 28d98 <_sk_store_a8_sse2_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 28e50 <_sk_store_a8_sse2_lowp+0xb4>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 28e18 <_sk_store_a8_sse2_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 65,136,4,16 // mov %al,(%r8,%rdx,1)
- .byte 235,123 // jmp 28e4b <_sk_store_a8_sse2_lowp+0xaf>
- .byte 102,68,15,111,5,167,15,0,0 // movdqa 0xfa7(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 235,123 // jmp 28e13 <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 102,68,15,111,5,159,15,0,0 // movdqa 0xf9f(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 28e4b <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,96 // jmp 28e13 <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,2 // pextrw $0x2,%xmm3,%eax
.byte 65,136,68,16,2 // mov %al,0x2(%r8,%rdx,1)
- .byte 102,68,15,111,5,130,15,0,0 // movdqa 0xf82(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,122,15,0,0 // movdqa 0xf7a(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,16 // mov %ax,(%r8,%rdx,1)
- .byte 235,55 // jmp 28e4b <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,55 // jmp 28e13 <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,6 // pextrw $0x6,%xmm3,%eax
.byte 65,136,68,16,6 // mov %al,0x6(%r8,%rdx,1)
.byte 102,15,197,195,5 // pextrw $0x5,%xmm3,%eax
.byte 65,136,68,16,5 // mov %al,0x5(%r8,%rdx,1)
.byte 102,15,197,195,4 // pextrw $0x4,%xmm3,%eax
.byte 65,136,68,16,4 // mov %al,0x4(%r8,%rdx,1)
- .byte 102,68,15,111,5,69,15,0,0 // movdqa 0xf45(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,5,61,15,0,0 // movdqa 0xf3d(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 118,255 // jbe 28e51 <_sk_store_a8_sse2_lowp+0xb5>
+ .byte 118,255 // jbe 28e19 <_sk_store_a8_sse2_lowp+0xb5>
.byte 255 // (bad)
.byte 255,165,255,255,255,155 // jmpq *-0x64000001(%rbp)
.byte 255 // (bad)
@@ -50432,19 +50419,19 @@ _sk_load_g8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 28ea5 <_sk_load_g8_sse2_lowp+0x39>
+ .byte 119,34 // ja 28e6d <_sk_load_g8_sse2_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 28f24 <_sk_load_g8_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 28eec <_sk_load_g8_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,97 // jmp 28f06 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 28ece <_sk_load_g8_sse2_lowp+0x9a>
.byte 243,65,15,126,4,16 // movq (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,85 // jmp 28f06 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 28ece <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -50452,7 +50439,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,51 // jmp 28f06 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 28ece <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -50463,14 +50450,14 @@ _sk_load_g8_sse2_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 102,15,219,5,114,14,0,0 // pand 0xe72(%rip),%xmm0 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,15,219,5,106,14,0,0 // pand 0xe6a(%rip),%xmm0 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,105,14,0,0 // movaps 0xe69(%rip),%xmm3 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 15,40,29,97,14,0,0 // movaps 0xe61(%rip),%xmm3 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 28f25 <_sk_load_g8_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 28eed <_sk_load_g8_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -50498,19 +50485,19 @@ _sk_load_g8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 28f79 <_sk_load_g8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 28f41 <_sk_load_g8_dst_sse2_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 28ff8 <_sk_load_g8_dst_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 28fc0 <_sk_load_g8_dst_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,97 // jmp 28fda <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 28fa2 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,36,16 // movq (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,85 // jmp 28fda <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 28fa2 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -50518,7 +50505,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,51 // jmp 28fda <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 28fa2 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -50529,14 +50516,14 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,37,158,13,0,0 // pand 0xd9e(%rip),%xmm4 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,15,219,37,150,13,0,0 // pand 0xd96(%rip),%xmm4 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,149,13,0,0 // movaps 0xd95(%rip),%xmm7 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 15,40,61,141,13,0,0 // movaps 0xd8d(%rip),%xmm7 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 28ff9 <_sk_load_g8_dst_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 28fc1 <_sk_load_g8_dst_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -50558,14 +50545,14 @@ FUNCTION(_sk_scale_1_float_sse2_lowp)
_sk_scale_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,240,11,0,0 // mulss 0xbf0(%rip),%xmm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
- .byte 243,68,15,88,5,183,11,0,0 // addss 0xbb7(%rip),%xmm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 243,68,15,89,5,232,11,0,0 // mulss 0xbe8(%rip),%xmm8 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ .byte 243,68,15,88,5,175,11,0,0 // addss 0xbaf(%rip),%xmm8 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,47,13,0,0 // movdqa 0xd2f(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,39,13,0,0 // movdqa 0xd27(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -50592,19 +50579,19 @@ _sk_scale_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 290c7 <_sk_scale_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 2908f <_sk_scale_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,218,0,0,0 // lea 0xda(%rip),%r9 # 2918c <_sk_scale_u8_sse2_lowp+0x100>
+ .byte 76,141,13,218,0,0,0 // lea 0xda(%rip),%r9 # 29154 <_sk_scale_u8_sse2_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 29134 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 290fc <_sk_scale_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 29134 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 290fc <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -50612,7 +50599,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 29134 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 290fc <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -50623,9 +50610,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,67,12,0,0 // pand 0xc43(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,219,5,59,12,0,0 // pand 0xc3b(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,53,12,0,0 // movdqa 0xc35(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,45,12,0,0 // movdqa 0xc2d(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -50661,13 +50648,13 @@ FUNCTION(_sk_lerp_1_float_sse2_lowp)
_sk_lerp_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,92,10,0,0 // mulss 0xa5c(%rip),%xmm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
- .byte 243,68,15,88,5,35,10,0,0 // addss 0xa23(%rip),%xmm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 243,68,15,89,5,84,10,0,0 // mulss 0xa54(%rip),%xmm8 # 29bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ .byte 243,68,15,88,5,27,10,0,0 // addss 0xa1b(%rip),%xmm8 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,160,11,0,0 // movdqa 0xba0(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,13,152,11,0,0 // movdqa 0xb98(%rip),%xmm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -50707,19 +50694,19 @@ _sk_lerp_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 29297 <_sk_lerp_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 2925f <_sk_lerp_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 293a0 <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 29368 <_sk_lerp_u8_sse2_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 29304 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 292cc <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 29304 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 292cc <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -50727,7 +50714,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 29304 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 292cc <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -50738,8 +50725,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,115,10,0,0 // pand 0xa73(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
- .byte 102,68,15,111,21,106,10,0,0 // movdqa 0xa6a(%rip),%xmm10 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,219,5,107,10,0,0 // pand 0xa6b(%rip),%xmm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+ .byte 102,68,15,111,21,98,10,0,0 // movdqa 0xa62(%rip),%xmm10 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -50769,9 +50756,9 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 235,254 // jmp 293a0 <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 235,254 // jmp 29368 <_sk_lerp_u8_sse2_lowp+0x144>
.byte 255 // (bad)
- .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 50293a8 <_sk_srcover_rgba_8888_sse2_lowp+0x4ffffec>
+ .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 5029370 <_sk_srcover_rgba_8888_sse2_lowp+0x4ffffec>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,84,255,255 // callq *-0x1(%rdi,%rdi,8)
@@ -50799,26 +50786,26 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 29407 <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
+ .byte 119,38 // ja 293cf <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 29630 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
+ .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 295f8 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 2946d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,102 // jmp 29435 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 2946d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,87 // jmp 29435 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 2946d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,52 // jmp 29435 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -50835,7 +50822,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,37,233,8,0,0 // movdqa 0x8e9(%rip),%xmm12 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,37,225,8,0,0 // movdqa 0x8e1(%rip),%xmm12 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -50893,20 +50880,20 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 295cf <_sk_srcover_rgba_8888_sse2_lowp+0x213>
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 2964c <_sk_srcover_rgba_8888_sse2_lowp+0x290>
+ .byte 119,24 // ja 29597 <_sk_srcover_rgba_8888_sse2_lowp+0x213>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 29614 <_sk_srcover_rgba_8888_sse2_lowp+0x290>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4)
- .byte 235,73 // jmp 29618 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,73 // jmp 295e0 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
.byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4)
- .byte 235,58 // jmp 29618 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,58 // jmp 295e0 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0
.byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4)
.byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4)
- .byte 235,37 // jmp 29618 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,37 // jmp 295e0 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4)
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
@@ -50939,7 +50926,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2964d <_sk_srcover_rgba_8888_sse2_lowp+0x291>
+ .byte 123,255 // jnp 29615 <_sk_srcover_rgba_8888_sse2_lowp+0x291>
.byte 255 // (bad)
.byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi)
.byte 255 // (bad)
@@ -51005,16 +50992,16 @@ BALIGN32
.byte 0,1 // add %al,(%rcx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0296e8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00032c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0296a8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000324>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120296f0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000334>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120296b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1200032c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0296f8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00033c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0296b8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000334>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3029700 <_sk_srcover_rgba_8888_sse2_lowp+0x3000344>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30296c0 <_sk_srcover_rgba_8888_sse2_lowp+0x300033c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -51057,16 +51044,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a029748 <_sk_srcover_rgba_8888_sse2_lowp+0xa00038c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a029708 <_sk_srcover_rgba_8888_sse2_lowp+0xa000384>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12029750 <_sk_srcover_rgba_8888_sse2_lowp+0x12000394>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12029710 <_sk_srcover_rgba_8888_sse2_lowp+0x1200038c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a029758 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00039c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a029718 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000394>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3029760 <_sk_srcover_rgba_8888_sse2_lowp+0x30003a4>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3029720 <_sk_srcover_rgba_8888_sse2_lowp+0x300039c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -51109,16 +51096,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0297a8 <_sk_srcover_rgba_8888_sse2_lowp+0xa0003ec>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a029768 <_sk_srcover_rgba_8888_sse2_lowp+0xa0003e4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120297b0 <_sk_srcover_rgba_8888_sse2_lowp+0x120003f4>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12029770 <_sk_srcover_rgba_8888_sse2_lowp+0x120003ec>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0297b8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0003fc>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a029778 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0003f4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30297c0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000404>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3029780 <_sk_srcover_rgba_8888_sse2_lowp+0x30003fc>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -51161,16 +51148,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a029808 <_sk_srcover_rgba_8888_sse2_lowp+0xa00044c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0297c8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000444>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12029810 <_sk_srcover_rgba_8888_sse2_lowp+0x12000454>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120297d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1200044c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a029818 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00045c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0297d8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000454>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3029820 <_sk_srcover_rgba_8888_sse2_lowp+0x3000464>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30297e0 <_sk_srcover_rgba_8888_sse2_lowp+0x300045c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -51213,16 +51200,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a029868 <_sk_srcover_rgba_8888_sse2_lowp+0xa0004ac>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a029828 <_sk_srcover_rgba_8888_sse2_lowp+0xa0004a4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12029870 <_sk_srcover_rgba_8888_sse2_lowp+0x120004b4>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12029830 <_sk_srcover_rgba_8888_sse2_lowp+0x120004ac>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a029878 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0004bc>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a029838 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0004b4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3029880 <_sk_srcover_rgba_8888_sse2_lowp+0x30004c4>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3029840 <_sk_srcover_rgba_8888_sse2_lowp+0x30004bc>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -51265,16 +51252,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0298c8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00050c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a029888 <_sk_srcover_rgba_8888_sse2_lowp+0xa000504>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120298d0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000514>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12029890 <_sk_srcover_rgba_8888_sse2_lowp+0x1200050c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0298d8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00051c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a029898 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000514>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30298e0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000524>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30298a0 <_sk_srcover_rgba_8888_sse2_lowp+0x300051c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -51317,16 +51304,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a029928 <_sk_srcover_rgba_8888_sse2_lowp+0xa00056c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0298e8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000564>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12029930 <_sk_srcover_rgba_8888_sse2_lowp+0x12000574>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120298f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1200056c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a029938 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00057c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0298f8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000574>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3029940 <_sk_srcover_rgba_8888_sse2_lowp+0x3000584>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3029900 <_sk_srcover_rgba_8888_sse2_lowp+0x300057c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -51369,16 +51356,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a029988 <_sk_srcover_rgba_8888_sse2_lowp+0xa0005cc>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a029948 <_sk_srcover_rgba_8888_sse2_lowp+0xa0005c4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12029990 <_sk_srcover_rgba_8888_sse2_lowp+0x120005d4>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12029950 <_sk_srcover_rgba_8888_sse2_lowp+0x120005cc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a029998 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0005dc>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a029958 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0005d4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30299a0 <_sk_srcover_rgba_8888_sse2_lowp+0x30005e4>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3029960 <_sk_srcover_rgba_8888_sse2_lowp+0x30005dc>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -51645,7 +51632,7 @@ BALIGN32
.byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
- .byte 224,255 // loopne 29bab <.const+0x52b>
+ .byte 224,255 // loopne 29b6b <.const+0x52b>
.byte 255,0 // incl (%rax)
.byte 255,0 // incl (%rax)
.byte 255,0 // incl (%rax)
@@ -51689,14 +51676,14 @@ BALIGN4
.byte 252 // cld
.byte 190,0,0,128,191 // mov $0xbf800000,%esi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 29c48 <.literal4+0x64>
+ .byte 224,64 // loopne 29c08 <.literal4+0x64>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
.byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope 29c51 <.literal4+0x6d>
+ .byte 71,225,61 // rex.RXB loope 29c11 <.literal4+0x6d>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 29c5b <.literal4+0x77>
+ .byte 127,67 // jg 29c1b <.literal4+0x77>
.byte 145 // xchg %eax,%ecx
.byte 131,158,61,92,143,50,63 // sbbl $0x3f,0x328f5c3d(%rsi)
.byte 10,215 // or %bh,%dl
@@ -51729,7 +51716,7 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 29c71 <.literal4+0x8d>
+ .byte 224,7 // loopne 29c31 <.literal4+0x8d>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -51740,8 +51727,8 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 0,52,255 // add %dh,(%rdi,%rdi,8)
.byte 255 // (bad)
- .byte 127,0 // jg 29c84 <.literal4+0xa0>
- .byte 119,115 // ja 29cf9 <.literal4+0x115>
+ .byte 127,0 // jg 29c44 <.literal4+0xa0>
+ .byte 119,115 // ja 29cb9 <.literal4+0x115>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -51764,12 +51751,12 @@ BALIGN4
.byte 190,80,128,3,62 // mov $0x3e038050,%esi
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 29d0f <.literal4+0x12b>
+ .byte 118,63 // jbe 29ccf <.literal4+0x12b>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 29d1e <.literal4+0x13a>
+ .byte 124,66 // jl 29cde <.literal4+0x13a>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax)
@@ -51779,9 +51766,9 @@ BALIGN4
.byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax)
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax)
- .byte 112,65 // jo 29d41 <.literal4+0x15d>
+ .byte 112,65 // jo 29d01 <.literal4+0x15d>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 29d4b <.literal4+0x167>
+ .byte 127,71 // jg 29d0b <.literal4+0x167>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,89 // ds pop %rcx
@@ -51808,15 +51795,15 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0,191,0,0,192,191 // add %bh,-0x40400000(%rdi)
- .byte 114,28 // jb 29d6a <.literal4+0x186>
+ .byte 114,28 // jb 29d2a <.literal4+0x186>
.byte 199 // (bad)
.byte 62,0,0 // add %al,%ds:(%rax)
.byte 192,63,85 // sarb $0x55,(%rdi)
.byte 85 // push %rbp
.byte 149 // xchg %eax,%ebp
.byte 191,57,142,99,61 // mov $0x3d638e39,%edi
- .byte 114,249 // jb 29d57 <.literal4+0x173>
- .byte 127,63 // jg 29d9f <_sk_srcover_rgba_8888_sse2_lowp+0x9e3>
+ .byte 114,249 // jb 29d17 <.literal4+0x173>
+ .byte 127,63 // jg 29d5f <_sk_srcover_rgba_8888_sse2_lowp+0x9db>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 0,4,0 // add %al,(%rax,%rax,1)
@@ -51825,7 +51812,7 @@ BALIGN4
.byte 56,255 // cmp %bh,%bh
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 29d71 <.literal4+0x18d>
+ .byte 127,0 // jg 29d31 <.literal4+0x18d>
.byte 0,128,56,0,64,254 // add %al,-0x1bfffc8(%rax)
.byte 255 // .byte 0xff
@@ -51928,11 +51915,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%rax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 29ea8 <.literal16+0x128>
+ .byte 224,64 // loopne 29e68 <.literal16+0x128>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 29eac <.literal16+0x12c>
+ .byte 224,64 // loopne 29e6c <.literal16+0x12c>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 29eb0 <.literal16+0x130>
+ .byte 224,64 // loopne 29e70 <.literal16+0x130>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
@@ -51952,13 +51939,13 @@ BALIGN16
.byte 10,23 // or (%rdi),%dl
.byte 63 // (bad)
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 29ed1 <.literal16+0x151>
+ .byte 71,225,61 // rex.RXB loope 29e91 <.literal16+0x151>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 29ed5 <.literal16+0x155>
+ .byte 71,225,61 // rex.RXB loope 29e95 <.literal16+0x155>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 29ed9 <.literal16+0x159>
+ .byte 71,225,61 // rex.RXB loope 29e99 <.literal16+0x159>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 29edd <.literal16+0x15d>
+ .byte 71,225,61 // rex.RXB loope 29e9d <.literal16+0x15d>
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
@@ -51969,10 +51956,10 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a029eb8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000afc>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a029e78 <_sk_srcover_rgba_8888_sse2_lowp+0xa000af4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3029ec0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000b04>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3029e80 <_sk_srcover_rgba_8888_sse2_lowp+0x3000afc>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -51987,11 +51974,11 @@ BALIGN16
.byte 255,0 // incl (%rax)
.byte 0,127,67 // add %bh,0x43(%rdi)
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 29f1b <.literal16+0x19b>
+ .byte 127,67 // jg 29edb <.literal16+0x19b>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 29f1f <.literal16+0x19f>
+ .byte 127,67 // jg 29edf <.literal16+0x19f>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 29f23 <.literal16+0x1a3>
+ .byte 127,67 // jg 29ee3 <.literal16+0x1a3>
.byte 145 // xchg %eax,%ecx
.byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%rsi)
.byte 145 // xchg %eax,%ecx
@@ -52142,13 +52129,13 @@ BALIGN16
.byte 132,55 // test %dh,(%rdi)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 2a029 <.literal16+0x2a9>
+ .byte 224,7 // loopne 29fe9 <.literal16+0x2a9>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 2a02d <.literal16+0x2ad>
+ .byte 224,7 // loopne 29fed <.literal16+0x2ad>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 2a031 <.literal16+0x2b1>
+ .byte 224,7 // loopne 29ff1 <.literal16+0x2b1>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 2a035 <.literal16+0x2b5>
+ .byte 224,7 // loopne 29ff5 <.literal16+0x2b5>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -52202,17 +52189,17 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 2a0a4 <.literal16+0x324>
+ .byte 127,0 // jg 2a064 <.literal16+0x324>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 2a0a8 <.literal16+0x328>
+ .byte 127,0 // jg 2a068 <.literal16+0x328>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 2a0ac <.literal16+0x32c>
+ .byte 127,0 // jg 2a06c <.literal16+0x32c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 2a0b0 <.literal16+0x330>
- .byte 119,115 // ja 2a125 <.literal16+0x3a5>
+ .byte 127,0 // jg 2a070 <.literal16+0x330>
+ .byte 119,115 // ja 2a0e5 <.literal16+0x3a5>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -52223,7 +52210,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 2a089 <.literal16+0x309>
+ .byte 117,191 // jne 2a049 <.literal16+0x309>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -52235,7 +52222,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a5e0ca <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe9a34d0e>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a5e08a <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe9a34d06>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -52325,16 +52312,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%rbx)
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 2a213 <.literal16+0x493>
+ .byte 118,63 // jbe 2a1d3 <.literal16+0x493>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 2a217 <.literal16+0x497>
+ .byte 118,63 // jbe 2a1d7 <.literal16+0x497>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 2a21b <.literal16+0x49b>
+ .byte 118,63 // jbe 2a1db <.literal16+0x49b>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 2a21f <.literal16+0x49f>
+ .byte 118,63 // jbe 2a1df <.literal16+0x49f>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
@@ -52355,13 +52342,13 @@ BALIGN16
.byte 65,0,0 // add %al,(%r8)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 2a256 <.literal16+0x4d6>
+ .byte 124,66 // jl 2a216 <.literal16+0x4d6>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 2a25a <.literal16+0x4da>
+ .byte 124,66 // jl 2a21a <.literal16+0x4da>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 2a25e <.literal16+0x4de>
+ .byte 124,66 // jl 2a21e <.literal16+0x4de>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 2a262 <.literal16+0x4e2>
+ .byte 124,66 // jl 2a222 <.literal16+0x4e2>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 0,240 // add %dh,%al
@@ -52407,25 +52394,25 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 2a2e5 <.literal16+0x565>
+ .byte 112,65 // jo 2a2a5 <.literal16+0x565>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 2a2e9 <.literal16+0x569>
+ .byte 112,65 // jo 2a2a9 <.literal16+0x569>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 2a2ed <.literal16+0x56d>
+ .byte 112,65 // jo 2a2ad <.literal16+0x56d>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 2a2f1 <.literal16+0x571>
+ .byte 112,65 // jo 2a2b1 <.literal16+0x571>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 2a2c3 <.literal16+0x543>
+ .byte 127,0 // jg 2a283 <.literal16+0x543>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 2a2c7 <.literal16+0x547>
+ .byte 127,0 // jg 2a287 <.literal16+0x547>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 2a2cb <.literal16+0x54b>
+ .byte 127,0 // jg 2a28b <.literal16+0x54b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 2a2cf <.literal16+0x54f>
+ .byte 127,0 // jg 2a28f <.literal16+0x54f>
.byte 0,0 // add %al,(%rax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
@@ -52451,13 +52438,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 2a308 <.literal16+0x588>
+ .byte 127,255 // jg 2a2c8 <.literal16+0x588>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 2a30c <.literal16+0x58c>
+ .byte 127,255 // jg 2a2cc <.literal16+0x58c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 2a311 <.literal16+0x591>
+ .byte 127,0 // jg 2a2d1 <.literal16+0x591>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
.byte 56,0 // cmp %al,(%rax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
@@ -52471,13 +52458,13 @@ BALIGN16
.byte 64,254 // rex (bad)
.byte 255,0 // incl (%rax)
.byte 255 // (bad)
- .byte 127,71 // jg 2a37b <.literal16+0x5fb>
+ .byte 127,71 // jg 2a33b <.literal16+0x5fb>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 2a37f <.literal16+0x5ff>
+ .byte 127,71 // jg 2a33f <.literal16+0x5ff>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 2a383 <.literal16+0x603>
+ .byte 127,71 // jg 2a343 <.literal16+0x603>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 2a387 <.literal16+0x607>
+ .byte 127,71 // jg 2a347 <.literal16+0x607>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,208 // ds (bad)
@@ -52507,10 +52494,10 @@ BALIGN16
.byte 61,152,221,147,61 // cmp $0x3d93dd98,%eax
.byte 152 // cwtl
.byte 221,147,61,45,16,17 // fstl 0x11102d3d(%rbx)
- .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc2b48a <_sk_srcover_rgba_8888_sse2_lowp+0x2dc020ce>
+ .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc2b44a <_sk_srcover_rgba_8888_sse2_lowp+0x2dc020c6>
.byte 17,192 // adc %eax,%eax
.byte 45,16,17,192,18 // sub $0x12c01110,%eax
- .byte 120,57 // js 2a3bc <.literal16+0x63c>
+ .byte 120,57 // js 2a37c <.literal16+0x63c>
.byte 64,18,120,57 // adc 0x39(%rax),%dil
.byte 64,18,120,57 // adc 0x39(%rax),%dil
.byte 64,18,120,57 // adc 0x39(%rax),%dil
@@ -52575,13 +52562,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb 2a46e <.literal16+0x6ee>
+ .byte 114,28 // jb 2a42e <.literal16+0x6ee>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 2a472 <.literal16+0x6f2>
+ .byte 62,114,28 // jb,pt 2a432 <.literal16+0x6f2>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 2a476 <.literal16+0x6f6>
+ .byte 62,114,28 // jb,pt 2a436 <.literal16+0x6f6>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 2a47a <.literal16+0x6fa>
+ .byte 62,114,28 // jb,pt 2a43a <.literal16+0x6fa>
.byte 199 // (bad)
.byte 62,85 // ds push %rbp
.byte 85 // push %rbp
@@ -52600,15 +52587,15 @@ BALIGN16
.byte 0,192 // add %al,%al
.byte 63 // (bad)
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d6632c5 <_sk_srcover_rgba_8888_sse2_lowp+0x3d639f09>
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d663285 <_sk_srcover_rgba_8888_sse2_lowp+0x3d639f01>
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 2a4d3 <.literal16+0x753>
- .byte 114,249 // jb 2a48f <.literal16+0x70f>
- .byte 127,63 // jg 2a4d7 <.literal16+0x757>
- .byte 114,249 // jb 2a493 <.literal16+0x713>
- .byte 127,63 // jg 2a4db <.literal16+0x75b>
- .byte 114,249 // jb 2a497 <.literal16+0x717>
- .byte 127,63 // jg 2a4df <.literal16+0x75f>
+ .byte 127,63 // jg 2a493 <.literal16+0x753>
+ .byte 114,249 // jb 2a44f <.literal16+0x70f>
+ .byte 127,63 // jg 2a497 <.literal16+0x757>
+ .byte 114,249 // jb 2a453 <.literal16+0x713>
+ .byte 127,63 // jg 2a49b <.literal16+0x75b>
+ .byte 114,249 // jb 2a457 <.literal16+0x717>
+ .byte 127,63 // jg 2a49f <.literal16+0x75f>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 3,0 // add (%rax),%eax
@@ -52718,14 +52705,14 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne 2a571 <.literal16+0x7f1>
- .byte 224,255 // loopne 2a573 <.literal16+0x7f3>
- .byte 224,255 // loopne 2a575 <.literal16+0x7f5>
- .byte 224,255 // loopne 2a577 <.literal16+0x7f7>
- .byte 224,255 // loopne 2a579 <.literal16+0x7f9>
- .byte 224,255 // loopne 2a57b <.literal16+0x7fb>
- .byte 224,255 // loopne 2a57d <.literal16+0x7fd>
- .byte 224,255 // loopne 2a57f <.literal16+0x7ff>
+ .byte 224,255 // loopne 2a531 <.literal16+0x7f1>
+ .byte 224,255 // loopne 2a533 <.literal16+0x7f3>
+ .byte 224,255 // loopne 2a535 <.literal16+0x7f5>
+ .byte 224,255 // loopne 2a537 <.literal16+0x7f7>
+ .byte 224,255 // loopne 2a539 <.literal16+0x7f9>
+ .byte 224,255 // loopne 2a53b <.literal16+0x7fb>
+ .byte 224,255 // loopne 2a53d <.literal16+0x7fd>
+ .byte 224,255 // loopne 2a53f <.literal16+0x7ff>
.byte 254,0 // incb (%rax)
.byte 254,0 // incb (%rax)
.byte 254,0 // incb (%rax)
@@ -52749,9 +52736,9 @@ BALIGN8
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 2a5ab <.literal8+0x1b>
+ .byte 127,0 // jg 2a56b <.literal8+0x1b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 2a5af <.literal8+0x1f>
+ .byte 127,0 // jg 2a56f <.literal8+0x1f>
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0 // .byte 0x0
@@ -64228,40 +64215,38 @@ _sk_uniform_color_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
.byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,49 // mov (%ecx),%esi
- .byte 15,182,126,16 // movzbl 0x10(%esi),%edi
- .byte 102,15,110,199 // movd %edi,%xmm0
- .byte 15,182,126,17 // movzbl 0x11(%esi),%edi
+ .byte 139,77,16 // mov 0x10(%ebp),%ecx
+ .byte 139,85,12 // mov 0xc(%ebp),%edx
+ .byte 139,50 // mov (%edx),%esi
+ .byte 15,183,126,18 // movzwl 0x12(%esi),%edi
.byte 102,15,110,207 // movd %edi,%xmm1
- .byte 15,182,126,18 // movzbl 0x12(%esi),%edi
- .byte 102,15,110,215 // movd %edi,%xmm2
.byte 139,125,20 // mov 0x14(%ebp),%edi
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
.byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
.byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
+ .byte 102,15,110,70,16 // movd 0x10(%esi),%xmm0
.byte 242,15,112,192,0 // pshuflw $0x0,%xmm0,%xmm0
.byte 102,15,112,192,80 // pshufd $0x50,%xmm0,%xmm0
.byte 242,15,112,201,0 // pshuflw $0x0,%xmm1,%xmm1
.byte 102,15,112,201,80 // pshufd $0x50,%xmm1,%xmm1
+ .byte 102,15,110,86,20 // movd 0x14(%esi),%xmm2
.byte 242,15,112,210,0 // pshuflw $0x0,%xmm2,%xmm2
.byte 102,15,112,210,80 // pshufd $0x50,%xmm2,%xmm2
- .byte 15,182,118,19 // movzbl 0x13(%esi),%esi
+ .byte 15,183,118,22 // movzwl 0x16(%esi),%esi
.byte 102,15,110,222 // movd %esi,%xmm3
.byte 242,15,112,219,0 // pshuflw $0x0,%xmm3,%xmm3
.byte 102,15,112,219,80 // pshufd $0x50,%xmm3,%xmm3
- .byte 141,113,8 // lea 0x8(%ecx),%esi
+ .byte 141,114,8 // lea 0x8(%edx),%esi
.byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
.byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
.byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
.byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
.byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
+ .byte 137,76,36,8 // mov %ecx,0x8(%esp)
.byte 137,116,36,4 // mov %esi,0x4(%esp)
.byte 137,4,36 // mov %eax,(%esp)
- .byte 255,81,4 // call *0x4(%ecx)
+ .byte 255,82,4 // call *0x4(%edx)
.byte 131,196,80 // add $0x50,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
@@ -64278,7 +64263,7 @@ _sk_black_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call 947f <_sk_black_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call 9479 <_sk_black_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -64297,7 +64282,7 @@ _sk_black_color_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,152,129,55,0,0 // movaps 0x3781(%eax),%xmm3
+ .byte 15,40,152,135,55,0,0 // movaps 0x3787(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -64319,7 +64304,7 @@ _sk_white_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call 94ea <_sk_white_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call 94e4 <_sk_white_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -64338,7 +64323,7 @@ _sk_white_color_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,128,22,55,0,0 // movaps 0x3716(%eax),%xmm0
+ .byte 15,40,128,28,55,0,0 // movaps 0x371c(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -64359,16 +64344,16 @@ _sk_set_rgb_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9554 <_sk_set_rgb_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 954e <_sk_set_rgb_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,57 // mov (%ecx),%edi
- .byte 243,15,16,150,64,55,0,0 // movss 0x3740(%esi),%xmm2
+ .byte 243,15,16,150,70,55,0,0 // movss 0x3746(%esi),%xmm2
.byte 243,15,16,7 // movss (%edi),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,15,16,142,60,55,0,0 // movss 0x373c(%esi),%xmm1
+ .byte 243,15,16,142,66,55,0,0 // movss 0x3742(%esi),%xmm1
.byte 243,15,88,193 // addss %xmm1,%xmm0
.byte 243,15,44,240 // cvttss2si %xmm0,%esi
.byte 102,15,110,198 // movd %esi,%xmm0
@@ -64417,7 +64402,7 @@ _sk_premul_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9618 <_sk_premul_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9612 <_sk_premul_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -64426,7 +64411,7 @@ _sk_premul_sse2_lowp:
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
.byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,186,232,53,0,0 // movdqa 0x35e8(%edx),%xmm7
+ .byte 102,15,111,186,238,53,0,0 // movdqa 0x35ee(%edx),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -64560,12 +64545,12 @@ _sk_invert_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9792 <_sk_invert_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 978c <_sk_invert_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 102,15,111,160,110,52,0,0 // movdqa 0x346e(%eax),%xmm4
+ .byte 102,15,111,160,116,52,0,0 // movdqa 0x3474(%eax),%xmm4
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,249,232 // psubw %xmm0,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -64647,11 +64632,11 @@ _sk_srcatop_sse2_lowp:
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 988a <_sk_srcatop_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call 9884 <_sk_srcatop_sse2_lowp+0x19>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,128,118,51,0,0 // movdqa 0x3376(%eax),%xmm0
+ .byte 102,15,111,128,124,51,0,0 // movdqa 0x337c(%eax),%xmm0
.byte 102,15,253,200 // paddw %xmm0,%xmm1
.byte 102,15,213,214 // pmullw %xmm6,%xmm2
.byte 102,15,253,208 // paddw %xmm0,%xmm2
@@ -64709,12 +64694,12 @@ _sk_dstatop_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 995e <_sk_dstatop_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9958 <_sk_dstatop_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,101,40 // movdqa 0x28(%ebp),%xmm4
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,213,243 // pmullw %xmm3,%xmm6
- .byte 102,15,111,184,162,50,0,0 // movdqa 0x32a2(%eax),%xmm7
+ .byte 102,15,111,184,168,50,0,0 // movdqa 0x32a8(%eax),%xmm7
.byte 102,15,253,247 // paddw %xmm7,%xmm6
.byte 102,15,213,227 // pmullw %xmm3,%xmm4
.byte 102,15,253,231 // paddw %xmm7,%xmm4
@@ -64767,7 +64752,7 @@ _sk_srcin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9a1f <_sk_srcin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9a19 <_sk_srcin_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -64776,7 +64761,7 @@ _sk_srcin_sse2_lowp:
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,190,225,49,0,0 // movdqa 0x31e1(%esi),%xmm7
+ .byte 102,15,111,190,231,49,0,0 // movdqa 0x31e7(%esi),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -64815,14 +64800,14 @@ _sk_dstin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9ab6 <_sk_dstin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9ab0 <_sk_dstin_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,85,56 // movdqa 0x38(%ebp),%xmm2
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,184,74,49,0,0 // movdqa 0x314a(%eax),%xmm7
+ .byte 102,15,111,184,80,49,0,0 // movdqa 0x3150(%eax),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -64866,14 +64851,14 @@ _sk_srcout_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9b5e <_sk_srcout_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9b58 <_sk_srcout_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
.byte 139,85,20 // mov 0x14(%ebp),%edx
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,182,162,48,0,0 // movdqa 0x30a2(%esi),%xmm6
+ .byte 102,15,111,182,168,48,0,0 // movdqa 0x30a8(%esi),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,253 // psubw %xmm5,%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -64917,11 +64902,11 @@ _sk_dstout_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 232,0,0,0,0 // call 9c01 <_sk_dstout_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call 9bfb <_sk_dstout_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 102,15,111,109,56 // movdqa 0x38(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
- .byte 102,15,111,184,255,47,0,0 // movdqa 0x2fff(%eax),%xmm7
+ .byte 102,15,111,184,5,48,0,0 // movdqa 0x3005(%eax),%xmm7
.byte 102,15,111,223 // movdqa %xmm7,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -64973,9 +64958,9 @@ _sk_srcover_sse2_lowp:
.byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 9cbd <_sk_srcover_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call 9cb7 <_sk_srcover_sse2_lowp+0x19>
.byte 88 // pop %eax
- .byte 102,15,111,136,67,47,0,0 // movdqa 0x2f43(%eax),%xmm1
+ .byte 102,15,111,136,73,47,0,0 // movdqa 0x2f49(%eax),%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -65034,7 +65019,7 @@ _sk_dstover_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9d8d <_sk_dstover_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9d87 <_sk_dstover_sse2_lowp+0xd>
.byte 95 // pop %edi
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -65042,7 +65027,7 @@ _sk_dstover_sse2_lowp:
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 102,15,111,101,56 // movdqa 0x38(%ebp),%xmm4
.byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,183,115,46,0,0 // movdqa 0x2e73(%edi),%xmm6
+ .byte 102,15,111,183,121,46,0,0 // movdqa 0x2e79(%edi),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,253 // psubw %xmm5,%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -65088,12 +65073,12 @@ _sk_modulate_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9e42 <_sk_modulate_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9e3c <_sk_modulate_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,190,45,0,0 // movdqa 0x2dbe(%eax),%xmm7
+ .byte 102,15,111,184,196,45,0,0 // movdqa 0x2dc4(%eax),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -65136,10 +65121,10 @@ _sk_multiply_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9ede <_sk_multiply_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9ed8 <_sk_multiply_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
- .byte 102,15,111,160,34,45,0,0 // movdqa 0x2d22(%eax),%xmm4
+ .byte 102,15,111,160,40,45,0,0 // movdqa 0x2d28(%eax),%xmm4
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,253,244 // paddw %xmm4,%xmm6
.byte 102,15,249,117,72 // psubw 0x48(%ebp),%xmm6
@@ -65209,17 +65194,17 @@ _sk_plus__sse2_lowp:
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 9fdf <_sk_plus__sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call 9fd9 <_sk_plus__sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,253,77,24 // paddw 0x18(%ebp),%xmm1
- .byte 102,15,111,168,49,44,0,0 // movdqa 0x2c31(%eax),%xmm5
+ .byte 102,15,111,168,55,44,0,0 // movdqa 0x2c37(%eax),%xmm5
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,217,197 // psubusw %xmm5,%xmm0
.byte 102,15,127,109,232 // movdqa %xmm5,-0x18(%ebp)
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,117,199 // pcmpeqw %xmm7,%xmm0
.byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,111,176,33,44,0,0 // movdqa 0x2c21(%eax),%xmm6
+ .byte 102,15,111,176,39,44,0,0 // movdqa 0x2c27(%eax),%xmm6
.byte 102,15,223,198 // pandn %xmm6,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
.byte 102,15,253,101,40 // paddw 0x28(%ebp),%xmm4
@@ -65280,14 +65265,14 @@ _sk_screen_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a0d7 <_sk_screen_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call a0d1 <_sk_screen_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,176,41,43,0,0 // movdqa 0x2b29(%eax),%xmm6
+ .byte 102,15,111,176,47,43,0,0 // movdqa 0x2b2f(%eax),%xmm6
.byte 102,15,253,206 // paddw %xmm6,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -65345,9 +65330,9 @@ _sk_xor__sse2_lowp:
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,127,93,232 // movdqa %xmm3,-0x18(%ebp)
- .byte 232,0,0,0,0 // call a1b7 <_sk_xor__sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call a1b1 <_sk_xor__sse2_lowp+0x12>
.byte 88 // pop %eax
- .byte 102,15,111,176,73,42,0,0 // movdqa 0x2a49(%eax),%xmm6
+ .byte 102,15,111,176,79,42,0,0 // movdqa 0x2a4f(%eax),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,125,72 // psubw 0x48(%ebp),%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -65414,7 +65399,7 @@ _sk_darken_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a2ac <_sk_darken_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call a2a6 <_sk_darken_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -65425,7 +65410,7 @@ _sk_darken_sse2_lowp:
.byte 102,15,111,222 // movdqa %xmm6,%xmm3
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,116,41,0,0 // movdqa 0x2974(%eax),%xmm7
+ .byte 102,15,111,184,122,41,0,0 // movdqa 0x297a(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -65434,7 +65419,7 @@ _sk_darken_sse2_lowp:
.byte 102,15,219,197 // pand %xmm5,%xmm0
.byte 102,15,223,233 // pandn %xmm1,%xmm5
.byte 102,15,235,232 // por %xmm0,%xmm5
- .byte 102,15,111,128,84,41,0,0 // movdqa 0x2954(%eax),%xmm0
+ .byte 102,15,111,128,90,41,0,0 // movdqa 0x295a(%eax),%xmm0
.byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -65525,7 +65510,7 @@ _sk_lighten_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a455 <_sk_lighten_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call a44f <_sk_lighten_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
@@ -65534,7 +65519,7 @@ _sk_lighten_sse2_lowp:
.byte 102,15,213,77,72 // pmullw 0x48(%ebp),%xmm1
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,203,39,0,0 // movdqa 0x27cb(%eax),%xmm7
+ .byte 102,15,111,184,209,39,0,0 // movdqa 0x27d1(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -65543,7 +65528,7 @@ _sk_lighten_sse2_lowp:
.byte 102,15,219,205 // pand %xmm5,%xmm1
.byte 102,15,223,232 // pandn %xmm0,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,171,39,0,0 // movdqa 0x27ab(%eax),%xmm0
+ .byte 102,15,111,128,177,39,0,0 // movdqa 0x27b1(%eax),%xmm0
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,127,85,232 // movdqa %xmm2,-0x18(%ebp)
@@ -65633,7 +65618,7 @@ _sk_difference_sse2_lowp:
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a5f3 <_sk_difference_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call a5ed <_sk_difference_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -65644,7 +65629,7 @@ _sk_difference_sse2_lowp:
.byte 102,15,111,222 // movdqa %xmm6,%xmm3
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,45,38,0,0 // movdqa 0x262d(%eax),%xmm7
+ .byte 102,15,111,184,51,38,0,0 // movdqa 0x2633(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -65653,11 +65638,11 @@ _sk_difference_sse2_lowp:
.byte 102,15,219,205 // pand %xmm5,%xmm1
.byte 102,15,223,232 // pandn %xmm0,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,13,38,0,0 // movdqa 0x260d(%eax),%xmm0
+ .byte 102,15,111,128,19,38,0,0 // movdqa 0x2613(%eax),%xmm0
.byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,113,213,7 // psrlw $0x7,%xmm5
- .byte 102,15,111,128,61,38,0,0 // movdqa 0x263d(%eax),%xmm0
+ .byte 102,15,111,128,67,38,0,0 // movdqa 0x2643(%eax),%xmm0
.byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
.byte 102,15,219,232 // pand %xmm0,%xmm5
.byte 102,15,249,213 // psubw %xmm5,%xmm2
@@ -65746,16 +65731,16 @@ _sk_exclusion_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a7a7 <_sk_exclusion_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call a7a1 <_sk_exclusion_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,111,184,89,36,0,0 // movdqa 0x2459(%eax),%xmm7
+ .byte 102,15,111,184,95,36,0,0 // movdqa 0x245f(%eax),%xmm7
.byte 102,15,253,207 // paddw %xmm7,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,15,111,176,137,36,0,0 // movdqa 0x2489(%eax),%xmm6
+ .byte 102,15,111,176,143,36,0,0 // movdqa 0x248f(%eax),%xmm6
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
@@ -65816,9 +65801,9 @@ _sk_hardlight_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call a8a1 <_sk_hardlight_sse2_lowp+0x1c>
+ .byte 232,0,0,0,0 // call a89b <_sk_hardlight_sse2_lowp+0x1c>
.byte 88 // pop %eax
- .byte 102,15,111,184,95,35,0,0 // movdqa 0x235f(%eax),%xmm7
+ .byte 102,15,111,184,101,35,0,0 // movdqa 0x2365(%eax),%xmm7
.byte 102,15,127,125,200 // movdqa %xmm7,-0x38(%ebp)
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,249,85,72 // psubw 0x48(%ebp),%xmm2
@@ -65845,7 +65830,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,15,249,209 // psubw %xmm1,%xmm2
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,128,127,35,0,0 // movdqa 0x237f(%eax),%xmm0
+ .byte 102,15,111,128,133,35,0,0 // movdqa 0x2385(%eax),%xmm0
.byte 102,15,239,216 // pxor %xmm0,%xmm3
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
@@ -65952,10 +65937,10 @@ _sk_overlay_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call aac3 <_sk_overlay_sse2_lowp+0x1f>
+ .byte 232,0,0,0,0 // call aabd <_sk_overlay_sse2_lowp+0x1f>
.byte 88 // pop %eax
.byte 102,15,111,69,72 // movdqa 0x48(%ebp),%xmm0
- .byte 102,15,111,184,61,33,0,0 // movdqa 0x213d(%eax),%xmm7
+ .byte 102,15,111,184,67,33,0,0 // movdqa 0x2143(%eax),%xmm7
.byte 102,15,127,125,232 // movdqa %xmm7,-0x18(%ebp)
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,249,208 // psubw %xmm0,%xmm2
@@ -65982,7 +65967,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,249,234 // psubw %xmm2,%xmm5
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,111,144,93,33,0,0 // movdqa 0x215d(%eax),%xmm2
+ .byte 102,15,111,144,99,33,0,0 // movdqa 0x2163(%eax),%xmm2
.byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
.byte 102,15,239,226 // pxor %xmm2,%xmm4
.byte 102,15,239,194 // pxor %xmm2,%xmm0
@@ -66112,26 +66097,26 @@ _sk_load_8888_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call ad32 <_sk_load_8888_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call ad2c <_sk_load_8888_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja ad58 <_sk_load_8888_sse2_lowp+0x56>
+ .byte 119,32 // ja ad52 <_sk_load_8888_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,50,1,0,0 // mov 0x132(%edi,%ecx,4),%ecx
+ .byte 139,140,143,52,1,0,0 // mov 0x134(%edi,%ecx,4),%ecx
.byte 1,249 // add %edi,%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp ada1 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,73 // jmp ad9b <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp ada1 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,61 // jmp ad9b <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp ada1 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,43 // jmp ad9b <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -66148,7 +66133,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,206,30,0,0 // movdqa 0x1ece(%edi),%xmm5
+ .byte 102,15,111,175,212,30,0,0 // movdqa 0x1ed4(%edi),%xmm5
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,219,197 // pand %xmm5,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -66189,6 +66174,7 @@ _sk_load_8888_sse2_lowp:
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
+ .byte 102,144 // xchg %ax,%ax
.byte 28,0 // sbb $0x0,%al
.byte 0,0 // add %al,(%eax)
.byte 61,0,0,0,50 // cmp $0x32000000,%eax
@@ -66227,10 +66213,10 @@ _sk_load_8888_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call aebd <_sk_load_8888_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call aeb9 <_sk_load_8888_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja aee3 <_sk_load_8888_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja aedf <_sk_load_8888_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -66239,14 +66225,14 @@ _sk_load_8888_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp af2c <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp af28 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp af2c <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp af28 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp af2c <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp af28 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -66263,7 +66249,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,114,226,16 // psrad $0x10,%xmm2
.byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,67,29,0,0 // movdqa 0x1d43(%edi),%xmm2
+ .byte 102,15,111,151,71,29,0,0 // movdqa 0x1d47(%edi),%xmm2
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
@@ -66357,19 +66343,19 @@ _sk_store_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call b088 <_sk_store_8888_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call b084 <_sk_store_8888_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja b0a5 <_sk_store_8888_sse2_lowp+0x91>
+ .byte 119,19 // ja b0a1 <_sk_store_8888_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp b102 <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,93 // jmp b0fe <_sk_store_8888_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp b102 <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,80 // jmp b0fe <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -66377,7 +66363,7 @@ _sk_store_8888_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp b102 <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,48 // jmp b0fe <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -66414,7 +66400,7 @@ _sk_store_8888_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne b14e <_sk_store_8888_sse2_lowp+0x13a>
+ .byte 117,0 // jne b14a <_sk_store_8888_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -66446,10 +66432,10 @@ _sk_load_bgra_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b18c <_sk_load_bgra_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call b188 <_sk_load_bgra_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja b1b2 <_sk_load_bgra_sse2_lowp+0x56>
+ .byte 119,32 // ja b1ae <_sk_load_bgra_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,52,1,0,0 // mov 0x134(%edi,%ecx,4),%ecx
@@ -66458,14 +66444,14 @@ _sk_load_bgra_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp b1fb <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,73 // jmp b1f7 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp b1fb <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,61 // jmp b1f7 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp b1fb <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,43 // jmp b1f7 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -66482,7 +66468,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,116,26,0,0 // movdqa 0x1a74(%edi),%xmm5
+ .byte 102,15,111,175,120,26,0,0 // movdqa 0x1a78(%edi),%xmm5
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,213 // pand %xmm5,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -66562,10 +66548,10 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b319 <_sk_load_bgra_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call b315 <_sk_load_bgra_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja b33f <_sk_load_bgra_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja b33b <_sk_load_bgra_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -66574,14 +66560,14 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp b388 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp b384 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp b388 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp b384 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp b388 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp b384 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -66598,7 +66584,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,114,226,16 // psrad $0x10,%xmm2
.byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,231,24,0,0 // movdqa 0x18e7(%edi),%xmm2
+ .byte 102,15,111,151,235,24,0,0 // movdqa 0x18eb(%edi),%xmm2
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
@@ -66692,19 +66678,19 @@ _sk_store_bgra_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call b4e4 <_sk_store_bgra_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call b4e0 <_sk_store_bgra_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja b501 <_sk_store_bgra_sse2_lowp+0x91>
+ .byte 119,19 // ja b4fd <_sk_store_bgra_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp b55e <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,93 // jmp b55a <_sk_store_bgra_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp b55e <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,80 // jmp b55a <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -66712,7 +66698,7 @@ _sk_store_bgra_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp b55e <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,48 // jmp b55a <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -66749,7 +66735,7 @@ _sk_store_bgra_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne b5aa <_sk_store_bgra_sse2_lowp+0x13a>
+ .byte 117,0 // jne b5a6 <_sk_store_bgra_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -66780,10 +66766,10 @@ _sk_load_565_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b5e3 <_sk_load_565_dst_sse2_lowp+0x2b>
+ .byte 232,0,0,0,0 // call b5df <_sk_load_565_dst_sse2_lowp+0x2b>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja b605 <_sk_load_565_dst_sse2_lowp+0x4d>
+ .byte 119,28 // ja b601 <_sk_load_565_dst_sse2_lowp+0x4d>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,249,0,0,0 // mov 0xf9(%edi,%ecx,4),%ecx
@@ -66791,14 +66777,14 @@ _sk_load_565_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,59 // jmp b640 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,59 // jmp b63c <_sk_load_565_dst_sse2_lowp+0x88>
.byte 243,15,111,36,115 // movdqu (%ebx,%esi,2),%xmm4
- .byte 235,52 // jmp b640 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,52 // jmp b63c <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
.byte 243,15,16,44,115 // movss (%ebx,%esi,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,30 // jmp b640 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,30 // jmp b63c <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
.byte 102,15,196,100,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
@@ -66806,11 +66792,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,18,36,115 // movlpd (%ebx,%esi,2),%xmm4
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,219,183,93,22,0,0 // pand 0x165d(%edi),%xmm6
+ .byte 102,15,219,183,97,22,0,0 // pand 0x1661(%edi),%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,175,109,22,0,0 // pand 0x166d(%edi),%xmm5
- .byte 102,15,111,191,125,22,0,0 // movdqa 0x167d(%edi),%xmm7
+ .byte 102,15,219,175,113,22,0,0 // pand 0x1671(%edi),%xmm5
+ .byte 102,15,111,191,129,22,0,0 // movdqa 0x1681(%edi),%xmm7
.byte 102,15,219,252 // pand %xmm4,%xmm7
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,230 // por %xmm6,%xmm4
@@ -66823,7 +66809,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,215,2 // psrlw $0x2,%xmm7
.byte 102,15,235,254 // por %xmm6,%xmm7
.byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,183,29,22,0,0 // movaps 0x161d(%edi),%xmm6
+ .byte 15,40,183,33,22,0,0 // movaps 0x1621(%edi),%xmm6
.byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
.byte 139,125,20 // mov 0x14(%ebp),%edi
.byte 137,124,36,12 // mov %edi,0xc(%esp)
@@ -66868,15 +66854,15 @@ _sk_store_565_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 232,0,0,0,0 // call b70a <_sk_store_565_sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call b706 <_sk_store_565_sse2_lowp+0x12>
.byte 95 // pop %edi
.byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,113,242,8 // psllw $0x8,%xmm2
- .byte 102,15,219,151,102,21,0,0 // pand 0x1566(%edi),%xmm2
+ .byte 102,15,219,151,106,21,0,0 // pand 0x156a(%edi),%xmm2
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,113,246,3 // psllw $0x3,%xmm6
- .byte 102,15,219,183,118,21,0,0 // pand 0x1576(%edi),%xmm6
+ .byte 102,15,219,183,122,21,0,0 // pand 0x157a(%edi),%xmm6
.byte 102,15,235,242 // por %xmm2,%xmm6
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,113,210,3 // psrlw $0x3,%xmm2
@@ -66895,19 +66881,19 @@ _sk_store_565_sse2_lowp:
.byte 128,249,6 // cmp $0x6,%cl
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,125,24 // movaps 0x18(%ebp),%xmm7
- .byte 119,22 // ja b782 <_sk_store_565_sse2_lowp+0x8a>
+ .byte 119,22 // ja b77e <_sk_store_565_sse2_lowp+0x8a>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 3,188,143,242,0,0,0 // add 0xf2(%edi,%ecx,4),%edi
.byte 255,231 // jmp *%edi
.byte 102,15,126,209 // movd %xmm2,%ecx
.byte 102,137,12,115 // mov %cx,(%ebx,%esi,2)
- .byte 235,59 // jmp b7bd <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,59 // jmp b7b9 <_sk_store_565_sse2_lowp+0xc5>
.byte 243,15,127,20,115 // movdqu %xmm2,(%ebx,%esi,2)
- .byte 235,52 // jmp b7bd <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,52 // jmp b7b9 <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,2 // pextrw $0x2,%xmm2,%ecx
.byte 102,137,76,115,4 // mov %cx,0x4(%ebx,%esi,2)
.byte 102,15,126,20,115 // movd %xmm2,(%ebx,%esi,2)
- .byte 235,35 // jmp b7bd <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,35 // jmp b7b9 <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,6 // pextrw $0x6,%xmm2,%ecx
.byte 102,137,76,115,12 // mov %cx,0xc(%ebx,%esi,2)
.byte 102,15,197,202,5 // pextrw $0x5,%xmm2,%ecx
@@ -66969,10 +66955,10 @@ _sk_load_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b852 <_sk_load_a8_sse2_lowp+0x3a>
+ .byte 232,0,0,0,0 // call b84e <_sk_load_a8_sse2_lowp+0x3a>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja b874 <_sk_load_a8_sse2_lowp+0x5c>
+ .byte 119,28 // ja b870 <_sk_load_a8_sse2_lowp+0x5c>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,198,0,0,0 // mov 0xc6(%edi,%ecx,4),%ecx
@@ -66980,10 +66966,10 @@ _sk_load_a8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp b8ce <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,90 // jmp b8ca <_sk_load_a8_sse2_lowp+0xb6>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp b8ce <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,79 // jmp b8ca <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -66991,7 +66977,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,221 // movss %xmm5,%xmm3
- .byte 235,47 // jmp b8ce <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,47 // jmp b8ca <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -67002,7 +66988,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,221 // movsd %xmm5,%xmm3
- .byte 102,15,219,159,174,19,0,0 // pand 0x13ae(%edi),%xmm3
+ .byte 102,15,219,159,178,19,0,0 // pand 0x13b2(%edi),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
.byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
@@ -67057,10 +67043,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b95d <_sk_load_a8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call b959 <_sk_load_a8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja b97f <_sk_load_a8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja b97b <_sk_load_a8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -67068,10 +67054,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp b9d9 <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp b9d5 <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp b9d9 <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp b9d5 <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -67079,7 +67065,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp b9d9 <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp b9d5 <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -67090,7 +67076,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,163,18,0,0 // pand 0x12a3(%edi),%xmm4
+ .byte 102,15,219,167,167,18,0,0 // pand 0x12a7(%edi),%xmm4
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 102,15,127,100,36,64 // movdqa %xmm4,0x40(%esp)
.byte 102,15,239,228 // pxor %xmm4,%xmm4
@@ -67147,32 +67133,32 @@ _sk_store_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call ba75 <_sk_store_a8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call ba71 <_sk_store_a8_sse2_lowp+0x39>
.byte 91 // pop %ebx
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,26 // ja ba95 <_sk_store_a8_sse2_lowp+0x59>
+ .byte 119,26 // ja ba91 <_sk_store_a8_sse2_lowp+0x59>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,139,223,0,0,0 // mov 0xdf(%ebx,%ecx,4),%ecx
.byte 1,217 // add %ebx,%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,217 // movd %xmm3,%ecx
.byte 136,12,55 // mov %cl,(%edi,%esi,1)
- .byte 233,136,0,0,0 // jmp bb1d <_sk_store_a8_sse2_lowp+0xe1>
- .byte 102,15,111,163,139,17,0,0 // movdqa 0x118b(%ebx),%xmm4
+ .byte 233,136,0,0,0 // jmp bb19 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 102,15,111,163,143,17,0,0 // movdqa 0x118f(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,214,36,55 // movq %xmm4,(%edi,%esi,1)
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 235,109 // jmp bb1d <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,109 // jmp bb19 <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,2 // pextrw $0x2,%xmm3,%ecx
.byte 136,76,55,2 // mov %cl,0x2(%edi,%esi,1)
- .byte 102,15,111,163,139,17,0,0 // movdqa 0x118b(%ebx),%xmm4
+ .byte 102,15,111,163,143,17,0,0 // movdqa 0x118f(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,225 // movd %xmm4,%ecx
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 102,137,12,55 // mov %cx,(%edi,%esi,1)
- .byte 235,70 // jmp bb1d <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,70 // jmp bb19 <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,6 // pextrw $0x6,%xmm3,%ecx
.byte 136,76,55,6 // mov %cl,0x6(%edi,%esi,1)
.byte 102,15,197,203,5 // pextrw $0x5,%xmm3,%ecx
@@ -67182,7 +67168,7 @@ _sk_store_a8_sse2_lowp:
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 102,15,111,163,139,17,0,0 // movdqa 0x118b(%ebx),%xmm4
+ .byte 102,15,111,163,143,17,0,0 // movdqa 0x118f(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,36,55 // movd %xmm4,(%edi,%esi,1)
@@ -67216,7 +67202,7 @@ _sk_store_a8_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 0,125,0 // add %bh,0x0(%ebp)
.byte 0,0 // add %al,(%eax)
- .byte 116,0 // je bb66 <_sk_store_a8_sse2_lowp+0x12a>
+ .byte 116,0 // je bb62 <_sk_store_a8_sse2_lowp+0x12a>
.byte 0,0 // add %al,(%eax)
.byte 107,0,0 // imul $0x0,(%eax),%eax
.byte 0,98,0 // add %ah,0x0(%edx)
@@ -67246,10 +67232,10 @@ _sk_load_g8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call bba9 <_sk_load_g8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call bba5 <_sk_load_g8_sse2_lowp+0x39>
.byte 94 // pop %esi
.byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja bbcb <_sk_load_g8_sse2_lowp+0x5b>
+ .byte 119,28 // ja bbc7 <_sk_load_g8_sse2_lowp+0x5b>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,142,199,0,0,0 // mov 0xc7(%esi,%ecx,4),%ecx
@@ -67257,10 +67243,10 @@ _sk_load_g8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,59 // movzbl (%ebx,%edi,1),%ecx
.byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,90 // jmp bc25 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,90 // jmp bc21 <_sk_load_g8_sse2_lowp+0xb5>
.byte 243,15,126,4,59 // movq (%ebx,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,79 // jmp bc25 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,79 // jmp bc21 <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,2 // movzbl 0x2(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,2 // pinsrw $0x2,%ecx,%xmm0
@@ -67268,7 +67254,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,197 // movss %xmm5,%xmm0
- .byte 235,47 // jmp bc25 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,47 // jmp bc21 <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,6 // movzbl 0x6(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,6 // pinsrw $0x6,%ecx,%xmm0
@@ -67279,7 +67265,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,44,59 // movd (%ebx,%edi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,197 // movsd %xmm5,%xmm0
- .byte 102,15,219,134,87,16,0,0 // pand 0x1057(%esi),%xmm0
+ .byte 102,15,219,134,91,16,0,0 // pand 0x105b(%esi),%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
.byte 15,41,92,36,48 // movaps %xmm3,0x30(%esp)
@@ -67290,7 +67276,7 @@ _sk_load_g8_sse2_lowp:
.byte 137,124,36,8 // mov %edi,0x8(%esp)
.byte 137,76,36,4 // mov %ecx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,158,87,16,0,0 // movaps 0x1057(%esi),%xmm3
+ .byte 15,40,158,91,16,0,0 // movaps 0x105b(%esi),%xmm3
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,80,4 // call *0x4(%eax)
@@ -67333,10 +67319,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call bcb5 <_sk_load_g8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call bcb1 <_sk_load_g8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja bcd7 <_sk_load_g8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja bcd3 <_sk_load_g8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -67344,10 +67330,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp bd31 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp bd2d <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp bd31 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp bd2d <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -67355,7 +67341,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp bd31 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp bd2d <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -67366,9 +67352,9 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,75,15,0,0 // pand 0xf4b(%edi),%xmm4
+ .byte 102,15,219,167,79,15,0,0 // pand 0xf4f(%edi),%xmm4
.byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,175,75,15,0,0 // movaps 0xf4b(%edi),%xmm5
+ .byte 15,40,175,79,15,0,0 // movaps 0xf4f(%edi),%xmm5
.byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
.byte 102,15,127,100,36,48 // movdqa %xmm4,0x30(%esp)
.byte 102,15,127,100,36,32 // movdqa %xmm4,0x20(%esp)
@@ -67408,15 +67394,15 @@ _sk_scale_1_float_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call bda1 <_sk_scale_1_float_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call bd9d <_sk_scale_1_float_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,57 // mov (%ecx),%edi
.byte 243,15,16,39 // movss (%edi),%xmm4
- .byte 243,15,89,166,243,14,0,0 // mulss 0xef3(%esi),%xmm4
- .byte 243,15,88,166,239,14,0,0 // addss 0xeef(%esi),%xmm4
+ .byte 243,15,89,166,247,14,0,0 // mulss 0xef7(%esi),%xmm4
+ .byte 243,15,88,166,243,14,0,0 // addss 0xef3(%esi),%xmm4
.byte 243,15,44,252 // cvttss2si %xmm4,%edi
.byte 102,15,110,239 // movd %edi,%xmm5
.byte 139,125,20 // mov 0x14(%ebp),%edi
@@ -67429,7 +67415,7 @@ _sk_scale_1_float_sse2_lowp:
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
.byte 102,15,213,213 // pmullw %xmm5,%xmm2
.byte 102,15,213,221 // pmullw %xmm5,%xmm3
- .byte 102,15,111,174,95,14,0,0 // movdqa 0xe5f(%esi),%xmm5
+ .byte 102,15,111,174,99,14,0,0 // movdqa 0xe63(%esi),%xmm5
.byte 102,15,253,197 // paddw %xmm5,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,15,253,213 // paddw %xmm5,%xmm2
@@ -67477,10 +67463,10 @@ _sk_scale_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call be83 <_sk_scale_u8_sse2_lowp+0x31>
+ .byte 232,0,0,0,0 // call be7f <_sk_scale_u8_sse2_lowp+0x31>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja bea5 <_sk_scale_u8_sse2_lowp+0x53>
+ .byte 119,28 // ja bea1 <_sk_scale_u8_sse2_lowp+0x53>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,1,1,0,0 // mov 0x101(%edi,%ecx,4),%ecx
@@ -67488,10 +67474,10 @@ _sk_scale_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp beff <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,90 // jmp befb <_sk_scale_u8_sse2_lowp+0xad>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp beff <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,79 // jmp befb <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -67499,7 +67485,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp beff <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,47 // jmp befb <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -67510,9 +67496,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,125,13,0,0 // pand 0xd7d(%edi),%xmm4
+ .byte 102,15,219,167,129,13,0,0 // pand 0xd81(%edi),%xmm4
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,111,175,125,13,0,0 // movdqa 0xd7d(%edi),%xmm5
+ .byte 102,15,111,175,129,13,0,0 // movdqa 0xd81(%edi),%xmm5
.byte 102,15,253,197 // paddw %xmm5,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
@@ -67571,19 +67557,19 @@ _sk_lerp_1_float_sse2_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call bfbd <_sk_lerp_1_float_sse2_lowp+0x1d>
+ .byte 232,0,0,0,0 // call bfb9 <_sk_lerp_1_float_sse2_lowp+0x1d>
.byte 89 // pop %ecx
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
.byte 243,15,16,50 // movss (%edx),%xmm6
- .byte 243,15,89,177,215,12,0,0 // mulss 0xcd7(%ecx),%xmm6
- .byte 243,15,88,177,211,12,0,0 // addss 0xcd3(%ecx),%xmm6
+ .byte 243,15,89,177,219,12,0,0 // mulss 0xcdb(%ecx),%xmm6
+ .byte 243,15,88,177,215,12,0,0 // addss 0xcd7(%ecx),%xmm6
.byte 243,15,44,214 // cvttss2si %xmm6,%edx
.byte 102,15,110,242 // movd %edx,%xmm6
.byte 242,15,112,246,0 // pshuflw $0x0,%xmm6,%xmm6
.byte 102,15,112,246,80 // pshufd $0x50,%xmm6,%xmm6
- .byte 102,15,111,129,67,12,0,0 // movdqa 0xc43(%ecx),%xmm0
+ .byte 102,15,111,129,71,12,0,0 // movdqa 0xc47(%ecx),%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
.byte 102,15,253,200 // paddw %xmm0,%xmm1
.byte 102,15,213,214 // pmullw %xmm6,%xmm2
@@ -67655,10 +67641,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c0e3 <_sk_lerp_u8_sse2_lowp+0x2e>
+ .byte 232,0,0,0,0 // call c0df <_sk_lerp_u8_sse2_lowp+0x2e>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja c105 <_sk_lerp_u8_sse2_lowp+0x50>
+ .byte 119,28 // ja c101 <_sk_lerp_u8_sse2_lowp+0x50>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,73,1,0,0 // mov 0x149(%edi,%ecx,4),%ecx
@@ -67666,10 +67652,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp c15f <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,90 // jmp c15b <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp c15f <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,79 // jmp c15b <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -67677,7 +67663,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,15,110,225 // movd %ecx,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,220 // movss %xmm4,%xmm3
- .byte 235,47 // jmp c15f <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,47 // jmp c15b <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -67688,8 +67674,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,15,110,36,51 // movd (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,220 // movsd %xmm4,%xmm3
- .byte 102,15,219,159,29,11,0,0 // pand 0xb1d(%edi),%xmm3
- .byte 102,15,111,183,29,11,0,0 // movdqa 0xb1d(%edi),%xmm6
+ .byte 102,15,219,159,33,11,0,0 // pand 0xb21(%edi),%xmm3
+ .byte 102,15,111,183,33,11,0,0 // movdqa 0xb21(%edi),%xmm6
.byte 102,15,111,227 // movdqa %xmm3,%xmm4
.byte 102,15,239,230 // pxor %xmm6,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
@@ -67777,11 +67763,11 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call c287 <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
+ .byte 232,0,0,0,0 // call c283 <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,182,211 // movzbl %bl,%edx
- .byte 119,29 // ja c2ad <_sk_srcover_rgba_8888_sse2_lowp+0x65>
+ .byte 119,29 // ja c2a9 <_sk_srcover_rgba_8888_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 139,132,145,77,2,0,0 // mov 0x24d(%ecx,%edx,4),%eax
.byte 1,200 // add %ecx,%eax
@@ -67789,14 +67775,14 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 255,224 // jmp *%eax
.byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp c2f6 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,73 // jmp c2f2 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6
.byte 15,16,92,183,16 // movups 0x10(%edi,%esi,4),%xmm3
- .byte 235,61 // jmp c2f6 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,61 // jmp c2f2 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 102,15,18,52,183 // movlpd (%edi,%esi,4),%xmm6
- .byte 235,43 // jmp c2f6 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,43 // jmp c2f2 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0
@@ -67822,7 +67808,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,243,16 // pslld $0x10,%xmm3
.byte 102,15,114,227,16 // psrad $0x10,%xmm3
.byte 102,15,107,243 // packssdw %xmm3,%xmm6
- .byte 102,15,111,153,121,9,0,0 // movdqa 0x979(%ecx),%xmm3
+ .byte 102,15,111,153,125,9,0,0 // movdqa 0x97d(%ecx),%xmm3
.byte 102,15,114,208,16 // psrld $0x10,%xmm0
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
@@ -67874,18 +67860,18 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
.byte 102,15,235,222 // por %xmm6,%xmm3
.byte 128,251,6 // cmp $0x6,%bl
- .byte 119,16 // ja c437 <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
+ .byte 119,16 // ja c433 <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
.byte 3,140,145,105,2,0,0 // add 0x269(%ecx,%edx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4)
- .byte 235,64 // jmp c477 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,64 // jmp c473 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
.byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4)
- .byte 235,51 // jmp c477 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,51 // jmp c473 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4)
.byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4)
- .byte 235,33 // jmp c477 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,33 // jmp c473 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
.byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4)
.byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2
@@ -68297,7 +68283,7 @@ BALIGN16
.byte 68 // inc %esp
.byte 180,62 // mov $0x3e,%ah
.byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a407e6 <_sk_srcover_rgba_8888_sse2_lowp+0xe9a3459e>
+ .byte 233,220,63,163,233 // jmp e9a407e6 <_sk_srcover_rgba_8888_sse2_lowp+0xe9a345a2>
.byte 220,63 // fdivrl (%edi)
.byte 163,233,220,63,81 // mov %eax,0x513fdce9
.byte 140,242 // mov %?,%edx
@@ -68788,5 +68774,5 @@ BALIGN4
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg ccdb <_sk_srcover_rgba_8888_sse2_lowp+0xa93>
+ .byte 127,67 // jg ccdb <_sk_srcover_rgba_8888_sse2_lowp+0xa97>
#endif