aboutsummaryrefslogtreecommitdiffhomepage
path: root/src/jumper/SkJumper_generated.S
diff options
context:
space:
mode:
authorGravatar Mike Klein <mtklein@chromium.org>2017-12-15 09:55:03 -0500
committerGravatar Skia Commit-Bot <skia-commit-bot@chromium.org>2017-12-18 18:48:42 +0000
commit37155d476cd727329d985b75ecedbefe380a0f23 (patch)
treebecffe9033cd48e0eaee3c8df335eaae7c850c21 /src/jumper/SkJumper_generated.S
parent5b92ce1b24186e0ac5a84878a4bcefd81581d2b9 (diff)
Rework out-of-gamut handling in SkRasterPipeline
Instead of trying to carefully manage the in-gamut / out-of-gamut state of the pipeline, let's do what a GPU would do, clamping to representable range in any float -> integer conversion. Most effects doing table lookups now clamp themselves internally, and the store_foo() methods clamp when the destination is fixed point. In turn the from_srgb() conversions and all future transfer function stages can care less about this stuff. If I'm thinking right, the _lowp side of things need not change at all, and that will soften the performance impact of this change. Anything that was fast to begin with was probably running a _lowp pipeline. Bug: skia:7419 Change-Id: Id2e080ac240a97b900a1ac131c85d9e15f70af32 Reviewed-on: https://skia-review.googlesource.com/85740 Commit-Queue: Mike Klein <mtklein@chromium.org> Reviewed-by: Brian Osman <brianosman@google.com>
Diffstat (limited to 'src/jumper/SkJumper_generated.S')
-rw-r--r--src/jumper/SkJumper_generated.S14754
1 files changed, 7716 insertions, 7038 deletions
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
index 3dba3bca4f..7005ce41f1 100644
--- a/src/jumper/SkJumper_generated.S
+++ b/src/jumper/SkJumper_generated.S
@@ -116,9 +116,9 @@ _sk_seed_shader_skx:
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 98,242,125,40,124,201 // vpbroadcastd %ecx,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,88,13,254,150,3,0 // vaddps 0x396fe(%rip){1to8},%ymm1,%ymm1 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,241,116,56,88,13,18,161,3,0 // vaddps 0x3a112(%rip){1to8},%ymm1,%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,247,150,3,0 // vbroadcastss 0x396f7(%rip),%ymm2 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,21,11,161,3,0 // vbroadcastss 0x3a10b(%rip),%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -132,16 +132,16 @@ FUNCTION(_sk_dither_skx)
_sk_dither_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 98,114,125,40,124,194 // vpbroadcastd %edx,%ymm8
- .byte 197,61,254,5,109,152,3,0 // vpaddd 0x3986d(%rip),%ymm8,%ymm8 # 399a0 <_sk_srcover_bgra_8888_sse2_lowp+0x44c>
+ .byte 197,61,254,5,141,162,3,0 // vpaddd 0x3a28d(%rip),%ymm8,%ymm8 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x458>
.byte 98,114,125,40,124,201 // vpbroadcastd %ecx,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,193,150,3,0 // vpbroadcastd 0x396c1(%rip),%ymm10 # 39808 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,88,21,213,160,3,0 // vpbroadcastd 0x3a0d5(%rip),%ymm10 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,166,150,3,0 // vpbroadcastd 0x396a6(%rip),%ymm12 # 3980c <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
- .byte 196,98,125,88,45,161,150,3,0 // vpbroadcastd 0x396a1(%rip),%ymm13 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,88,37,186,160,3,0 // vpbroadcastd 0x3a0ba(%rip),%ymm12 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
+ .byte 196,98,125,88,45,181,160,3,0 // vpbroadcastd 0x3a0b5(%rip),%ymm13 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
@@ -156,8 +156,8 @@ _sk_dither_skx:
.byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,83,150,3,0 // vbroadcastss 0x39653(%rip),%ymm9 # 39814 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
- .byte 98,114,61,56,168,13,77,150,3,0 // vfmadd213ps 0x3964d(%rip){1to8},%ymm8,%ymm9 # 39818 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
+ .byte 196,98,125,24,13,103,160,3,0 // vbroadcastss 0x3a067(%rip),%ymm9 # 3a228 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
+ .byte 98,114,61,56,168,13,97,160,3,0 // vfmadd213ps 0x3a061(%rip){1to8},%ymm8,%ymm9 # 3a22c <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -190,7 +190,7 @@ HIDDEN _sk_black_color_skx
FUNCTION(_sk_black_color_skx)
_sk_black_color_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,218,149,3,0 // vbroadcastss 0x395da(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,238,159,3,0 // vbroadcastss 0x39fee(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -201,7 +201,7 @@ HIDDEN _sk_white_color_skx
FUNCTION(_sk_white_color_skx)
_sk_white_color_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,193,149,3,0 // vbroadcastss 0x395c1(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,213,159,3,0 // vbroadcastss 0x39fd5(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -247,7 +247,7 @@ HIDDEN _sk_srcatop_skx
FUNCTION(_sk_srcatop_skx)
_sk_srcatop_skx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,96,149,3,0 // vbroadcastss 0x39560(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,116,159,3,0 // vbroadcastss 0x39f74(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -263,7 +263,7 @@ HIDDEN _sk_dstatop_skx
.globl _sk_dstatop_skx
FUNCTION(_sk_dstatop_skx)
_sk_dstatop_skx:
- .byte 196,98,125,24,5,47,149,3,0 // vbroadcastss 0x3952f(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,67,159,3,0 // vbroadcastss 0x39f43(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -302,7 +302,7 @@ HIDDEN _sk_srcout_skx
.globl _sk_srcout_skx
FUNCTION(_sk_srcout_skx)
_sk_srcout_skx:
- .byte 196,98,125,24,5,210,148,3,0 // vbroadcastss 0x394d2(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,230,158,3,0 // vbroadcastss 0x39ee6(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -315,7 +315,7 @@ HIDDEN _sk_dstout_skx
.globl _sk_dstout_skx
FUNCTION(_sk_dstout_skx)
_sk_dstout_skx:
- .byte 196,226,125,24,5,177,148,3,0 // vbroadcastss 0x394b1(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,197,158,3,0 // vbroadcastss 0x39ec5(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -328,7 +328,7 @@ HIDDEN _sk_srcover_skx
.globl _sk_srcover_skx
FUNCTION(_sk_srcover_skx)
_sk_srcover_skx:
- .byte 196,98,125,24,5,144,148,3,0 // vbroadcastss 0x39490(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,164,158,3,0 // vbroadcastss 0x39ea4(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -341,7 +341,7 @@ HIDDEN _sk_dstover_skx
.globl _sk_dstover_skx
FUNCTION(_sk_dstover_skx)
_sk_dstover_skx:
- .byte 196,98,125,24,5,107,148,3,0 // vbroadcastss 0x3946b(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,127,158,3,0 // vbroadcastss 0x39e7f(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -365,7 +365,7 @@ HIDDEN _sk_multiply_skx
.globl _sk_multiply_skx
FUNCTION(_sk_multiply_skx)
_sk_multiply_skx:
- .byte 196,98,125,24,5,50,148,3,0 // vbroadcastss 0x39432(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,70,158,3,0 // vbroadcastss 0x39e46(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -388,7 +388,7 @@ HIDDEN _sk_plus__skx
FUNCTION(_sk_plus__skx)
_sk_plus__skx:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,225,147,3,0 // vbroadcastss 0x393e1(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,245,157,3,0 // vbroadcastss 0x39df5(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -418,7 +418,7 @@ HIDDEN _sk_xor__skx
.globl _sk_xor__skx
FUNCTION(_sk_xor__skx)
_sk_xor__skx:
- .byte 196,98,125,24,5,140,147,3,0 // vbroadcastss 0x3938c(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,160,157,3,0 // vbroadcastss 0x39da0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -452,7 +452,7 @@ _sk_darken_skx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,16,147,3,0 // vbroadcastss 0x39310(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,36,157,3,0 // vbroadcastss 0x39d24(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -477,7 +477,7 @@ _sk_lighten_skx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,187,146,3,0 // vbroadcastss 0x392bb(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,207,156,3,0 // vbroadcastss 0x39ccf(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -505,7 +505,7 @@ _sk_difference_skx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,90,146,3,0 // vbroadcastss 0x3925a(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,110,156,3,0 // vbroadcastss 0x39c6e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -527,7 +527,7 @@ _sk_exclusion_skx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,20,146,3,0 // vbroadcastss 0x39214(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,40,156,3,0 // vbroadcastss 0x39c28(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -539,7 +539,7 @@ FUNCTION(_sk_colorburn_skx)
_sk_colorburn_skx:
.byte 98,241,92,40,194,199,0 // vcmpeqps %ymm7,%ymm4,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 196,98,125,24,13,241,145,3,0 // vbroadcastss 0x391f1(%rip),%ymm9 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,5,156,3,0 // vbroadcastss 0x39c05(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,36,88,228 // vaddps %ymm4,%ymm11,%ymm12
@@ -603,7 +603,7 @@ _sk_colordodge_skx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 98,209,92,40,194,192,0 // vcmpeqps %ymm8,%ymm4,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,194,144,3,0 // vbroadcastss 0x390c2(%rip),%ymm10 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,214,154,3,0 // vbroadcastss 0x39ad6(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,223 // vsubps %ymm7,%ymm10,%ymm11
.byte 197,36,89,224 // vmulps %ymm0,%ymm11,%ymm12
.byte 98,241,124,40,194,195,0 // vcmpeqps %ymm3,%ymm0,%k0
@@ -660,7 +660,7 @@ HIDDEN _sk_hardlight_skx
.globl _sk_hardlight_skx
FUNCTION(_sk_hardlight_skx)
_sk_hardlight_skx:
- .byte 196,98,125,24,5,186,143,3,0 // vbroadcastss 0x38fba(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,206,153,3,0 // vbroadcastss 0x399ce(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -714,7 +714,7 @@ HIDDEN _sk_overlay_skx
.globl _sk_overlay_skx
FUNCTION(_sk_overlay_skx)
_sk_overlay_skx:
- .byte 196,98,125,24,5,214,142,3,0 // vbroadcastss 0x38ed6(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,234,152,3,0 // vbroadcastss 0x398ea(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -780,15 +780,15 @@ _sk_softlight_skx:
.byte 196,65,52,88,217 // vaddps %ymm9,%ymm9,%ymm11
.byte 196,65,36,88,235 // vaddps %ymm11,%ymm11,%ymm13
.byte 197,4,92,243 // vsubps %ymm3,%ymm15,%ymm14
- .byte 196,98,125,24,29,180,141,3,0 // vbroadcastss 0x38db4(%rip),%ymm11 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,200,151,3,0 // vbroadcastss 0x397c8(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,36,92,225 // vsubps %ymm9,%ymm11,%ymm12
.byte 196,98,13,168,227 // vfmadd213ps %ymm3,%ymm14,%ymm12
.byte 197,156,89,212 // vmulps %ymm4,%ymm12,%ymm2
.byte 196,66,21,168,237 // vfmadd213ps %ymm13,%ymm13,%ymm13
- .byte 98,226,125,40,24,21,175,141,3,0 // vbroadcastss 0x38daf(%rip),%ymm18 # 3981c <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 98,226,125,40,24,21,195,151,3,0 // vbroadcastss 0x397c3(%rip),%ymm18 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 98,161,52,40,88,202 // vaddps %ymm18,%ymm9,%ymm17
.byte 98,81,116,32,89,229 // vmulps %ymm13,%ymm17,%ymm12
- .byte 98,226,125,40,24,29,157,141,3,0 // vbroadcastss 0x38d9d(%rip),%ymm19 # 39820 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
+ .byte 98,226,125,40,24,29,177,151,3,0 // vbroadcastss 0x397b1(%rip),%ymm19 # 3a234 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
.byte 98,50,53,40,184,227 // vfmadd231ps %ymm19,%ymm9,%ymm12
.byte 98,194,125,40,78,201 // vrsqrt14ps %ymm9,%ymm17
.byte 98,162,125,40,76,201 // vrcp14ps %ymm17,%ymm17
@@ -910,11 +910,11 @@ _sk_hue_skx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
- .byte 196,98,125,24,45,56,139,3,0 // vbroadcastss 0x38b38(%rip),%ymm13 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,51,139,3,0 // vbroadcastss 0x38b33(%rip),%ymm14 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,76,149,3,0 // vbroadcastss 0x3954c(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,71,149,3,0 // vbroadcastss 0x39547(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
.byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
- .byte 98,226,125,40,24,5,35,139,3,0 // vbroadcastss 0x38b23(%rip),%ymm16 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 98,226,125,40,24,5,55,149,3,0 // vbroadcastss 0x39537(%rip),%ymm16 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
.byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
.byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
@@ -971,7 +971,7 @@ _sk_hue_skx:
.byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
- .byte 196,226,125,24,13,191,137,3,0 // vbroadcastss 0x389bf(%rip),%ymm1 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,211,147,3,0 // vbroadcastss 0x393d3(%rip),%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -1023,11 +1023,11 @@ _sk_saturation_skx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
- .byte 196,98,125,24,45,244,136,3,0 // vbroadcastss 0x388f4(%rip),%ymm13 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,239,136,3,0 // vbroadcastss 0x388ef(%rip),%ymm14 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,8,147,3,0 // vbroadcastss 0x39308(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,3,147,3,0 // vbroadcastss 0x39303(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
.byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
- .byte 98,226,125,40,24,5,223,136,3,0 // vbroadcastss 0x388df(%rip),%ymm16 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 98,226,125,40,24,5,243,146,3,0 // vbroadcastss 0x392f3(%rip),%ymm16 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
.byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
.byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
@@ -1084,7 +1084,7 @@ _sk_saturation_skx:
.byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
- .byte 196,226,125,24,13,123,135,3,0 // vbroadcastss 0x3877b(%rip),%ymm1 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,143,145,3,0 // vbroadcastss 0x3918f(%rip),%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -1108,11 +1108,11 @@ _sk_color_skx:
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
.byte 197,108,89,223 // vmulps %ymm7,%ymm2,%ymm11
- .byte 196,98,125,24,37,68,135,3,0 // vbroadcastss 0x38744(%rip),%ymm12 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,45,63,135,3,0 // vbroadcastss 0x3873f(%rip),%ymm13 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,37,88,145,3,0 // vbroadcastss 0x39158(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,83,145,3,0 // vbroadcastss 0x39153(%rip),%ymm13 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,245 // vmulps %ymm13,%ymm5,%ymm14
.byte 196,66,93,184,244 // vfmadd231ps %ymm12,%ymm4,%ymm14
- .byte 196,98,125,24,61,48,135,3,0 // vbroadcastss 0x38730(%rip),%ymm15 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,68,145,3,0 // vbroadcastss 0x39144(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,77,184,247 // vfmadd231ps %ymm15,%ymm6,%ymm14
.byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
.byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
@@ -1170,7 +1170,7 @@ _sk_color_skx:
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
.byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
.byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
- .byte 196,98,125,24,29,193,133,3,0 // vbroadcastss 0x385c1(%rip),%ymm11 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,213,143,3,0 // vbroadcastss 0x38fd5(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
.byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
.byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
@@ -1194,11 +1194,11 @@ _sk_luminosity_skx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,37,140,133,3,0 // vbroadcastss 0x3858c(%rip),%ymm12 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,45,135,133,3,0 // vbroadcastss 0x38587(%rip),%ymm13 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,37,160,143,3,0 // vbroadcastss 0x38fa0(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,155,143,3,0 // vbroadcastss 0x38f9b(%rip),%ymm13 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,116,89,245 // vmulps %ymm13,%ymm1,%ymm14
.byte 196,66,125,184,244 // vfmadd231ps %ymm12,%ymm0,%ymm14
- .byte 196,98,125,24,61,120,133,3,0 // vbroadcastss 0x38578(%rip),%ymm15 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,140,143,3,0 // vbroadcastss 0x38f8c(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,109,184,247 // vfmadd231ps %ymm15,%ymm2,%ymm14
.byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
.byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
@@ -1256,7 +1256,7 @@ _sk_luminosity_skx:
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
.byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
.byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
- .byte 196,98,125,24,29,9,132,3,0 // vbroadcastss 0x38409(%rip),%ymm11 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,29,142,3,0 // vbroadcastss 0x38e1d(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
.byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
.byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
@@ -1285,7 +1285,7 @@ _sk_srcover_rgba_8888_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,190,0,0,0 // jne 1519 <_sk_srcover_rgba_8888_skx+0xde>
+ .byte 15,133,235,0,0,0 // jne 1546 <_sk_srcover_rgba_8888_skx+0x10b>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -1296,32 +1296,41 @@ _sk_srcover_rgba_8888_skx:
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
.byte 197,205,114,215,16 // vpsrld $0x10,%ymm7,%ymm6
.byte 98,241,127,169,111,246 // vmovdqu8 %ymm6,%ymm6{%k1}{z}
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,96,131,3,0 // vbroadcastss 0x38360(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,127,131,3,0 // vbroadcastss 0x3837f(%rip),%ymm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
- .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
- .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
- .byte 196,194,77,184,208 // vfmadd231ps %ymm8,%ymm6,%ymm2
- .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 197,125,91,192 // vcvtps2dq %ymm0,%ymm8
- .byte 197,125,91,201 // vcvtps2dq %ymm1,%ymm9
- .byte 196,193,53,114,241,8 // vpslld $0x8,%ymm9,%ymm9
+ .byte 196,98,125,24,13,111,141,3,0 // vbroadcastss 0x38d6f(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
+ .byte 196,98,125,24,21,142,141,3,0 // vbroadcastss 0x38d8e(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
+ .byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
+ .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
+ .byte 196,194,85,184,201 // vfmadd231ps %ymm9,%ymm5,%ymm1
+ .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
+ .byte 196,194,77,184,209 // vfmadd231ps %ymm9,%ymm6,%ymm2
+ .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
+ .byte 196,194,69,184,217 // vfmadd231ps %ymm9,%ymm7,%ymm3
+ .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
+ .byte 197,60,95,217 // vmaxps %ymm1,%ymm8,%ymm11
+ .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11
+ .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
+ .byte 196,193,37,114,243,8 // vpslld $0x8,%ymm11,%ymm11
+ .byte 196,65,37,235,201 // vpor %ymm9,%ymm11,%ymm9
+ .byte 197,60,95,218 // vmaxps %ymm2,%ymm8,%ymm11
+ .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11
+ .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
+ .byte 196,193,37,114,243,16 // vpslld $0x10,%ymm11,%ymm11
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
+ .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8
+ .byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 197,125,91,202 // vcvtps2dq %ymm2,%ymm9
- .byte 196,193,53,114,241,16 // vpslld $0x10,%ymm9,%ymm9
- .byte 197,125,91,211 // vcvtps2dq %ymm3,%ymm10
- .byte 196,193,45,114,242,24 // vpslld $0x18,%ymm10,%ymm10
- .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
- .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 1551 <_sk_srcover_rgba_8888_skx+0x116>
+ .byte 117,66 // jne 157e <_sk_srcover_rgba_8888_skx+0x143>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -1330,26 +1339,26 @@ _sk_srcover_rgba_8888_skx:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,47,255,255,255 // ja 1461 <_sk_srcover_rgba_8888_skx+0x26>
+ .byte 15,135,2,255,255,255 // ja 1461 <_sk_srcover_rgba_8888_skx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,3,1,0,0 // lea 0x103(%rip),%r10 # 1640 <_sk_srcover_rgba_8888_skx+0x205>
+ .byte 76,141,21,6,1,0,0 // lea 0x106(%rip),%r10 # 1670 <_sk_srcover_rgba_8888_skx+0x235>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,16,255,255,255 // jmpq 1461 <_sk_srcover_rgba_8888_skx+0x26>
+ .byte 233,227,254,255,255 // jmpq 1461 <_sk_srcover_rgba_8888_skx+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,179 // ja 1515 <_sk_srcover_rgba_8888_skx+0xda>
+ .byte 119,179 // ja 1542 <_sk_srcover_rgba_8888_skx+0x107>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,239,0,0,0 // lea 0xef(%rip),%r9 # 165c <_sk_srcover_rgba_8888_skx+0x221>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 168c <_sk_srcover_rgba_8888_skx+0x251>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,151 // jmp 1515 <_sk_srcover_rgba_8888_skx+0xda>
+ .byte 235,151 // jmp 1542 <_sk_srcover_rgba_8888_skx+0x107>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -1357,7 +1366,7 @@ _sk_srcover_rgba_8888_skx:
.byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4
.byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,186,254,255,255 // jmpq 1461 <_sk_srcover_rgba_8888_skx+0x26>
+ .byte 233,141,254,255,255 // jmpq 1461 <_sk_srcover_rgba_8888_skx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -1370,11 +1379,11 @@ _sk_srcover_rgba_8888_skx:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,110,254,255,255 // jmpq 1461 <_sk_srcover_rgba_8888_skx+0x26>
+ .byte 233,65,254,255,255 // jmpq 1461 <_sk_srcover_rgba_8888_skx+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
.byte 98,18,126,8,53,4,152 // vpmovqd %xmm8,(%r8,%r11,4)
- .byte 233,9,255,255,255 // jmpq 1515 <_sk_srcover_rgba_8888_skx+0xda>
+ .byte 233,9,255,255,255 // jmpq 1542 <_sk_srcover_rgba_8888_skx+0x107>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -1382,37 +1391,34 @@ _sk_srcover_rgba_8888_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 233,213,254,255,255 // jmpq 1515 <_sk_srcover_rgba_8888_skx+0xda>
- .byte 6 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,81,255 // callq *-0x1(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 62,255 // ds (bad)
+ .byte 233,213,254,255,255 // jmpq 1542 <_sk_srcover_rgba_8888_skx+0x107>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 3,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,162,255,255,255,142 // jmpq *-0x71000001(%rdx)
+ .byte 255,78,255 // decl -0x1(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
+ .byte 59,255 // cmp %edi,%edi
.byte 255 // (bad)
- .byte 122,255 // jp 1655 <_sk_srcover_rgba_8888_skx+0x21a>
+ .byte 255,159,255,255,255,139 // lcall *-0x74000001(%rdi)
.byte 255 // (bad)
- .byte 255,103,255 // jmpq *-0x1(%rdi)
.byte 255 // (bad)
- .byte 255,26 // lcall *(%rdx)
+ .byte 255,119,255 // pushq -0x1(%rdi)
.byte 255 // (bad)
+ .byte 255,100,255,255 // jmpq *-0x1(%rdi,%rdi,8)
+ .byte 255,23 // callq *(%rdi)
.byte 255 // (bad)
- .byte 255,159,255,255,255,151 // lcall *-0x68000001(%rdi)
.byte 255 // (bad)
+ .byte 255,156,255,255,255,148,255 // lcall *-0x6b0001(%rdi,%rdi,8)
.byte 255 // (bad)
+ .byte 255,214 // callq *%rsi
.byte 255 // (bad)
- .byte 217,255 // fcos
.byte 255 // (bad)
- .byte 255,204 // dec %esp
+ .byte 255,201 // dec %ecx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 190,255,255,255,176 // mov $0xb0ffffff,%esi
+ .byte 187,255,255,255,173 // mov $0xadffffff,%ebx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -1429,7 +1435,7 @@ _sk_srcover_bgra_8888_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,190,0,0,0 // jne 1756 <_sk_srcover_bgra_8888_skx+0xde>
+ .byte 15,133,235,0,0,0 // jne 17b3 <_sk_srcover_bgra_8888_skx+0x10b>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -1440,32 +1446,41 @@ _sk_srcover_bgra_8888_skx:
.byte 197,252,91,236 // vcvtdq2ps %ymm4,%ymm5
.byte 197,221,114,215,16 // vpsrld $0x10,%ymm7,%ymm4
.byte 98,241,127,169,111,228 // vmovdqu8 %ymm4,%ymm4{%k1}{z}
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,35,129,3,0 // vbroadcastss 0x38123(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,66,129,3,0 // vbroadcastss 0x38142(%rip),%ymm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
- .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
- .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
- .byte 196,194,77,184,208 // vfmadd231ps %ymm8,%ymm6,%ymm2
- .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 197,125,91,194 // vcvtps2dq %ymm2,%ymm8
- .byte 197,125,91,201 // vcvtps2dq %ymm1,%ymm9
- .byte 196,193,53,114,241,8 // vpslld $0x8,%ymm9,%ymm9
+ .byte 196,98,125,24,13,2,139,3,0 // vbroadcastss 0x38b02(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
+ .byte 196,98,125,24,21,33,139,3,0 // vbroadcastss 0x38b21(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
+ .byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
+ .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
+ .byte 196,194,85,184,201 // vfmadd231ps %ymm9,%ymm5,%ymm1
+ .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
+ .byte 196,194,77,184,209 // vfmadd231ps %ymm9,%ymm6,%ymm2
+ .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
+ .byte 196,194,69,184,217 // vfmadd231ps %ymm9,%ymm7,%ymm3
+ .byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
+ .byte 197,60,95,217 // vmaxps %ymm1,%ymm8,%ymm11
+ .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11
+ .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
+ .byte 196,193,37,114,243,8 // vpslld $0x8,%ymm11,%ymm11
+ .byte 196,65,37,235,201 // vpor %ymm9,%ymm11,%ymm9
+ .byte 197,60,95,216 // vmaxps %ymm0,%ymm8,%ymm11
+ .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11
+ .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
+ .byte 196,193,37,114,243,16 // vpslld $0x10,%ymm11,%ymm11
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
+ .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8
+ .byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
- .byte 196,193,53,114,241,16 // vpslld $0x10,%ymm9,%ymm9
- .byte 197,125,91,211 // vcvtps2dq %ymm3,%ymm10
- .byte 196,193,45,114,242,24 // vpslld $0x18,%ymm10,%ymm10
- .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
- .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 178e <_sk_srcover_bgra_8888_skx+0x116>
+ .byte 117,66 // jne 17eb <_sk_srcover_bgra_8888_skx+0x143>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -1474,26 +1489,26 @@ _sk_srcover_bgra_8888_skx:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,47,255,255,255 // ja 169e <_sk_srcover_bgra_8888_skx+0x26>
+ .byte 15,135,2,255,255,255 // ja 16ce <_sk_srcover_bgra_8888_skx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,6,1,0,0 // lea 0x106(%rip),%r10 # 1880 <_sk_srcover_bgra_8888_skx+0x208>
+ .byte 76,141,21,5,1,0,0 // lea 0x105(%rip),%r10 # 18dc <_sk_srcover_bgra_8888_skx+0x234>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,16,255,255,255 // jmpq 169e <_sk_srcover_bgra_8888_skx+0x26>
+ .byte 233,227,254,255,255 // jmpq 16ce <_sk_srcover_bgra_8888_skx+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,179 // ja 1752 <_sk_srcover_bgra_8888_skx+0xda>
+ .byte 119,179 // ja 17af <_sk_srcover_bgra_8888_skx+0x107>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 189c <_sk_srcover_bgra_8888_skx+0x224>
+ .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 18f8 <_sk_srcover_bgra_8888_skx+0x250>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,151 // jmp 1752 <_sk_srcover_bgra_8888_skx+0xda>
+ .byte 235,151 // jmp 17af <_sk_srcover_bgra_8888_skx+0x107>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -1501,7 +1516,7 @@ _sk_srcover_bgra_8888_skx:
.byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4
.byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,186,254,255,255 // jmpq 169e <_sk_srcover_bgra_8888_skx+0x26>
+ .byte 233,141,254,255,255 // jmpq 16ce <_sk_srcover_bgra_8888_skx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -1514,11 +1529,11 @@ _sk_srcover_bgra_8888_skx:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,110,254,255,255 // jmpq 169e <_sk_srcover_bgra_8888_skx+0x26>
+ .byte 233,65,254,255,255 // jmpq 16ce <_sk_srcover_bgra_8888_skx+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
.byte 98,18,126,8,53,4,152 // vpmovqd %xmm8,(%r8,%r11,4)
- .byte 233,9,255,255,255 // jmpq 1752 <_sk_srcover_bgra_8888_skx+0xda>
+ .byte 233,9,255,255,255 // jmpq 17af <_sk_srcover_bgra_8888_skx+0x107>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -1526,34 +1541,37 @@ _sk_srcover_bgra_8888_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 233,213,254,255,255 // jmpq 1752 <_sk_srcover_bgra_8888_skx+0xda>
- .byte 15,31,0 // nopl (%rax)
- .byte 3,255 // add %edi,%edi
+ .byte 233,213,254,255,255 // jmpq 17af <_sk_srcover_bgra_8888_skx+0x107>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 4,255 // add $0xff,%al
.byte 255 // (bad)
- .byte 255,78,255 // decl -0x1(%rsi)
+ .byte 255,79,255 // decl -0x1(%rdi)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 59,255 // cmp %edi,%edi
+ .byte 60,255 // cmp $0xff,%al
.byte 255 // (bad)
- .byte 255,159,255,255,255,139 // lcall *-0x74000001(%rdi)
+ .byte 255,160,255,255,255,140 // jmpq *-0x73000001(%rax)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,119,255 // pushq -0x1(%rdi)
.byte 255 // (bad)
- .byte 255,100,255,255 // jmpq *-0x1(%rdi,%rdi,8)
- .byte 255,23 // callq *(%rdi)
+ .byte 120,255 // js 18f1 <_sk_srcover_bgra_8888_skx+0x249>
.byte 255 // (bad)
+ .byte 255,101,255 // jmpq *-0x1(%rbp)
.byte 255 // (bad)
- .byte 255,156,255,255,255,148,255 // lcall *-0x6b0001(%rdi,%rdi,8)
+ .byte 255,24 // lcall *(%rax)
.byte 255 // (bad)
- .byte 255,214 // callq *%rsi
.byte 255 // (bad)
+ .byte 255,157,255,255,255,149 // lcall *-0x6a000001(%rbp)
.byte 255 // (bad)
- .byte 255,201 // dec %ecx
+ .byte 255 // (bad)
+ .byte 255,215 // callq *%rdi
.byte 255 // (bad)
.byte 255 // (bad)
+ .byte 255,202 // dec %edx
.byte 255 // (bad)
- .byte 187,255,255,255,173 // mov $0xadffffff,%ebx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 188,255,255,255,174 // mov $0xaeffffff,%esp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -1574,7 +1592,7 @@ HIDDEN _sk_clamp_1_skx
.globl _sk_clamp_1_skx
FUNCTION(_sk_clamp_1_skx)
_sk_clamp_1_skx:
- .byte 196,98,125,24,5,38,127,3,0 // vbroadcastss 0x37f26(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,222,136,3,0 // vbroadcastss 0x388de(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -1586,7 +1604,7 @@ HIDDEN _sk_clamp_a_skx
.globl _sk_clamp_a_skx
FUNCTION(_sk_clamp_a_skx)
_sk_clamp_a_skx:
- .byte 98,241,100,56,93,29,4,127,3,0 // vminps 0x37f04(%rip){1to8},%ymm3,%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,100,56,93,29,188,136,3,0 // vminps 0x388bc(%rip){1to8},%ymm3,%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
.byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2
@@ -1597,7 +1615,7 @@ HIDDEN _sk_clamp_a_dst_skx
.globl _sk_clamp_a_dst_skx
FUNCTION(_sk_clamp_a_dst_skx)
_sk_clamp_a_dst_skx:
- .byte 98,241,68,56,93,61,234,126,3,0 // vminps 0x37eea(%rip){1to8},%ymm7,%ymm7 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,68,56,93,61,162,136,3,0 // vminps 0x388a2(%rip){1to8},%ymm7,%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
.byte 197,204,93,247 // vminps %ymm7,%ymm6,%ymm6
@@ -1629,7 +1647,7 @@ HIDDEN _sk_invert_skx
.globl _sk_invert_skx
FUNCTION(_sk_invert_skx)
_sk_invert_skx:
- .byte 196,98,125,24,5,170,126,3,0 // vbroadcastss 0x37eaa(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,98,136,3,0 // vbroadcastss 0x38862(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -1683,9 +1701,9 @@ HIDDEN _sk_unpremul_skx
.globl _sk_unpremul_skx
FUNCTION(_sk_unpremul_skx)
_sk_unpremul_skx:
- .byte 196,98,125,24,5,69,126,3,0 // vbroadcastss 0x37e45(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,253,135,3,0 // vbroadcastss 0x387fd(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 98,241,60,56,194,5,102,126,3,0,1 // vcmpltps 0x37e66(%rip){1to8},%ymm8,%k0 # 39834 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
+ .byte 98,241,60,56,194,5,30,136,3,0,1 // vcmpltps 0x3881e(%rip){1to8},%ymm8,%k0 # 3a248 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
@@ -1699,16 +1717,16 @@ HIDDEN _sk_from_srgb_skx
.globl _sk_from_srgb_skx
FUNCTION(_sk_from_srgb_skx)
_sk_from_srgb_skx:
- .byte 196,98,125,24,5,64,126,3,0 // vbroadcastss 0x37e40(%rip),%ymm8 # 39838 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,248,135,3,0 // vbroadcastss 0x387f8(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,50,126,3,0 // vbroadcastss 0x37e32(%rip),%ymm11 # 3983c <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,17,126,3,0 // vbroadcastss 0x37e11(%rip),%ymm12 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,234,135,3,0 // vbroadcastss 0x387ea(%rip),%ymm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,201,135,3,0 // vbroadcastss 0x387c9(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,26,126,3,0 // vbroadcastss 0x37e1a(%rip),%ymm14 # 39840 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,210,135,3,0 // vbroadcastss 0x387d2(%rip),%ymm14 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,16,126,3,0 // vbroadcastss 0x37e10(%rip),%ymm10 # 39844 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,200,135,3,0 // vbroadcastss 0x387c8(%rip),%ymm10 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 98,209,124,40,194,194,1 // vcmpltps %ymm10,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
@@ -1734,16 +1752,16 @@ HIDDEN _sk_from_srgb_dst_skx
.globl _sk_from_srgb_dst_skx
FUNCTION(_sk_from_srgb_dst_skx)
_sk_from_srgb_dst_skx:
- .byte 196,98,125,24,5,147,125,3,0 // vbroadcastss 0x37d93(%rip),%ymm8 # 39838 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,75,135,3,0 // vbroadcastss 0x3874b(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,133,125,3,0 // vbroadcastss 0x37d85(%rip),%ymm11 # 3983c <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,100,125,3,0 // vbroadcastss 0x37d64(%rip),%ymm12 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,61,135,3,0 // vbroadcastss 0x3873d(%rip),%ymm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,28,135,3,0 // vbroadcastss 0x3871c(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,109,125,3,0 // vbroadcastss 0x37d6d(%rip),%ymm14 # 39840 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,37,135,3,0 // vbroadcastss 0x38725(%rip),%ymm14 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,99,125,3,0 // vbroadcastss 0x37d63(%rip),%ymm10 # 39844 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,27,135,3,0 // vbroadcastss 0x3871b(%rip),%ymm10 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 98,209,92,40,194,194,1 // vcmpltps %ymm10,%ymm4,%k0
.byte 98,242,126,40,56,224 // vpmovm2d %k0,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
@@ -1770,19 +1788,19 @@ HIDDEN _sk_to_srgb_skx
FUNCTION(_sk_to_srgb_skx)
_sk_to_srgb_skx:
.byte 98,114,125,40,78,192 // vrsqrt14ps %ymm0,%ymm8
- .byte 196,98,125,24,13,240,124,3,0 // vbroadcastss 0x37cf0(%rip),%ymm9 # 39848 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
+ .byte 196,98,125,24,13,168,134,3,0 // vbroadcastss 0x386a8(%rip),%ymm9 # 3a25c <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
.byte 196,65,124,89,209 // vmulps %ymm9,%ymm0,%ymm10
- .byte 196,98,125,24,29,230,124,3,0 // vbroadcastss 0x37ce6(%rip),%ymm11 # 3984c <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
- .byte 196,98,125,24,37,225,124,3,0 // vbroadcastss 0x37ce1(%rip),%ymm12 # 39850 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
+ .byte 196,98,125,24,29,158,134,3,0 // vbroadcastss 0x3869e(%rip),%ymm11 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
+ .byte 196,98,125,24,37,153,134,3,0 // vbroadcastss 0x38699(%rip),%ymm12 # 3a264 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,61,168,235 // vfmadd213ps %ymm11,%ymm8,%ymm13
- .byte 196,98,125,24,53,210,124,3,0 // vbroadcastss 0x37cd2(%rip),%ymm14 # 39854 <_sk_srcover_bgra_8888_sse2_lowp+0x300>
+ .byte 196,98,125,24,53,138,134,3,0 // vbroadcastss 0x3868a(%rip),%ymm14 # 3a268 <_sk_srcover_bgra_8888_sse2_lowp+0x300>
.byte 196,66,61,168,238 // vfmadd213ps %ymm14,%ymm8,%ymm13
- .byte 196,98,125,24,61,200,124,3,0 // vbroadcastss 0x37cc8(%rip),%ymm15 # 39858 <_sk_srcover_bgra_8888_sse2_lowp+0x304>
+ .byte 196,98,125,24,61,128,134,3,0 // vbroadcastss 0x38680(%rip),%ymm15 # 3a26c <_sk_srcover_bgra_8888_sse2_lowp+0x304>
.byte 196,65,60,88,199 // vaddps %ymm15,%ymm8,%ymm8
.byte 98,82,125,40,76,192 // vrcp14ps %ymm8,%ymm8
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,179,124,3,0 // vbroadcastss 0x37cb3(%rip),%ymm13 # 3985c <_sk_srcover_bgra_8888_sse2_lowp+0x308>
+ .byte 196,98,125,24,45,107,134,3,0 // vbroadcastss 0x3866b(%rip),%ymm13 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
.byte 98,209,124,40,194,197,1 // vcmpltps %ymm13,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
.byte 196,195,61,74,194,0 // vblendvps %ymm0,%ymm10,%ymm8,%ymm0
@@ -1820,7 +1838,7 @@ _sk_rgb_to_hsl_skx:
.byte 197,116,93,194 // vminps %ymm2,%ymm1,%ymm8
.byte 196,65,124,93,208 // vminps %ymm8,%ymm0,%ymm10
.byte 98,193,52,40,92,194 // vsubps %ymm10,%ymm9,%ymm16
- .byte 196,98,125,24,5,164,123,3,0 // vbroadcastss 0x37ba4(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,92,133,3,0 // vbroadcastss 0x3855c(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 98,49,60,40,94,224 // vdivps %ymm16,%ymm8,%ymm12
.byte 98,209,52,40,194,194,0 // vcmpeqps %ymm10,%ymm9,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
@@ -1829,23 +1847,23 @@ _sk_rgb_to_hsl_skx:
.byte 197,116,92,242 // vsubps %ymm2,%ymm1,%ymm14
.byte 98,241,116,40,194,194,1 // vcmpltps %ymm2,%ymm1,%k0
.byte 98,114,126,40,56,248 // vpmovm2d %k0,%ymm15
- .byte 196,98,125,24,29,198,123,3,0 // vbroadcastss 0x37bc6(%rip),%ymm11 # 39860 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,29,126,133,3,0 // vbroadcastss 0x3857e(%rip),%ymm11 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
.byte 196,67,69,74,219,240 // vblendvps %ymm15,%ymm11,%ymm7,%ymm11
.byte 196,66,29,168,243 // vfmadd213ps %ymm11,%ymm12,%ymm14
.byte 98,241,52,40,194,193,0 // vcmpeqps %ymm1,%ymm9,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 196,98,125,24,61,161,123,3,0 // vbroadcastss 0x37ba1(%rip),%ymm15 # 39864 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,61,89,133,3,0 // vbroadcastss 0x38559(%rip),%ymm15 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,194,29,168,215 // vfmadd213ps %ymm15,%ymm12,%ymm2
.byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
- .byte 98,242,29,56,168,5,146,123,3,0 // vfmadd213ps 0x37b92(%rip){1to8},%ymm12,%ymm0 # 39868 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 98,242,29,56,168,5,74,133,3,0 // vfmadd213ps 0x3854a(%rip){1to8},%ymm12,%ymm0 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 196,227,125,74,194,176 // vblendvps %ymm11,%ymm2,%ymm0,%ymm0
.byte 196,195,125,74,198,208 // vblendvps %ymm13,%ymm14,%ymm0,%ymm0
.byte 196,227,125,74,199,128 // vblendvps %ymm8,%ymm7,%ymm0,%ymm0
- .byte 98,241,124,56,89,5,122,123,3,0 // vmulps 0x37b7a(%rip){1to8},%ymm0,%ymm0 # 3986c <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 98,241,124,56,89,5,50,133,3,0 // vmulps 0x38532(%rip){1to8},%ymm0,%ymm0 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,193,52,88,202 // vaddps %ymm10,%ymm9,%ymm1
- .byte 196,98,125,24,29,0,123,3,0 // vbroadcastss 0x37b00(%rip),%ymm11 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,29,184,132,3,0 // vbroadcastss 0x384b8(%rip),%ymm11 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 98,241,36,40,194,194,1 // vcmpltps %ymm2,%ymm11,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
@@ -1864,7 +1882,7 @@ FUNCTION(_sk_hsl_to_rgb_skx)
_sk_hsl_to_rgb_skx:
.byte 98,225,124,40,40,215 // vmovaps %ymm7,%ymm18
.byte 98,225,124,40,40,230 // vmovaps %ymm6,%ymm20
- .byte 98,226,125,40,24,5,178,122,3,0 // vbroadcastss 0x37ab2(%rip),%ymm16 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,226,125,40,24,5,106,132,3,0 // vbroadcastss 0x3846a(%rip),%ymm16 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 98,241,124,32,194,194,2 // vcmpleps %ymm2,%ymm16,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
.byte 197,116,89,202 // vmulps %ymm2,%ymm1,%ymm9
@@ -1872,27 +1890,27 @@ _sk_hsl_to_rgb_skx:
.byte 196,67,53,74,194,128 // vblendvps %ymm8,%ymm10,%ymm9,%ymm8
.byte 197,60,88,218 // vaddps %ymm2,%ymm8,%ymm11
.byte 196,65,124,40,203 // vmovaps %ymm11,%ymm9
- .byte 98,114,109,56,186,13,231,122,3,0 // vfmsub231ps 0x37ae7(%rip){1to8},%ymm2,%ymm9 # 39864 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 98,114,109,56,186,13,159,132,3,0 // vfmsub231ps 0x3849f(%rip){1to8},%ymm2,%ymm9 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 98,209,116,40,194,192,0 // vcmpeqps %ymm8,%ymm1,%k0
.byte 98,242,126,40,56,248 // vpmovm2d %k0,%ymm7
- .byte 98,241,124,56,88,13,215,122,3,0 // vaddps 0x37ad7(%rip){1to8},%ymm0,%ymm1 # 39870 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 98,241,124,56,88,13,143,132,3,0 // vaddps 0x3848f(%rip){1to8},%ymm0,%ymm1 # 3a284 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
.byte 196,99,125,8,193,1 // vroundps $0x1,%ymm1,%ymm8
.byte 196,193,116,92,200 // vsubps %ymm8,%ymm1,%ymm1
- .byte 98,226,125,40,24,29,198,122,3,0 // vbroadcastss 0x37ac6(%rip),%ymm19 # 39874 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
+ .byte 98,226,125,40,24,29,126,132,3,0 // vbroadcastss 0x3847e(%rip),%ymm19 # 3a288 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
.byte 98,241,100,32,194,193,2 // vcmpleps %ymm1,%ymm19,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
.byte 196,65,36,92,241 // vsubps %ymm9,%ymm11,%ymm14
- .byte 196,98,125,24,61,151,122,3,0 // vbroadcastss 0x37a97(%rip),%ymm15 # 39860 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,61,79,132,3,0 // vbroadcastss 0x3844f(%rip),%ymm15 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,65,116,89,231 // vmulps %ymm15,%ymm1,%ymm12
- .byte 98,226,125,40,24,13,144,122,3,0 // vbroadcastss 0x37a90(%rip),%ymm17 # 39868 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 98,226,125,40,24,13,72,132,3,0 // vbroadcastss 0x38448(%rip),%ymm17 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 98,81,116,32,92,212 // vsubps %ymm12,%ymm17,%ymm10
.byte 196,66,13,168,209 // vfmadd213ps %ymm9,%ymm14,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 98,241,124,32,194,193,2 // vcmpleps %ymm1,%ymm16,%k0
.byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
.byte 196,67,37,74,192,160 // vblendvps %ymm10,%ymm8,%ymm11,%ymm8
- .byte 196,98,125,24,21,103,122,3,0 // vbroadcastss 0x37a67(%rip),%ymm10 # 3986c <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,21,31,132,3,0 // vbroadcastss 0x3841f(%rip),%ymm10 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 98,241,44,40,194,193,2 // vcmpleps %ymm1,%ymm10,%k0
.byte 98,242,126,40,56,200 // vpmovm2d %k0,%ymm1
.byte 196,66,13,168,225 // vfmadd213ps %ymm9,%ymm14,%ymm12
@@ -1914,7 +1932,7 @@ _sk_hsl_to_rgb_skx:
.byte 196,66,13,168,233 // vfmadd213ps %ymm9,%ymm14,%ymm13
.byte 196,195,21,74,200,16 // vblendvps %ymm1,%ymm8,%ymm13,%ymm1
.byte 196,227,117,74,202,112 // vblendvps %ymm7,%ymm2,%ymm1,%ymm1
- .byte 98,241,124,56,88,5,237,121,3,0 // vaddps 0x379ed(%rip){1to8},%ymm0,%ymm0 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 98,241,124,56,88,5,165,131,3,0 // vaddps 0x383a5(%rip){1to8},%ymm0,%ymm0 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 98,241,100,32,194,192,2 // vcmpleps %ymm0,%ymm19,%k0
@@ -1961,12 +1979,12 @@ _sk_scale_u8_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,54 // jne 1f67 <_sk_scale_u8_skx+0x4e>
+ .byte 117,54 // jne 1fc3 <_sk_scale_u8_skx+0x4e>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,145,129,3,0 // vpand 0x38191(%rip),%xmm8,%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,57,219,5,85,139,3,0 // vpand 0x38b55(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,41,121,3,0 // vmulps 0x37929(%rip){1to8},%ymm8,%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,113,60,56,89,5,225,130,3,0 // vmulps 0x382e1(%rip){1to8},%ymm8,%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
.byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
@@ -1978,15 +1996,15 @@ _sk_scale_u8_skx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,186 // ja 1f37 <_sk_scale_u8_skx+0x1e>
+ .byte 119,186 // ja 1f93 <_sk_scale_u8_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,140,0,0,0 // lea 0x8c(%rip),%r10 # 2014 <_sk_scale_u8_skx+0xfb>
+ .byte 76,141,21,140,0,0,0 // lea 0x8c(%rip),%r10 # 2070 <_sk_scale_u8_skx+0xfb>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,155 // jmp 1f37 <_sk_scale_u8_skx+0x1e>
+ .byte 235,155 // jmp 1f93 <_sk_scale_u8_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -1994,7 +2012,7 @@ _sk_scale_u8_skx:
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,110,255,255,255 // jmpq 1f37 <_sk_scale_u8_skx+0x1e>
+ .byte 233,110,255,255,255 // jmpq 1f93 <_sk_scale_u8_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -2007,9 +2025,9 @@ _sk_scale_u8_skx:
.byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,37,255,255,255 // jmpq 1f37 <_sk_scale_u8_skx+0x1e>
+ .byte 233,37,255,255,255 // jmpq 1f93 <_sk_scale_u8_skx+0x1e>
.byte 102,144 // xchg %ax,%ax
- .byte 125,255 // jge 2015 <_sk_scale_u8_skx+0xfc>
+ .byte 125,255 // jge 2071 <_sk_scale_u8_skx+0xfc>
.byte 255 // (bad)
.byte 255,152,255,255,255,136 // lcall *-0x77000001(%rax)
.byte 255 // (bad)
@@ -2040,18 +2058,18 @@ _sk_scale_565_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,145,0,0,0 // jne 20e0 <_sk_scale_565_skx+0xb0>
+ .byte 15,133,145,0,0,0 // jne 213c <_sk_scale_565_skx+0xb0>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 98,113,61,56,219,13,28,120,3,0 // vpandd 0x3781c(%rip){1to8},%ymm8,%ymm9 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,113,61,56,219,13,212,129,3,0 // vpandd 0x381d4(%rip){1to8},%ymm8,%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 98,113,52,56,89,13,17,120,3,0 // vmulps 0x37811(%rip){1to8},%ymm9,%ymm9 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,113,61,56,219,21,11,120,3,0 // vpandd 0x3780b(%rip){1to8},%ymm8,%ymm10 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,113,52,56,89,13,201,129,3,0 // vmulps 0x381c9(%rip){1to8},%ymm9,%ymm9 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,113,61,56,219,21,195,129,3,0 // vpandd 0x381c3(%rip){1to8},%ymm8,%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 98,113,44,56,89,21,0,120,3,0 // vmulps 0x37800(%rip){1to8},%ymm10,%ymm10 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,113,61,56,219,5,250,119,3,0 // vpandd 0x377fa(%rip){1to8},%ymm8,%ymm8 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,113,44,56,89,21,184,129,3,0 // vmulps 0x381b8(%rip){1to8},%ymm10,%ymm10 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,113,61,56,219,5,178,129,3,0 // vpandd 0x381b2(%rip){1to8},%ymm8,%ymm8 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,239,119,3,0 // vmulps 0x377ef(%rip){1to8},%ymm8,%ymm8 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,113,60,56,89,5,167,129,3,0 // vmulps 0x381a7(%rip){1to8},%ymm8,%ymm8 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -2070,22 +2088,22 @@ _sk_scale_565_skx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,91,255,255,255 // ja 2055 <_sk_scale_565_skx+0x25>
+ .byte 15,135,91,255,255,255 // ja 20b1 <_sk_scale_565_skx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 2188 <_sk_scale_565_skx+0x158>
+ .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 21e4 <_sk_scale_565_skx+0x158>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,57,255,255,255 // jmpq 2055 <_sk_scale_565_skx+0x25>
+ .byte 233,57,255,255,255 // jmpq 20b1 <_sk_scale_565_skx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,2,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm9
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,15,255,255,255 // jmpq 2055 <_sk_scale_565_skx+0x25>
+ .byte 233,15,255,255,255 // jmpq 20b1 <_sk_scale_565_skx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
@@ -2095,7 +2113,7 @@ _sk_scale_565_skx:
.byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
.byte 196,65,121,112,201,132 // vpshufd $0x84,%xmm9,%xmm9
.byte 196,65,49,109,192 // vpunpckhqdq %xmm8,%xmm9,%xmm8
- .byte 233,208,254,255,255 // jmpq 2055 <_sk_scale_565_skx+0x25>
+ .byte 233,208,254,255,255 // jmpq 20b1 <_sk_scale_565_skx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 134,255 // xchg %bh,%bh
.byte 255 // (bad)
@@ -2145,12 +2163,12 @@ _sk_lerp_u8_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,74 // jne 2235 <_sk_lerp_u8_skx+0x62>
+ .byte 117,74 // jne 2291 <_sk_lerp_u8_skx+0x62>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,215,126,3,0 // vpand 0x37ed7(%rip),%xmm8,%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,57,219,5,155,136,3,0 // vpand 0x3889b(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,111,118,3,0 // vmulps 0x3766f(%rip){1to8},%ymm8,%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,113,60,56,89,5,39,128,3,0 // vmulps 0x38027(%rip){1to8},%ymm8,%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
@@ -2166,15 +2184,15 @@ _sk_lerp_u8_skx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,166 // ja 21f1 <_sk_lerp_u8_skx+0x1e>
+ .byte 119,166 // ja 224d <_sk_lerp_u8_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,138,0,0,0 // lea 0x8a(%rip),%r10 # 22e0 <_sk_lerp_u8_skx+0x10d>
+ .byte 76,141,21,138,0,0,0 // lea 0x8a(%rip),%r10 # 233c <_sk_lerp_u8_skx+0x10d>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,135 // jmp 21f1 <_sk_lerp_u8_skx+0x1e>
+ .byte 235,135 // jmp 224d <_sk_lerp_u8_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -2182,7 +2200,7 @@ _sk_lerp_u8_skx:
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,90,255,255,255 // jmpq 21f1 <_sk_lerp_u8_skx+0x1e>
+ .byte 233,90,255,255,255 // jmpq 224d <_sk_lerp_u8_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -2195,8 +2213,8 @@ _sk_lerp_u8_skx:
.byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,17,255,255,255 // jmpq 21f1 <_sk_lerp_u8_skx+0x1e>
- .byte 127,255 // jg 22e1 <_sk_lerp_u8_skx+0x10e>
+ .byte 233,17,255,255,255 // jmpq 224d <_sk_lerp_u8_skx+0x1e>
+ .byte 127,255 // jg 233d <_sk_lerp_u8_skx+0x10e>
.byte 255 // (bad)
.byte 255,154,255,255,255,138 // lcall *-0x75000001(%rdx)
.byte 255 // (bad)
@@ -2227,18 +2245,18 @@ _sk_lerp_565_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,165,0,0,0 // jne 23c0 <_sk_lerp_565_skx+0xc4>
+ .byte 15,133,165,0,0,0 // jne 241c <_sk_lerp_565_skx+0xc4>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 98,113,61,56,219,13,80,117,3,0 // vpandd 0x37550(%rip){1to8},%ymm8,%ymm9 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,113,61,56,219,13,8,127,3,0 // vpandd 0x37f08(%rip){1to8},%ymm8,%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 98,113,52,56,89,13,69,117,3,0 // vmulps 0x37545(%rip){1to8},%ymm9,%ymm9 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,113,61,56,219,21,63,117,3,0 // vpandd 0x3753f(%rip){1to8},%ymm8,%ymm10 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,113,52,56,89,13,253,126,3,0 // vmulps 0x37efd(%rip){1to8},%ymm9,%ymm9 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,113,61,56,219,21,247,126,3,0 // vpandd 0x37ef7(%rip){1to8},%ymm8,%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 98,113,44,56,89,21,52,117,3,0 // vmulps 0x37534(%rip){1to8},%ymm10,%ymm10 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,113,61,56,219,5,46,117,3,0 // vpandd 0x3752e(%rip){1to8},%ymm8,%ymm8 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,113,44,56,89,21,236,126,3,0 // vmulps 0x37eec(%rip){1to8},%ymm10,%ymm10 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,113,61,56,219,5,230,126,3,0 // vpandd 0x37ee6(%rip){1to8},%ymm8,%ymm8 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,35,117,3,0 // vmulps 0x37523(%rip){1to8},%ymm8,%ymm8 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,113,60,56,89,5,219,126,3,0 // vmulps 0x37edb(%rip){1to8},%ymm8,%ymm8 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -2261,22 +2279,22 @@ _sk_lerp_565_skx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,71,255,255,255 // ja 2321 <_sk_lerp_565_skx+0x25>
+ .byte 15,135,71,255,255,255 // ja 237d <_sk_lerp_565_skx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 2468 <_sk_lerp_565_skx+0x16c>
+ .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 24c4 <_sk_lerp_565_skx+0x16c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,37,255,255,255 // jmpq 2321 <_sk_lerp_565_skx+0x25>
+ .byte 233,37,255,255,255 // jmpq 237d <_sk_lerp_565_skx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,2,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm9
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,251,254,255,255 // jmpq 2321 <_sk_lerp_565_skx+0x25>
+ .byte 233,251,254,255,255 // jmpq 237d <_sk_lerp_565_skx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
@@ -2286,7 +2304,7 @@ _sk_lerp_565_skx:
.byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
.byte 196,65,121,112,201,132 // vpshufd $0x84,%xmm9,%xmm9
.byte 196,65,49,109,192 // vpunpckhqdq %xmm8,%xmm9,%xmm8
- .byte 233,188,254,255,255 // jmpq 2321 <_sk_lerp_565_skx+0x25>
+ .byte 233,188,254,255,255 // jmpq 237d <_sk_lerp_565_skx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 134,255 // xchg %bh,%bh
.byte 255 // (bad)
@@ -2315,7 +2333,7 @@ _sk_load_tables_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,124 // jne 250a <_sk_load_tables_skx+0x86>
+ .byte 117,124 // jne 2566 <_sk_load_tables_skx+0x86>
.byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
.byte 65,184,17,17,17,17 // mov $0x11111111,%r8d
.byte 196,193,123,146,200 // kmovd %r8d,%k1
@@ -2338,7 +2356,7 @@ _sk_load_tables_skx:
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,118,115,3,0 // vmulps 0x37376(%rip){1to8},%ymm3,%ymm3 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,100,56,89,29,46,125,3,0 // vmulps 0x37d2e(%rip){1to8},%ymm3,%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -2346,14 +2364,14 @@ _sk_load_tables_skx:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,113,255,255,255 // ja 2494 <_sk_load_tables_skx+0x10>
+ .byte 15,135,113,255,255,255 // ja 24f0 <_sk_load_tables_skx+0x10>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 25bc <_sk_load_tables_skx+0x138>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 2618 <_sk_load_tables_skx+0x138>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,81,255,255,255 // jmpq 2494 <_sk_load_tables_skx+0x10>
+ .byte 233,81,255,255,255 // jmpq 24f0 <_sk_load_tables_skx+0x10>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 65,177,4 // mov $0x4,%r9b
.byte 196,193,123,146,201 // kmovd %r9d,%k1
@@ -2361,7 +2379,7 @@ _sk_load_tables_skx:
.byte 196,194,121,53,4,144 // vpmovzxdq (%r8,%rdx,4),%xmm0
.byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,38,255,255,255 // jmpq 2494 <_sk_load_tables_skx+0x10>
+ .byte 233,38,255,255,255 // jmpq 24f0 <_sk_load_tables_skx+0x10>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 65,177,64 // mov $0x40,%r9b
.byte 196,193,123,146,201 // kmovd %r9d,%k1
@@ -2374,8 +2392,8 @@ _sk_load_tables_skx:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,216,254,255,255 // jmpq 2494 <_sk_load_tables_skx+0x10>
- .byte 124,255 // jl 25bd <_sk_load_tables_skx+0x139>
+ .byte 233,216,254,255,255 // jmpq 24f0 <_sk_load_tables_skx+0x10>
+ .byte 124,255 // jl 2619 <_sk_load_tables_skx+0x139>
.byte 255 // (bad)
.byte 255,156,255,255,255,135,255 // lcall *-0x780001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -2402,7 +2420,7 @@ _sk_load_tables_u16_be_skx:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,210,0,0,0 // jne 26c0 <_sk_load_tables_u16_be_skx+0xe8>
+ .byte 15,133,210,0,0,0 // jne 271c <_sk_load_tables_u16_be_skx+0xe8>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -2417,7 +2435,7 @@ _sk_load_tables_u16_be_skx:
.byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
- .byte 197,121,111,21,149,122,3,0 // vmovdqa 0x37a95(%rip),%xmm10 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,121,111,21,89,132,3,0 // vmovdqa 0x38459(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,193,113,219,194 // vpand %xmm10,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 76,139,64,8 // mov 0x8(%rax),%r8
@@ -2443,35 +2461,35 @@ _sk_load_tables_u16_be_skx:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,220,113,3,0 // vmulps 0x371dc(%rip){1to8},%ymm3,%ymm3 # 39898 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 98,241,100,56,89,29,148,123,3,0 // vmulps 0x37b94(%rip){1to8},%ymm3,%ymm3 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 2726 <_sk_load_tables_u16_be_skx+0x14e>
+ .byte 116,85 // je 2782 <_sk_load_tables_u16_be_skx+0x14e>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 2726 <_sk_load_tables_u16_be_skx+0x14e>
+ .byte 114,72 // jb 2782 <_sk_load_tables_u16_be_skx+0x14e>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 2733 <_sk_load_tables_u16_be_skx+0x15b>
+ .byte 116,72 // je 278f <_sk_load_tables_u16_be_skx+0x15b>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 2733 <_sk_load_tables_u16_be_skx+0x15b>
+ .byte 114,59 // jb 278f <_sk_load_tables_u16_be_skx+0x15b>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,0,255,255,255 // je 2609 <_sk_load_tables_u16_be_skx+0x31>
+ .byte 15,132,0,255,255,255 // je 2665 <_sk_load_tables_u16_be_skx+0x31>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,239,254,255,255 // jb 2609 <_sk_load_tables_u16_be_skx+0x31>
+ .byte 15,130,239,254,255,255 // jb 2665 <_sk_load_tables_u16_be_skx+0x31>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,227,254,255,255 // jmpq 2609 <_sk_load_tables_u16_be_skx+0x31>
+ .byte 233,227,254,255,255 // jmpq 2665 <_sk_load_tables_u16_be_skx+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,214,254,255,255 // jmpq 2609 <_sk_load_tables_u16_be_skx+0x31>
+ .byte 233,214,254,255,255 // jmpq 2665 <_sk_load_tables_u16_be_skx+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,205,254,255,255 // jmpq 2609 <_sk_load_tables_u16_be_skx+0x31>
+ .byte 233,205,254,255,255 // jmpq 2665 <_sk_load_tables_u16_be_skx+0x31>
HIDDEN _sk_load_tables_rgb_u16_be_skx
.globl _sk_load_tables_rgb_u16_be_skx
@@ -2481,7 +2499,7 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,203,0,0,0 // jne 2819 <_sk_load_tables_rgb_u16_be_skx+0xdd>
+ .byte 15,133,203,0,0,0 // jne 2875 <_sk_load_tables_rgb_u16_be_skx+0xdd>
.byte 196,1,121,16,28,72 // vmovupd (%r8,%r9,2),%xmm11
.byte 196,129,121,16,92,72,12 // vmovupd 0xc(%r8,%r9,2),%xmm3
.byte 196,129,121,16,84,72,24 // vmovupd 0x18(%r8,%r9,2),%xmm2
@@ -2500,7 +2518,7 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 197,249,105,193 // vpunpckhwd %xmm1,%xmm0,%xmm0
.byte 197,105,108,200 // vpunpcklqdq %xmm0,%xmm2,%xmm9
.byte 197,185,108,195 // vpunpcklqdq %xmm3,%xmm8,%xmm0
- .byte 197,121,111,21,30,121,3,0 // vmovdqa 0x3791e(%rip),%xmm10 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,121,111,21,226,130,3,0 // vmovdqa 0x382e2(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,193,121,219,194 // vpand %xmm10,%xmm0,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 76,139,64,8 // mov 0x8(%rax),%r8
@@ -2521,111 +2539,117 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 196,226,29,146,20,152 // vgatherdps %ymm12,(%rax,%ymm3,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,237,111,3,0 // vbroadcastss 0x36fed(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,165,121,3,0 // vbroadcastss 0x379a5(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 2851 <_sk_load_tables_rgb_u16_be_skx+0x115>
+ .byte 117,31 // jne 28ad <_sk_load_tables_rgb_u16_be_skx+0x115>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,47,255,255,255 // jmpq 2780 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,47,255,255,255 // jmpq 27dc <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 289b <_sk_load_tables_rgb_u16_be_skx+0x15f>
+ .byte 114,48 // jb 28f7 <_sk_load_tables_rgb_u16_be_skx+0x15f>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 28b5 <_sk_load_tables_rgb_u16_be_skx+0x179>
+ .byte 117,48 // jne 2911 <_sk_load_tables_rgb_u16_be_skx+0x179>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,229,254,255,255 // jmpq 2780 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,229,254,255,255 // jmpq 27dc <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,203,254,255,255 // jmpq 2780 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,203,254,255,255 // jmpq 27dc <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 28f6 <_sk_load_tables_rgb_u16_be_skx+0x1ba>
+ .byte 114,39 // jb 2952 <_sk_load_tables_rgb_u16_be_skx+0x1ba>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 2907 <_sk_load_tables_rgb_u16_be_skx+0x1cb>
+ .byte 117,30 // jne 2963 <_sk_load_tables_rgb_u16_be_skx+0x1cb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,138,254,255,255 // jmpq 2780 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,138,254,255,255 // jmpq 27dc <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,121,254,255,255 // jmpq 2780 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,121,254,255,255 // jmpq 27dc <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 293a <_sk_load_tables_rgb_u16_be_skx+0x1fe>
+ .byte 114,25 // jb 2996 <_sk_load_tables_rgb_u16_be_skx+0x1fe>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,70,254,255,255 // jmpq 2780 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,70,254,255,255 // jmpq 27dc <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,61,254,255,255 // jmpq 2780 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,61,254,255,255 // jmpq 27dc <_sk_load_tables_rgb_u16_be_skx+0x44>
HIDDEN _sk_byte_tables_skx
.globl _sk_byte_tables_skx
FUNCTION(_sk_byte_tables_skx)
_sk_byte_tables_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,226,110,3,0 // vbroadcastss 0x36ee2(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
- .byte 196,65,249,126,200 // vmovq %xmm9,%r8
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,29,101,120,3,0 // vbroadcastss 0x37865(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,52,93,211 // vminps %ymm11,%ymm9,%ymm10
+ .byte 196,98,125,24,13,131,120,3,0 // vbroadcastss 0x37883(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,65,44,89,209 // vmulps %ymm9,%ymm10,%ymm10
+ .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
+ .byte 196,65,249,126,208 // vmovq %xmm10,%r8
.byte 69,137,193 // mov %r8d,%r9d
.byte 76,139,16 // mov (%rax),%r10
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
.byte 196,193,121,110,193 // vmovd %r9d,%xmm0
- .byte 196,67,249,22,201,1 // vpextrq $0x1,%xmm9,%r9
+ .byte 196,67,249,22,209,1 // vpextrq $0x1,%xmm10,%r9
.byte 73,193,232,32 // shr $0x20,%r8
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,121,32,208,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm10
+ .byte 196,67,121,32,224,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm12
.byte 69,137,200 // mov %r9d,%r8d
.byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,99,125,57,200,1 // vextracti128 $0x1,%ymm9,%xmm0
+ .byte 196,99,125,57,208,1 // vextracti128 $0x1,%ymm10,%xmm0
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,41,32,200,2 // vpinsrb $0x2,%r8d,%xmm10,%xmm9
+ .byte 196,67,25,32,208,2 // vpinsrb $0x2,%r8d,%xmm12,%xmm10
.byte 196,193,249,126,192 // vmovq %xmm0,%r8
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,49,32,201,3 // vpinsrb $0x3,%r9d,%xmm9,%xmm9
+ .byte 196,67,41,32,209,3 // vpinsrb $0x3,%r9d,%xmm10,%xmm10
.byte 69,137,193 // mov %r8d,%r9d
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,49,32,201,4 // vpinsrb $0x4,%r9d,%xmm9,%xmm9
+ .byte 196,67,41,32,209,4 // vpinsrb $0x4,%r9d,%xmm10,%xmm10
.byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9
.byte 73,193,232,32 // shr $0x20,%r8
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,195,49,32,192,5 // vpinsrb $0x5,%r8d,%xmm9,%xmm0
+ .byte 196,195,41,32,192,5 // vpinsrb $0x5,%r8d,%xmm10,%xmm0
.byte 69,137,200 // mov %r9d,%r8d
.byte 73,193,233,32 // shr $0x20,%r9
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
.byte 196,195,121,32,192,6 // vpinsrb $0x6,%r8d,%xmm0,%xmm0
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,121,32,201,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm9
- .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
+ .byte 196,67,121,32,209,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm10
+ .byte 197,188,95,193 // vmaxps %ymm1,%ymm8,%ymm0
+ .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
+ .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
+ .byte 197,253,91,200 // vcvtps2dq %ymm0,%ymm1
.byte 196,193,249,126,201 // vmovq %xmm1,%r9
.byte 69,137,202 // mov %r9d,%r10d
.byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
@@ -2656,7 +2680,9 @@ _sk_byte_tables_skx:
.byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
.byte 196,195,121,32,200,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm1
.byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 196,193,108,89,192 // vmulps %ymm8,%ymm2,%ymm0
+ .byte 197,188,95,194 // vmaxps %ymm2,%ymm8,%ymm0
+ .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
+ .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,253,91,208 // vcvtps2dq %ymm0,%ymm2
.byte 196,193,249,126,209 // vmovq %xmm2,%r9
.byte 69,137,202 // mov %r9d,%r10d
@@ -2686,46 +2712,48 @@ _sk_byte_tables_skx:
.byte 196,195,121,32,193,6 // vpinsrb $0x6,%r9d,%xmm0,%xmm0
.byte 73,193,234,32 // shr $0x20,%r10
.byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
- .byte 196,67,121,32,208,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm10
+ .byte 196,195,121,32,208,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm2
.byte 76,139,72,24 // mov 0x18(%rax),%r9
- .byte 196,193,100,89,192 // vmulps %ymm8,%ymm3,%ymm0
- .byte 197,253,91,208 // vcvtps2dq %ymm0,%ymm2
- .byte 196,193,249,126,208 // vmovq %xmm2,%r8
+ .byte 197,188,95,195 // vmaxps %ymm3,%ymm8,%ymm0
+ .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
+ .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
+ .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
+ .byte 196,193,249,126,192 // vmovq %xmm0,%r8
.byte 68,137,192 // mov %r8d,%eax
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
+ .byte 197,249,110,216 // vmovd %eax,%xmm3
+ .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
.byte 73,193,232,32 // shr $0x20,%r8
.byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,121,32,192,1 // vpinsrb $0x1,%eax,%xmm0,%xmm0
+ .byte 196,227,97,32,216,1 // vpinsrb $0x1,%eax,%xmm3,%xmm3
.byte 68,137,208 // mov %r10d,%eax
.byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,210,1 // vextracti128 $0x1,%ymm2,%xmm2
+ .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,121,32,192,2 // vpinsrb $0x2,%eax,%xmm0,%xmm0
- .byte 196,193,249,126,208 // vmovq %xmm2,%r8
+ .byte 196,227,97,32,216,2 // vpinsrb $0x2,%eax,%xmm3,%xmm3
+ .byte 196,193,249,126,192 // vmovq %xmm0,%r8
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,227,121,32,192,3 // vpinsrb $0x3,%eax,%xmm0,%xmm0
+ .byte 196,227,97,32,216,3 // vpinsrb $0x3,%eax,%xmm3,%xmm3
.byte 68,137,192 // mov %r8d,%eax
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,121,32,192,4 // vpinsrb $0x4,%eax,%xmm0,%xmm0
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
+ .byte 196,227,97,32,216,4 // vpinsrb $0x4,%eax,%xmm3,%xmm3
+ .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
.byte 73,193,232,32 // shr $0x20,%r8
.byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,121,32,192,5 // vpinsrb $0x5,%eax,%xmm0,%xmm0
+ .byte 196,227,97,32,192,5 // vpinsrb $0x5,%eax,%xmm3,%xmm0
.byte 68,137,208 // mov %r10d,%eax
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
.byte 196,227,121,32,216,6 // vpinsrb $0x6,%eax,%xmm0,%xmm3
.byte 73,193,234,32 // shr $0x20,%r10
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
+ .byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,180,108,3,0 // vbroadcastss 0x36cb4(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,57,118,3,0 // vbroadcastss 0x37639(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,194,125,49,210 // vpmovzxbd %xmm10,%ymm2
+ .byte 196,226,125,49,210 // vpmovzxbd %xmm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 196,227,97,32,216,7 // vpinsrb $0x7,%eax,%xmm3,%xmm3
@@ -2744,41 +2772,47 @@ _sk_byte_tables_rgb_skx:
.byte 65,131,192,255 // add $0xffffffff,%r8d
.byte 98,82,125,40,124,192 // vpbroadcastd %r8d,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
- .byte 196,65,249,126,200 // vmovq %xmm9,%r8
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 197,52,95,208 // vmaxps %ymm0,%ymm9,%ymm10
+ .byte 196,98,125,24,29,97,117,3,0 // vbroadcastss 0x37561(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,44,93,211 // vminps %ymm11,%ymm10,%ymm10
+ .byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
+ .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
+ .byte 196,65,249,126,208 // vmovq %xmm10,%r8
.byte 69,137,193 // mov %r8d,%r9d
.byte 76,139,16 // mov (%rax),%r10
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
.byte 196,193,121,110,193 // vmovd %r9d,%xmm0
- .byte 196,67,249,22,201,1 // vpextrq $0x1,%xmm9,%r9
+ .byte 196,67,249,22,209,1 // vpextrq $0x1,%xmm10,%r9
.byte 73,193,232,32 // shr $0x20,%r8
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,121,32,208,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm10
+ .byte 196,67,121,32,224,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm12
.byte 69,137,200 // mov %r9d,%r8d
.byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,99,125,57,200,1 // vextracti128 $0x1,%ymm9,%xmm0
+ .byte 196,99,125,57,208,1 // vextracti128 $0x1,%ymm10,%xmm0
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,41,32,200,2 // vpinsrb $0x2,%r8d,%xmm10,%xmm9
+ .byte 196,67,25,32,208,2 // vpinsrb $0x2,%r8d,%xmm12,%xmm10
.byte 196,193,249,126,192 // vmovq %xmm0,%r8
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,49,32,201,3 // vpinsrb $0x3,%r9d,%xmm9,%xmm9
+ .byte 196,67,41,32,209,3 // vpinsrb $0x3,%r9d,%xmm10,%xmm10
.byte 69,137,193 // mov %r8d,%r9d
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,49,32,201,4 // vpinsrb $0x4,%r9d,%xmm9,%xmm9
+ .byte 196,67,41,32,209,4 // vpinsrb $0x4,%r9d,%xmm10,%xmm10
.byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9
.byte 73,193,232,32 // shr $0x20,%r8
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,195,49,32,192,5 // vpinsrb $0x5,%r8d,%xmm9,%xmm0
+ .byte 196,195,41,32,192,5 // vpinsrb $0x5,%r8d,%xmm10,%xmm0
.byte 69,137,200 // mov %r9d,%r8d
.byte 73,193,233,32 // shr $0x20,%r9
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
.byte 196,195,121,32,192,6 // vpinsrb $0x6,%r8d,%xmm0,%xmm0
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,121,32,201,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm9
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
+ .byte 196,67,121,32,209,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm10
+ .byte 197,180,95,193 // vmaxps %ymm1,%ymm9,%ymm0
+ .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
+ .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
+ .byte 197,253,91,200 // vcvtps2dq %ymm0,%ymm1
.byte 196,193,249,126,201 // vmovq %xmm1,%r9
.byte 69,137,202 // mov %r9d,%r10d
.byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
@@ -2807,43 +2841,45 @@ _sk_byte_tables_rgb_skx:
.byte 196,195,121,32,193,6 // vpinsrb $0x6,%r9d,%xmm0,%xmm0
.byte 73,193,234,32 // shr $0x20,%r10
.byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
- .byte 196,67,121,32,208,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm10
+ .byte 196,195,121,32,200,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm1
.byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 197,188,89,194 // vmulps %ymm2,%ymm8,%ymm0
- .byte 197,253,91,200 // vcvtps2dq %ymm0,%ymm1
- .byte 196,193,249,126,200 // vmovq %xmm1,%r8
+ .byte 197,180,95,194 // vmaxps %ymm2,%ymm9,%ymm0
+ .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
+ .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
+ .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
+ .byte 196,193,249,126,192 // vmovq %xmm0,%r8
.byte 68,137,192 // mov %r8d,%eax
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
+ .byte 197,249,110,208 // vmovd %eax,%xmm2
+ .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
.byte 73,193,232,32 // shr $0x20,%r8
.byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,121,32,192,1 // vpinsrb $0x1,%eax,%xmm0,%xmm0
+ .byte 196,227,105,32,208,1 // vpinsrb $0x1,%eax,%xmm2,%xmm2
.byte 68,137,208 // mov %r10d,%eax
.byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,201,1 // vextracti128 $0x1,%ymm1,%xmm1
+ .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,121,32,192,2 // vpinsrb $0x2,%eax,%xmm0,%xmm0
- .byte 196,193,249,126,200 // vmovq %xmm1,%r8
+ .byte 196,227,105,32,208,2 // vpinsrb $0x2,%eax,%xmm2,%xmm2
+ .byte 196,193,249,126,192 // vmovq %xmm0,%r8
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,227,121,32,192,3 // vpinsrb $0x3,%eax,%xmm0,%xmm0
+ .byte 196,227,105,32,208,3 // vpinsrb $0x3,%eax,%xmm2,%xmm2
.byte 68,137,192 // mov %r8d,%eax
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,121,32,192,4 // vpinsrb $0x4,%eax,%xmm0,%xmm0
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
+ .byte 196,227,105,32,208,4 // vpinsrb $0x4,%eax,%xmm2,%xmm2
+ .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
.byte 73,193,232,32 // shr $0x20,%r8
.byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,121,32,192,5 // vpinsrb $0x5,%eax,%xmm0,%xmm0
+ .byte 196,227,105,32,192,5 // vpinsrb $0x5,%eax,%xmm2,%xmm0
.byte 68,137,208 // mov %r10d,%eax
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
.byte 196,227,121,32,208,6 // vpinsrb $0x6,%eax,%xmm0,%xmm2
.byte 73,193,234,32 // shr $0x20,%r10
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
+ .byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,139,106,3,0 // vbroadcastss 0x36a8b(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,229,115,3,0 // vbroadcastss 0x373e5(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,194,125,49,202 // vpmovzxbd %xmm10,%ymm1
+ .byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 196,227,105,32,208,7 // vpinsrb $0x7,%eax,%xmm2,%xmm2
@@ -2862,13 +2898,16 @@ _sk_table_r_skx:
.byte 139,64,8 // mov 0x8(%rax),%eax
.byte 131,192,255 // add $0xffffffff,%eax
.byte 98,114,125,40,124,192 // vpbroadcastd %eax,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,125,91,192 // vcvtps2dq %ymm0,%ymm8
+ .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
+ .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
+ .byte 98,241,124,56,93,5,25,115,3,0 // vminps 0x37319(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
+ .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 196,130,53,146,4,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm0
+ .byte 196,66,53,146,4,128 // vgatherdps %ymm9,(%r8,%ymm0,4),%ymm8
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
.byte 255,224 // jmpq *%rax
HIDDEN _sk_table_g_skx
@@ -2880,13 +2919,16 @@ _sk_table_g_skx:
.byte 139,64,8 // mov 0x8(%rax),%eax
.byte 131,192,255 // add $0xffffffff,%eax
.byte 98,114,125,40,124,192 // vpbroadcastd %eax,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 197,125,91,193 // vcvtps2dq %ymm1,%ymm8
+ .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
+ .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
+ .byte 98,241,116,56,93,13,212,114,3,0 // vminps 0x372d4(%rip){1to8},%ymm1,%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
+ .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,130,53,146,12,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm1
+ .byte 196,66,53,146,4,136 // vgatherdps %ymm9,(%r8,%ymm1,4),%ymm8
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,193 // vmovaps %ymm8,%ymm1
.byte 255,224 // jmpq *%rax
HIDDEN _sk_table_b_skx
@@ -2898,13 +2940,16 @@ _sk_table_b_skx:
.byte 139,64,8 // mov 0x8(%rax),%eax
.byte 131,192,255 // add $0xffffffff,%eax
.byte 98,114,125,40,124,192 // vpbroadcastd %eax,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 197,125,91,194 // vcvtps2dq %ymm2,%ymm8
+ .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
+ .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
+ .byte 98,241,108,56,93,21,143,114,3,0 // vminps 0x3728f(%rip){1to8},%ymm2,%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
+ .byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,130,53,146,20,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm2
+ .byte 196,66,53,146,4,144 // vgatherdps %ymm9,(%r8,%ymm2,4),%ymm8
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,194 // vmovaps %ymm8,%ymm2
.byte 255,224 // jmpq *%rax
HIDDEN _sk_table_a_skx
@@ -2916,13 +2961,16 @@ _sk_table_a_skx:
.byte 139,64,8 // mov 0x8(%rax),%eax
.byte 131,192,255 // add $0xffffffff,%eax
.byte 98,114,125,40,124,192 // vpbroadcastd %eax,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
- .byte 197,125,91,195 // vcvtps2dq %ymm3,%ymm8
+ .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
+ .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
+ .byte 98,241,100,56,93,29,74,114,3,0 // vminps 0x3724a(%rip){1to8},%ymm3,%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
+ .byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,130,53,146,28,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm3
+ .byte 196,66,53,146,4,152 // vgatherdps %ymm9,(%r8,%ymm3,4),%ymm8
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,195 // vmovaps %ymm8,%ymm3
.byte 255,224 // jmpq *%rax
HIDDEN _sk_parametric_r_skx
@@ -2941,33 +2989,33 @@ _sk_parametric_r_skx:
.byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
.byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
.byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,109,105,3,0 // vbroadcastss 0x3696d(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,107,105,3,0 // vfmadd213ps 0x3696b(%rip){1to8},%ymm13,%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,93,105,3,0 // vandps 0x3695d(%rip){1to8},%ymm10,%ymm10 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,179,104,3,0 // vorps 0x368b3(%rip){1to8},%ymm10,%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,81,105,3,0 // vfnmadd231ps 0x36951(%rip){1to8},%ymm10,%ymm14 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,75,105,3,0 // vaddps 0x3694b(%rip){1to8},%ymm10,%ymm10 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,70,105,3,0 // vbroadcastss 0x36946(%rip),%ymm13 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,119,114,3,0 // vbroadcastss 0x37277(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,21,56,168,53,117,114,3,0 // vfmadd213ps 0x37275(%rip){1to8},%ymm13,%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,103,114,3,0 // vandps 0x37267(%rip){1to8},%ymm10,%ymm10 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,189,113,3,0 // vorps 0x371bd(%rip){1to8},%ymm10,%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,53,91,114,3,0 // vfnmadd231ps 0x3725b(%rip){1to8},%ymm10,%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,85,114,3,0 // vaddps 0x37255(%rip){1to8},%ymm10,%ymm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,80,114,3,0 // vbroadcastss 0x37250(%rip),%ymm13 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,241,124,56,88,5,38,105,3,0 // vaddps 0x36926(%rip){1to8},%ymm0,%ymm0 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,5,32,105,3,0 // vfnmadd231ps 0x36920(%rip){1to8},%ymm10,%ymm0 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,27,105,3,0 // vbroadcastss 0x3691b(%rip),%ymm13 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,124,56,88,5,48,114,3,0 // vaddps 0x37230(%rip){1to8},%ymm0,%ymm0 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,5,42,114,3,0 // vfnmadd231ps 0x3722a(%rip){1to8},%ymm10,%ymm0 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,37,114,3,0 // vbroadcastss 0x37225(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,17,105,3,0 // vbroadcastss 0x36911(%rip),%ymm13 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,27,114,3,0 // vbroadcastss 0x3721b(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 98,241,124,56,89,5,1,105,3,0 // vmulps 0x36901(%rip){1to8},%ymm0,%ymm0 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,124,56,89,5,11,114,3,0 // vmulps 0x3720b(%rip){1to8},%ymm0,%ymm0 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,195,125,74,195,192 // vblendvps %ymm12,%ymm11,%ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,193,124,95,195 // vmaxps %ymm11,%ymm0,%ymm0
- .byte 98,241,124,56,93,5,23,104,3,0 // vminps 0x36817(%rip){1to8},%ymm0,%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,33,113,3,0 // vminps 0x37121(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -2987,33 +3035,33 @@ _sk_parametric_g_skx:
.byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
.byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
.byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,92,104,3,0 // vbroadcastss 0x3685c(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,90,104,3,0 // vfmadd213ps 0x3685a(%rip){1to8},%ymm13,%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,76,104,3,0 // vandps 0x3684c(%rip){1to8},%ymm10,%ymm10 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,162,103,3,0 // vorps 0x367a2(%rip){1to8},%ymm10,%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,64,104,3,0 // vfnmadd231ps 0x36840(%rip){1to8},%ymm10,%ymm14 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,58,104,3,0 // vaddps 0x3683a(%rip){1to8},%ymm10,%ymm10 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,53,104,3,0 // vbroadcastss 0x36835(%rip),%ymm13 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,102,113,3,0 // vbroadcastss 0x37166(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,21,56,168,53,100,113,3,0 // vfmadd213ps 0x37164(%rip){1to8},%ymm13,%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,86,113,3,0 // vandps 0x37156(%rip){1to8},%ymm10,%ymm10 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,172,112,3,0 // vorps 0x370ac(%rip){1to8},%ymm10,%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,53,74,113,3,0 // vfnmadd231ps 0x3714a(%rip){1to8},%ymm10,%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,68,113,3,0 // vaddps 0x37144(%rip){1to8},%ymm10,%ymm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,63,113,3,0 // vbroadcastss 0x3713f(%rip),%ymm13 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 98,241,116,56,88,13,21,104,3,0 // vaddps 0x36815(%rip){1to8},%ymm1,%ymm1 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,13,15,104,3,0 // vfnmadd231ps 0x3680f(%rip){1to8},%ymm10,%ymm1 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,10,104,3,0 // vbroadcastss 0x3680a(%rip),%ymm13 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,116,56,88,13,31,113,3,0 // vaddps 0x3711f(%rip){1to8},%ymm1,%ymm1 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,13,25,113,3,0 // vfnmadd231ps 0x37119(%rip){1to8},%ymm10,%ymm1 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,20,113,3,0 // vbroadcastss 0x37114(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,0,104,3,0 // vbroadcastss 0x36800(%rip),%ymm13 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,10,113,3,0 // vbroadcastss 0x3710a(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 98,241,116,56,89,13,240,103,3,0 // vmulps 0x367f0(%rip){1to8},%ymm1,%ymm1 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,116,56,89,13,250,112,3,0 // vmulps 0x370fa(%rip){1to8},%ymm1,%ymm1 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,193,116,95,203 // vmaxps %ymm11,%ymm1,%ymm1
- .byte 98,241,116,56,93,13,6,103,3,0 // vminps 0x36706(%rip){1to8},%ymm1,%ymm1 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,93,13,16,112,3,0 // vminps 0x37010(%rip){1to8},%ymm1,%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3033,33 +3081,33 @@ _sk_parametric_b_skx:
.byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
.byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
.byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,75,103,3,0 // vbroadcastss 0x3674b(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,73,103,3,0 // vfmadd213ps 0x36749(%rip){1to8},%ymm13,%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,59,103,3,0 // vandps 0x3673b(%rip){1to8},%ymm10,%ymm10 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,145,102,3,0 // vorps 0x36691(%rip){1to8},%ymm10,%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,47,103,3,0 // vfnmadd231ps 0x3672f(%rip){1to8},%ymm10,%ymm14 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,41,103,3,0 // vaddps 0x36729(%rip){1to8},%ymm10,%ymm10 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,36,103,3,0 // vbroadcastss 0x36724(%rip),%ymm13 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,85,112,3,0 // vbroadcastss 0x37055(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,21,56,168,53,83,112,3,0 // vfmadd213ps 0x37053(%rip){1to8},%ymm13,%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,69,112,3,0 // vandps 0x37045(%rip){1to8},%ymm10,%ymm10 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,155,111,3,0 // vorps 0x36f9b(%rip){1to8},%ymm10,%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,53,57,112,3,0 // vfnmadd231ps 0x37039(%rip){1to8},%ymm10,%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,51,112,3,0 // vaddps 0x37033(%rip){1to8},%ymm10,%ymm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,46,112,3,0 // vbroadcastss 0x3702e(%rip),%ymm13 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 98,241,108,56,88,21,4,103,3,0 // vaddps 0x36704(%rip){1to8},%ymm2,%ymm2 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,21,254,102,3,0 // vfnmadd231ps 0x366fe(%rip){1to8},%ymm10,%ymm2 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,249,102,3,0 // vbroadcastss 0x366f9(%rip),%ymm13 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,108,56,88,21,14,112,3,0 // vaddps 0x3700e(%rip){1to8},%ymm2,%ymm2 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,21,8,112,3,0 // vfnmadd231ps 0x37008(%rip){1to8},%ymm10,%ymm2 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,3,112,3,0 // vbroadcastss 0x37003(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,239,102,3,0 // vbroadcastss 0x366ef(%rip),%ymm13 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,249,111,3,0 // vbroadcastss 0x36ff9(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 98,241,108,56,89,21,223,102,3,0 // vmulps 0x366df(%rip){1to8},%ymm2,%ymm2 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,108,56,89,21,233,111,3,0 // vmulps 0x36fe9(%rip){1to8},%ymm2,%ymm2 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,195,109,74,211,192 // vblendvps %ymm12,%ymm11,%ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,211 // vmaxps %ymm11,%ymm2,%ymm2
- .byte 98,241,108,56,93,21,245,101,3,0 // vminps 0x365f5(%rip){1to8},%ymm2,%ymm2 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,108,56,93,21,255,110,3,0 // vminps 0x36eff(%rip){1to8},%ymm2,%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3079,33 +3127,33 @@ _sk_parametric_a_skx:
.byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
.byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
.byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,58,102,3,0 // vbroadcastss 0x3663a(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,56,102,3,0 // vfmadd213ps 0x36638(%rip){1to8},%ymm13,%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,42,102,3,0 // vandps 0x3662a(%rip){1to8},%ymm10,%ymm10 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,128,101,3,0 // vorps 0x36580(%rip){1to8},%ymm10,%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,30,102,3,0 // vfnmadd231ps 0x3661e(%rip){1to8},%ymm10,%ymm14 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,24,102,3,0 // vaddps 0x36618(%rip){1to8},%ymm10,%ymm10 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,19,102,3,0 // vbroadcastss 0x36613(%rip),%ymm13 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,68,111,3,0 // vbroadcastss 0x36f44(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 98,114,21,56,168,53,66,111,3,0 // vfmadd213ps 0x36f42(%rip){1to8},%ymm13,%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,52,111,3,0 // vandps 0x36f34(%rip){1to8},%ymm10,%ymm10 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,138,110,3,0 // vorps 0x36e8a(%rip){1to8},%ymm10,%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,53,40,111,3,0 // vfnmadd231ps 0x36f28(%rip){1to8},%ymm10,%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,34,111,3,0 // vaddps 0x36f22(%rip){1to8},%ymm10,%ymm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,29,111,3,0 // vbroadcastss 0x36f1d(%rip),%ymm13 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 98,241,100,56,88,29,243,101,3,0 // vaddps 0x365f3(%rip){1to8},%ymm3,%ymm3 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,29,237,101,3,0 // vfnmadd231ps 0x365ed(%rip){1to8},%ymm10,%ymm3 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,232,101,3,0 // vbroadcastss 0x365e8(%rip),%ymm13 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,241,100,56,88,29,253,110,3,0 // vaddps 0x36efd(%rip){1to8},%ymm3,%ymm3 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,29,247,110,3,0 // vfnmadd231ps 0x36ef7(%rip){1to8},%ymm10,%ymm3 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,242,110,3,0 // vbroadcastss 0x36ef2(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,222,101,3,0 // vbroadcastss 0x365de(%rip),%ymm13 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,232,110,3,0 // vbroadcastss 0x36ee8(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 98,241,100,56,89,29,206,101,3,0 // vmulps 0x365ce(%rip){1to8},%ymm3,%ymm3 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 98,241,100,56,89,29,216,110,3,0 // vmulps 0x36ed8(%rip){1to8},%ymm3,%ymm3 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,195,101,74,219,192 // vblendvps %ymm12,%ymm11,%ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,193,100,95,219 // vmaxps %ymm11,%ymm3,%ymm3
- .byte 98,241,100,56,93,29,228,100,3,0 // vminps 0x364e4(%rip){1to8},%ymm3,%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,100,56,93,29,238,109,3,0 // vminps 0x36dee(%rip){1to8},%ymm3,%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3119,34 +3167,34 @@ _sk_gamma_skx:
.byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
.byte 98,241,124,40,194,199,0 // vcmpeqps %ymm7,%ymm0,%k0
.byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 196,98,125,24,29,82,101,3,0 // vbroadcastss 0x36552(%rip),%ymm11 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,37,77,101,3,0 // vbroadcastss 0x3654d(%rip),%ymm12 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,29,92,110,3,0 // vbroadcastss 0x36e5c(%rip),%ymm11 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,37,87,110,3,0 // vbroadcastss 0x36e57(%rip),%ymm12 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,193,124,84,196 // vandps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,45,159,100,3,0 // vbroadcastss 0x3649f(%rip),%ymm13 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,45,169,109,3,0 // vbroadcastss 0x36da9(%rip),%ymm13 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,124,86,197 // vorps %ymm13,%ymm0,%ymm0
- .byte 196,98,125,24,53,53,101,3,0 // vbroadcastss 0x36535(%rip),%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,63,110,3,0 // vbroadcastss 0x36e3f(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm10
- .byte 196,98,125,24,61,43,101,3,0 // vbroadcastss 0x3652b(%rip),%ymm15 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,61,53,110,3,0 // vbroadcastss 0x36e35(%rip),%ymm15 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,125,188,215 // vfnmadd231ps %ymm15,%ymm0,%ymm10
- .byte 98,226,125,40,24,5,32,101,3,0 // vbroadcastss 0x36520(%rip),%ymm16 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 98,226,125,40,24,5,42,110,3,0 // vbroadcastss 0x36e2a(%rip),%ymm16 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 98,177,124,40,88,192 // vaddps %ymm16,%ymm0,%ymm0
- .byte 98,226,125,40,24,13,20,101,3,0 // vbroadcastss 0x36514(%rip),%ymm17 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 98,226,125,40,24,13,30,110,3,0 // vbroadcastss 0x36e1e(%rip),%ymm17 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 98,241,116,32,94,192 // vdivps %ymm0,%ymm17,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
.byte 98,177,124,40,89,194 // vmulps %ymm18,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,226,125,40,24,29,237,100,3,0 // vbroadcastss 0x364ed(%rip),%ymm19 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,226,125,40,24,29,247,109,3,0 // vbroadcastss 0x36df7(%rip),%ymm19 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 98,177,124,40,88,195 // vaddps %ymm19,%ymm0,%ymm0
- .byte 98,226,125,40,24,37,225,100,3,0 // vbroadcastss 0x364e1(%rip),%ymm20 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 98,226,125,40,24,37,235,109,3,0 // vbroadcastss 0x36deb(%rip),%ymm20 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 98,178,45,40,188,196 // vfnmadd231ps %ymm20,%ymm10,%ymm0
- .byte 98,226,125,40,24,45,213,100,3,0 // vbroadcastss 0x364d5(%rip),%ymm21 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,226,125,40,24,45,223,109,3,0 // vbroadcastss 0x36ddf(%rip),%ymm21 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 98,81,84,32,92,210 // vsubps %ymm10,%ymm21,%ymm10
- .byte 98,226,125,40,24,53,201,100,3,0 // vbroadcastss 0x364c9(%rip),%ymm22 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 98,226,125,40,24,53,211,109,3,0 // vbroadcastss 0x36dd3(%rip),%ymm22 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 98,81,76,32,94,210 // vdivps %ymm10,%ymm22,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,185,100,3,0 // vbroadcastss 0x364b9(%rip),%ymm10 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,21,195,109,3,0 // vbroadcastss 0x36dc3(%rip),%ymm10 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,227,125,74,199,144 // vblendvps %ymm9,%ymm7,%ymm0,%ymm0
@@ -3206,34 +3254,34 @@ _sk_gamma_dst_skx:
.byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
.byte 98,241,92,40,194,199,0 // vcmpeqps %ymm7,%ymm4,%k0
.byte 197,124,91,212 // vcvtdq2ps %ymm4,%ymm10
- .byte 196,98,125,24,29,104,99,3,0 // vbroadcastss 0x36368(%rip),%ymm11 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,37,99,99,3,0 // vbroadcastss 0x36363(%rip),%ymm12 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,29,114,108,3,0 // vbroadcastss 0x36c72(%rip),%ymm11 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,37,109,108,3,0 // vbroadcastss 0x36c6d(%rip),%ymm12 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,193,92,84,228 // vandps %ymm12,%ymm4,%ymm4
- .byte 196,98,125,24,45,181,98,3,0 // vbroadcastss 0x362b5(%rip),%ymm13 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,45,191,107,3,0 // vbroadcastss 0x36bbf(%rip),%ymm13 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,92,86,229 // vorps %ymm13,%ymm4,%ymm4
- .byte 196,98,125,24,53,75,99,3,0 // vbroadcastss 0x3634b(%rip),%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,85,108,3,0 // vbroadcastss 0x36c55(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm10
- .byte 196,98,125,24,61,65,99,3,0 // vbroadcastss 0x36341(%rip),%ymm15 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,61,75,108,3,0 // vbroadcastss 0x36c4b(%rip),%ymm15 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,93,188,215 // vfnmadd231ps %ymm15,%ymm4,%ymm10
- .byte 98,226,125,40,24,5,54,99,3,0 // vbroadcastss 0x36336(%rip),%ymm16 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 98,226,125,40,24,5,64,108,3,0 // vbroadcastss 0x36c40(%rip),%ymm16 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 98,177,92,40,88,224 // vaddps %ymm16,%ymm4,%ymm4
- .byte 98,226,125,40,24,13,42,99,3,0 // vbroadcastss 0x3632a(%rip),%ymm17 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 98,226,125,40,24,13,52,108,3,0 // vbroadcastss 0x36c34(%rip),%ymm17 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 98,241,116,32,94,228 // vdivps %ymm4,%ymm17,%ymm4
.byte 197,172,92,228 // vsubps %ymm4,%ymm10,%ymm4
.byte 98,177,92,40,89,226 // vmulps %ymm18,%ymm4,%ymm4
.byte 196,99,125,8,212,1 // vroundps $0x1,%ymm4,%ymm10
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
.byte 196,65,92,92,210 // vsubps %ymm10,%ymm4,%ymm10
- .byte 98,226,125,40,24,29,3,99,3,0 // vbroadcastss 0x36303(%rip),%ymm19 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 98,226,125,40,24,29,13,108,3,0 // vbroadcastss 0x36c0d(%rip),%ymm19 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 98,177,92,40,88,227 // vaddps %ymm19,%ymm4,%ymm4
- .byte 98,226,125,40,24,37,247,98,3,0 // vbroadcastss 0x362f7(%rip),%ymm20 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 98,226,125,40,24,37,1,108,3,0 // vbroadcastss 0x36c01(%rip),%ymm20 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 98,178,45,40,188,228 // vfnmadd231ps %ymm20,%ymm10,%ymm4
- .byte 98,226,125,40,24,45,235,98,3,0 // vbroadcastss 0x362eb(%rip),%ymm21 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 98,226,125,40,24,45,245,107,3,0 // vbroadcastss 0x36bf5(%rip),%ymm21 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 98,81,84,32,92,210 // vsubps %ymm10,%ymm21,%ymm10
- .byte 98,226,125,40,24,53,223,98,3,0 // vbroadcastss 0x362df(%rip),%ymm22 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 98,226,125,40,24,53,233,107,3,0 // vbroadcastss 0x36be9(%rip),%ymm22 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 98,81,76,32,94,210 // vdivps %ymm10,%ymm22,%ymm10
.byte 196,193,92,88,226 // vaddps %ymm10,%ymm4,%ymm4
- .byte 196,98,125,24,21,207,98,3,0 // vbroadcastss 0x362cf(%rip),%ymm10 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,21,217,107,3,0 // vbroadcastss 0x36bd9(%rip),%ymm10 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,193,92,89,226 // vmulps %ymm10,%ymm4,%ymm4
.byte 197,253,91,228 // vcvtps2dq %ymm4,%ymm4
.byte 196,227,93,74,231,144 // vblendvps %ymm9,%ymm7,%ymm4,%ymm4
@@ -3287,23 +3335,23 @@ HIDDEN _sk_lab_to_xyz_skx
.globl _sk_lab_to_xyz_skx
FUNCTION(_sk_lab_to_xyz_skx)
_sk_lab_to_xyz_skx:
- .byte 196,98,125,24,5,199,97,3,0 // vbroadcastss 0x361c7(%rip),%ymm8 # 398c8 <_sk_srcover_bgra_8888_sse2_lowp+0x374>
- .byte 196,98,125,24,13,38,97,3,0 // vbroadcastss 0x36126(%rip),%ymm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,125,24,21,185,97,3,0 // vbroadcastss 0x361b9(%rip),%ymm10 # 398cc <_sk_srcover_bgra_8888_sse2_lowp+0x378>
+ .byte 196,98,125,24,5,209,106,3,0 // vbroadcastss 0x36ad1(%rip),%ymm8 # 3a2dc <_sk_srcover_bgra_8888_sse2_lowp+0x374>
+ .byte 196,98,125,24,13,48,106,3,0 // vbroadcastss 0x36a30(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,195,106,3,0 // vbroadcastss 0x36ac3(%rip),%ymm10 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 98,114,125,56,168,5,169,97,3,0 // vfmadd213ps 0x361a9(%rip){1to8},%ymm0,%ymm8 # 398d0 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
- .byte 98,241,60,56,89,5,163,97,3,0 // vmulps 0x361a3(%rip){1to8},%ymm8,%ymm0 # 398d4 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
- .byte 98,242,125,56,152,13,157,97,3,0 // vfmadd132ps 0x3619d(%rip){1to8},%ymm0,%ymm1 # 398d8 <_sk_srcover_bgra_8888_sse2_lowp+0x384>
- .byte 98,242,125,56,156,21,151,97,3,0 // vfnmadd132ps 0x36197(%rip){1to8},%ymm0,%ymm2 # 398dc <_sk_srcover_bgra_8888_sse2_lowp+0x388>
+ .byte 98,114,125,56,168,5,179,106,3,0 // vfmadd213ps 0x36ab3(%rip){1to8},%ymm0,%ymm8 # 3a2e4 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
+ .byte 98,241,60,56,89,5,173,106,3,0 // vmulps 0x36aad(%rip){1to8},%ymm8,%ymm0 # 3a2e8 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
+ .byte 98,242,125,56,152,13,167,106,3,0 // vfmadd132ps 0x36aa7(%rip){1to8},%ymm0,%ymm1 # 3a2ec <_sk_srcover_bgra_8888_sse2_lowp+0x384>
+ .byte 98,242,125,56,156,21,161,106,3,0 // vfnmadd132ps 0x36aa1(%rip){1to8},%ymm0,%ymm2 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,137,97,3,0 // vbroadcastss 0x36189(%rip),%ymm9 # 398e0 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
+ .byte 196,98,125,24,13,147,106,3,0 // vbroadcastss 0x36a93(%rip),%ymm9 # 3a2f4 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
.byte 98,209,52,40,194,192,1 // vcmpltps %ymm8,%ymm9,%k0
.byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
- .byte 196,98,125,24,29,119,97,3,0 // vbroadcastss 0x36177(%rip),%ymm11 # 398e4 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
+ .byte 196,98,125,24,29,129,106,3,0 // vbroadcastss 0x36a81(%rip),%ymm11 # 3a2f8 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,109,97,3,0 // vbroadcastss 0x3616d(%rip),%ymm12 # 398e8 <_sk_srcover_bgra_8888_sse2_lowp+0x394>
+ .byte 196,98,125,24,37,119,106,3,0 // vbroadcastss 0x36a77(%rip),%ymm12 # 3a2fc <_sk_srcover_bgra_8888_sse2_lowp+0x394>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -3320,8 +3368,8 @@ _sk_lab_to_xyz_skx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 98,241,60,56,89,5,18,97,3,0 // vmulps 0x36112(%rip){1to8},%ymm8,%ymm0 # 398ec <_sk_srcover_bgra_8888_sse2_lowp+0x398>
- .byte 98,241,108,56,89,21,12,97,3,0 // vmulps 0x3610c(%rip){1to8},%ymm2,%ymm2 # 398f0 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
+ .byte 98,241,60,56,89,5,28,106,3,0 // vmulps 0x36a1c(%rip){1to8},%ymm8,%ymm0 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
+ .byte 98,241,108,56,89,21,22,106,3,0 // vmulps 0x36a16(%rip){1to8},%ymm2,%ymm2 # 3a304 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3336,12 +3384,12 @@ _sk_load_a8_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 3831 <_sk_load_a8_skx+0x49>
+ .byte 117,49 // jne 393b <_sk_load_a8_skx+0x49>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,194,104,3,0 // vpand 0x368c2(%rip),%xmm0,%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,249,219,5,216,113,3,0 // vpand 0x371d8(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,29,91,96,3,0 // vmulps 0x3605b(%rip){1to8},%ymm0,%ymm3 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,29,101,105,3,0 // vmulps 0x36965(%rip){1to8},%ymm0,%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -3352,15 +3400,15 @@ _sk_load_a8_skx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,192 // ja 3806 <_sk_load_a8_skx+0x1e>
+ .byte 119,192 // ja 3910 <_sk_load_a8_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 38d4 <_sk_load_a8_skx+0xec>
+ .byte 76,141,21,133,0,0,0 // lea 0x85(%rip),%r10 # 39e0 <_sk_load_a8_skx+0xee>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,161 // jmp 3806 <_sk_load_a8_skx+0x1e>
+ .byte 235,161 // jmp 3910 <_sk_load_a8_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -3368,7 +3416,7 @@ _sk_load_a8_skx:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,119,255,255,255 // jmpq 3806 <_sk_load_a8_skx+0x1e>
+ .byte 233,119,255,255,255 // jmpq 3910 <_sk_load_a8_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -3381,23 +3429,24 @@ _sk_load_a8_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,50,255,255,255 // jmpq 3806 <_sk_load_a8_skx+0x1e>
- .byte 134,255 // xchg %bh,%bh
+ .byte 233,50,255,255,255 // jmpq 3910 <_sk_load_a8_skx+0x1e>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 132,255 // test %bh,%bh
.byte 255 // (bad)
- .byte 255,160,255,255,255,145 // jmpq *-0x6e000001(%rax)
+ .byte 255,158,255,255,255,143 // lcall *-0x70000001(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,224 // jmpq *%rax
.byte 255 // (bad)
+ .byte 222,255 // fdivrp %st,%st(7)
.byte 255 // (bad)
- .byte 255,213 // callq *%rbp
+ .byte 255,211 // callq *%rbx
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,202 // dec %edx
+ .byte 255,200 // dec %eax
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 187 // .byte 0xbb
+ .byte 185 // .byte 0xb9
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -3413,12 +3462,12 @@ _sk_load_a8_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 3939 <_sk_load_a8_dst_skx+0x49>
+ .byte 117,49 // jne 3a45 <_sk_load_a8_dst_skx+0x49>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,186,103,3,0 // vpand 0x367ba(%rip),%xmm4,%xmm4 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,217,219,37,206,112,3,0 // vpand 0x370ce(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,61,83,95,3,0 // vmulps 0x35f53(%rip){1to8},%ymm4,%ymm7 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,92,56,89,61,91,104,3,0 // vmulps 0x3685b(%rip){1to8},%ymm4,%ymm7 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -3429,15 +3478,15 @@ _sk_load_a8_dst_skx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,192 // ja 390e <_sk_load_a8_dst_skx+0x1e>
+ .byte 119,192 // ja 3a1a <_sk_load_a8_dst_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 39dc <_sk_load_a8_dst_skx+0xec>
+ .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 3ae8 <_sk_load_a8_dst_skx+0xec>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,161 // jmp 390e <_sk_load_a8_dst_skx+0x1e>
+ .byte 235,161 // jmp 3a1a <_sk_load_a8_dst_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -3445,7 +3494,7 @@ _sk_load_a8_dst_skx:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,119,255,255,255 // jmpq 390e <_sk_load_a8_dst_skx+0x1e>
+ .byte 233,119,255,255,255 // jmpq 3a1a <_sk_load_a8_dst_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -3458,7 +3507,7 @@ _sk_load_a8_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,50,255,255,255 // jmpq 390e <_sk_load_a8_dst_skx+0x1e>
+ .byte 233,50,255,255,255 // jmpq 3a1a <_sk_load_a8_dst_skx+0x1e>
.byte 134,255 // xchg %bh,%bh
.byte 255 // (bad)
.byte 255,160,255,255,255,145 // jmpq *-0x6e000001(%rax)
@@ -3534,7 +3583,7 @@ _sk_gather_a8_skx:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,29,150,93,3,0 // vmulps 0x35d96(%rip){1to8},%ymm0,%ymm3 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,29,158,102,3,0 // vmulps 0x3669e(%rip){1to8},%ymm0,%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -3555,13 +3604,16 @@ _sk_store_a8_skx:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 98,113,100,56,89,5,22,93,3,0 // vmulps 0x35d16(%rip){1to8},%ymm3,%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 98,113,60,56,93,5,233,101,3,0 // vminps 0x365e9(%rip){1to8},%ymm8,%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,113,60,56,89,5,11,102,3,0 // vmulps 0x3660b(%rip){1to8},%ymm8,%ymm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 3b3d <_sk_store_a8_skx+0x40>
+ .byte 117,10 // jne 3c5c <_sk_store_a8_skx+0x53>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -3569,43 +3621,41 @@ _sk_store_a8_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 3b39 <_sk_store_a8_skx+0x3c>
+ .byte 119,235 // ja 3c58 <_sk_store_a8_skx+0x4f>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,78,0,0,0 // lea 0x4e(%rip),%r10 # 3bac <_sk_store_a8_skx+0xaf>
+ .byte 76,141,21,79,0,0,0 // lea 0x4f(%rip),%r10 # 3ccc <_sk_store_a8_skx+0xc3>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,201 // jmp 3b39 <_sk_store_a8_skx+0x3c>
+ .byte 235,201 // jmp 3c58 <_sk_store_a8_skx+0x4f>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
.byte 196,66,121,49,192 // vpmovzxbd %xmm8,%xmm8
.byte 98,18,126,8,50,4,24 // vpmovqb %xmm8,(%r8,%r11,1)
- .byte 235,179 // jmp 3b39 <_sk_store_a8_skx+0x3c>
+ .byte 235,179 // jmp 3c58 <_sk_store_a8_skx+0x4f>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 98,18,126,8,49,4,24 // vpmovdb %xmm8,(%r8,%r11,1)
- .byte 235,141 // jmp 3b39 <_sk_store_a8_skx+0x3c>
- .byte 187,255,255,255,204 // mov $0xccffffff,%ebx
+ .byte 235,141 // jmp 3c58 <_sk_store_a8_skx+0x4f>
+ .byte 144 // nop
+ .byte 186,255,255,255,203 // mov $0xcbffffff,%edx
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,196 // inc %esp
+ .byte 255,195 // inc %ebx
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,242 // push %rdx
+ .byte 255,241 // push %rcx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 234 // (bad)
+ .byte 233,255,255,255,225 // jmpq ffffffffe2003ce0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe1fc9d78>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,226 // jmpq *%rdx
.byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 218,255 // (bad)
+ .byte 217,255 // fcos
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -3620,14 +3670,14 @@ _sk_load_g8_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,54 // jne 3c16 <_sk_load_g8_skx+0x4e>
+ .byte 117,54 // jne 3d36 <_sk_load_g8_skx+0x4e>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,226,100,3,0 // vpand 0x364e2(%rip),%xmm0,%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,249,219,5,226,109,3,0 // vpand 0x36de2(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,123,92,3,0 // vmulps 0x35c7b(%rip){1to8},%ymm0,%ymm0 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,5,111,101,3,0 // vmulps 0x3656f(%rip){1to8},%ymm0,%ymm0 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,248,91,3,0 // vbroadcastss 0x35bf8(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,236,100,3,0 // vbroadcastss 0x364ec(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -3636,15 +3686,15 @@ _sk_load_g8_skx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,187 // ja 3be6 <_sk_load_g8_skx+0x1e>
+ .byte 119,187 // ja 3d06 <_sk_load_g8_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3cbc <_sk_load_g8_skx+0xf4>
+ .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3ddc <_sk_load_g8_skx+0xf4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,156 // jmp 3be6 <_sk_load_g8_skx+0x1e>
+ .byte 235,156 // jmp 3d06 <_sk_load_g8_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -3652,7 +3702,7 @@ _sk_load_g8_skx:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,114,255,255,255 // jmpq 3be6 <_sk_load_g8_skx+0x1e>
+ .byte 233,114,255,255,255 // jmpq 3d06 <_sk_load_g8_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -3665,7 +3715,7 @@ _sk_load_g8_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,45,255,255,255 // jmpq 3be6 <_sk_load_g8_skx+0x1e>
+ .byte 233,45,255,255,255 // jmpq 3d06 <_sk_load_g8_skx+0x1e>
.byte 15,31,0 // nopl (%rax)
.byte 131,255,255 // cmp $0xffffffff,%edi
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
@@ -3697,14 +3747,14 @@ _sk_load_g8_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,54 // jne 3d26 <_sk_load_g8_dst_skx+0x4e>
+ .byte 117,54 // jne 3e46 <_sk_load_g8_dst_skx+0x4e>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,210,99,3,0 // vpand 0x363d2(%rip),%xmm4,%xmm4 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,217,219,37,210,108,3,0 // vpand 0x36cd2(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,107,91,3,0 // vmulps 0x35b6b(%rip){1to8},%ymm4,%ymm4 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,92,56,89,37,95,100,3,0 // vmulps 0x3645f(%rip){1to8},%ymm4,%ymm4 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,232,90,3,0 // vbroadcastss 0x35ae8(%rip),%ymm7 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,220,99,3,0 // vbroadcastss 0x363dc(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -3713,15 +3763,15 @@ _sk_load_g8_dst_skx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,187 // ja 3cf6 <_sk_load_g8_dst_skx+0x1e>
+ .byte 119,187 // ja 3e16 <_sk_load_g8_dst_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3dcc <_sk_load_g8_dst_skx+0xf4>
+ .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3eec <_sk_load_g8_dst_skx+0xf4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,156 // jmp 3cf6 <_sk_load_g8_dst_skx+0x1e>
+ .byte 235,156 // jmp 3e16 <_sk_load_g8_dst_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -3729,7 +3779,7 @@ _sk_load_g8_dst_skx:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,114,255,255,255 // jmpq 3cf6 <_sk_load_g8_dst_skx+0x1e>
+ .byte 233,114,255,255,255 // jmpq 3e16 <_sk_load_g8_dst_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -3742,7 +3792,7 @@ _sk_load_g8_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,45,255,255,255 // jmpq 3cf6 <_sk_load_g8_dst_skx+0x1e>
+ .byte 233,45,255,255,255 // jmpq 3e16 <_sk_load_g8_dst_skx+0x1e>
.byte 15,31,0 // nopl (%rax)
.byte 131,255,255 // cmp $0xffffffff,%edi
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
@@ -3818,9 +3868,9 @@ _sk_gather_g8_skx:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,166,89,3,0 // vmulps 0x359a6(%rip){1to8},%ymm0,%ymm0 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 98,241,124,56,89,5,154,98,3,0 // vmulps 0x3629a(%rip){1to8},%ymm0,%ymm0 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,35,89,3,0 // vbroadcastss 0x35923(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,23,98,3,0 // vbroadcastss 0x36217(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -3841,42 +3891,42 @@ _sk_load_565_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,96 // jne 3f6d <_sk_load_565_skx+0x7b>
+ .byte 117,96 // jne 408d <_sk_load_565_skx+0x7b>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 98,241,109,56,219,5,94,89,3,0 // vpandd 0x3595e(%rip){1to8},%ymm2,%ymm0 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,241,109,56,219,5,82,98,3,0 // vpandd 0x36252(%rip){1to8},%ymm2,%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,84,89,3,0 // vmulps 0x35954(%rip){1to8},%ymm0,%ymm0 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,241,109,56,219,13,78,89,3,0 // vpandd 0x3594e(%rip){1to8},%ymm2,%ymm1 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,241,124,56,89,5,72,98,3,0 // vmulps 0x36248(%rip){1to8},%ymm0,%ymm0 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,241,109,56,219,13,66,98,3,0 // vpandd 0x36242(%rip){1to8},%ymm2,%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,68,89,3,0 // vmulps 0x35944(%rip){1to8},%ymm1,%ymm1 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,241,109,56,219,21,62,89,3,0 // vpandd 0x3593e(%rip){1to8},%ymm2,%ymm2 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,241,116,56,89,13,56,98,3,0 // vmulps 0x36238(%rip){1to8},%ymm1,%ymm1 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,241,109,56,219,21,50,98,3,0 // vpandd 0x36232(%rip){1to8},%ymm2,%ymm2 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,52,89,3,0 // vmulps 0x35934(%rip){1to8},%ymm2,%ymm2 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,241,108,56,89,21,40,98,3,0 // vmulps 0x36228(%rip){1to8},%ymm2,%ymm2 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,153,88,3,0 // vbroadcastss 0x35899(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,141,97,3,0 // vbroadcastss 0x3618d(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,145 // ja 3f13 <_sk_load_565_skx+0x21>
+ .byte 119,145 // ja 4033 <_sk_load_565_skx+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 4008 <_sk_load_565_skx+0x116>
+ .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 4128 <_sk_load_565_skx+0x116>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,111,255,255,255 // jmpq 3f13 <_sk_load_565_skx+0x21>
+ .byte 233,111,255,255,255 // jmpq 4033 <_sk_load_565_skx+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,130,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,72,255,255,255 // jmpq 3f13 <_sk_load_565_skx+0x21>
+ .byte 233,72,255,255,255 // jmpq 4033 <_sk_load_565_skx+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
@@ -3886,7 +3936,7 @@ _sk_load_565_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,132 // vpshufd $0x84,%xmm1,%xmm1
.byte 197,241,109,192 // vpunpckhqdq %xmm0,%xmm1,%xmm0
- .byte 233,14,255,255,255 // jmpq 3f13 <_sk_load_565_skx+0x21>
+ .byte 233,14,255,255,255 // jmpq 4033 <_sk_load_565_skx+0x21>
.byte 15,31,0 // nopl (%rax)
.byte 142,255 // mov %edi,%?
.byte 255 // (bad)
@@ -3919,42 +3969,42 @@ _sk_load_565_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,96 // jne 409f <_sk_load_565_dst_skx+0x7b>
+ .byte 117,96 // jne 41bf <_sk_load_565_dst_skx+0x7b>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 98,241,77,56,219,37,44,88,3,0 // vpandd 0x3582c(%rip){1to8},%ymm6,%ymm4 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,241,77,56,219,37,32,97,3,0 // vpandd 0x36120(%rip){1to8},%ymm6,%ymm4 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,34,88,3,0 // vmulps 0x35822(%rip){1to8},%ymm4,%ymm4 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,241,77,56,219,45,28,88,3,0 // vpandd 0x3581c(%rip){1to8},%ymm6,%ymm5 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,241,92,56,89,37,22,97,3,0 // vmulps 0x36116(%rip){1to8},%ymm4,%ymm4 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,241,77,56,219,45,16,97,3,0 // vpandd 0x36110(%rip){1to8},%ymm6,%ymm5 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 98,241,84,56,89,45,18,88,3,0 // vmulps 0x35812(%rip){1to8},%ymm5,%ymm5 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,241,77,56,219,53,12,88,3,0 // vpandd 0x3580c(%rip){1to8},%ymm6,%ymm6 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,241,84,56,89,45,6,97,3,0 // vmulps 0x36106(%rip){1to8},%ymm5,%ymm5 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,241,77,56,219,53,0,97,3,0 // vpandd 0x36100(%rip){1to8},%ymm6,%ymm6 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 98,241,76,56,89,53,2,88,3,0 // vmulps 0x35802(%rip){1to8},%ymm6,%ymm6 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,241,76,56,89,53,246,96,3,0 // vmulps 0x360f6(%rip){1to8},%ymm6,%ymm6 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,103,87,3,0 // vbroadcastss 0x35767(%rip),%ymm7 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,91,96,3,0 // vbroadcastss 0x3605b(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,145 // ja 4045 <_sk_load_565_dst_skx+0x21>
+ .byte 119,145 // ja 4165 <_sk_load_565_dst_skx+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 4138 <_sk_load_565_dst_skx+0x114>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 4258 <_sk_load_565_dst_skx+0x114>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,111,255,255,255 // jmpq 4045 <_sk_load_565_dst_skx+0x21>
+ .byte 233,111,255,255,255 // jmpq 4165 <_sk_load_565_dst_skx+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,130,121,52,44,88 // vpmovzxwq (%r8,%r11,2),%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,72,255,255,255 // jmpq 4045 <_sk_load_565_dst_skx+0x21>
+ .byte 233,72,255,255,255 // jmpq 4165 <_sk_load_565_dst_skx+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
@@ -3964,7 +4014,7 @@ _sk_load_565_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,132 // vpshufd $0x84,%xmm5,%xmm5
.byte 197,209,109,228 // vpunpckhqdq %xmm4,%xmm5,%xmm4
- .byte 233,14,255,255,255 // jmpq 4045 <_sk_load_565_dst_skx+0x21>
+ .byte 233,14,255,255,255 // jmpq 4165 <_sk_load_565_dst_skx+0x21>
.byte 144 // nop
.byte 144 // nop
.byte 255 // (bad)
@@ -4040,17 +4090,17 @@ _sk_gather_565_skx:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 98,241,109,56,219,5,71,86,3,0 // vpandd 0x35647(%rip){1to8},%ymm2,%ymm0 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 98,241,109,56,219,5,59,95,3,0 // vpandd 0x35f3b(%rip){1to8},%ymm2,%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,61,86,3,0 // vmulps 0x3563d(%rip){1to8},%ymm0,%ymm0 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,241,109,56,219,13,55,86,3,0 // vpandd 0x35637(%rip){1to8},%ymm2,%ymm1 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 98,241,124,56,89,5,49,95,3,0 // vmulps 0x35f31(%rip){1to8},%ymm0,%ymm0 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 98,241,109,56,219,13,43,95,3,0 // vpandd 0x35f2b(%rip){1to8},%ymm2,%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,45,86,3,0 // vmulps 0x3562d(%rip){1to8},%ymm1,%ymm1 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,241,109,56,219,21,39,86,3,0 // vpandd 0x35627(%rip){1to8},%ymm2,%ymm2 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 98,241,116,56,89,13,33,95,3,0 // vmulps 0x35f21(%rip){1to8},%ymm1,%ymm1 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 98,241,109,56,219,21,27,95,3,0 // vpandd 0x35f1b(%rip){1to8},%ymm2,%ymm2 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,29,86,3,0 // vmulps 0x3561d(%rip){1to8},%ymm2,%ymm2 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 98,241,108,56,89,21,17,95,3,0 // vmulps 0x35f11(%rip){1to8},%ymm2,%ymm2 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,130,85,3,0 // vbroadcastss 0x35582(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,118,94,3,0 // vbroadcastss 0x35e76(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -4068,21 +4118,29 @@ _sk_store_565_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,74,86,3,0 // vbroadcastss 0x3564a(%rip),%ymm8 # 398f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
- .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,21,69,94,3,0 // vbroadcastss 0x35e45(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,98,125,24,29,39,95,3,0 // vbroadcastss 0x35f27(%rip),%ymm11 # 3a308 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
+ .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
- .byte 98,113,116,56,89,21,52,86,3,0 // vmulps 0x35634(%rip){1to8},%ymm1,%ymm10 # 398f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,45,114,242,5 // vpslld $0x5,%ymm10,%ymm10
- .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9
- .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8
+ .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 98,113,28,56,89,37,8,95,3,0 // vmulps 0x35f08(%rip){1to8},%ymm12,%ymm12 # 3a30c <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,29,114,244,5 // vpslld $0x5,%ymm12,%ymm12
+ .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
+ .byte 197,60,95,194 // vmaxps %ymm2,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 42fd <_sk_store_565_skx+0x72>
+ .byte 117,10 // jne 4446 <_sk_store_565_skx+0x9b>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -4090,40 +4148,42 @@ _sk_store_565_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 42f9 <_sk_store_565_skx+0x6e>
+ .byte 119,235 // ja 4442 <_sk_store_565_skx+0x97>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,79,0,0,0 // lea 0x4f(%rip),%r10 # 4368 <_sk_store_565_skx+0xdd>
+ .byte 76,141,21,78,0,0,0 // lea 0x4e(%rip),%r10 # 44b0 <_sk_store_565_skx+0x105>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,206 // jmp 42f9 <_sk_store_565_skx+0x6e>
+ .byte 235,206 // jmp 4442 <_sk_store_565_skx+0x97>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,66,121,52,192 // vpmovzxwq %xmm8,%xmm8
.byte 98,18,126,8,52,4,88 // vpmovqw %xmm8,(%r8,%r11,2)
- .byte 235,184 // jmp 42f9 <_sk_store_565_skx+0x6e>
+ .byte 235,184 // jmp 4442 <_sk_store_565_skx+0x97>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 98,18,126,8,51,4,88 // vpmovdw %xmm8,(%r8,%r11,2)
- .byte 235,146 // jmp 42f9 <_sk_store_565_skx+0x6e>
- .byte 144 // nop
- .byte 186,255,255,255,203 // mov $0xcbffffff,%edx
+ .byte 235,146 // jmp 4442 <_sk_store_565_skx+0x97>
+ .byte 187,255,255,255,204 // mov $0xccffffff,%ebx
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,195 // inc %ebx
+ .byte 255,196 // inc %esp
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,241 // push %rcx
+ .byte 255,242 // push %rdx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,225 // jmpq ffffffffe200437c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe1fcae28>
+ .byte 234 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
+ .byte 255,226 // jmpq *%rdx
.byte 255 // (bad)
- .byte 217,255 // fcos
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 218,255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -4139,21 +4199,21 @@ _sk_load_4444_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 440e <_sk_load_4444_skx+0x8a>
+ .byte 117,111 // jne 4556 <_sk_load_4444_skx+0x8a>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 98,241,101,56,219,5,72,85,3,0 // vpandd 0x35548(%rip){1to8},%ymm3,%ymm0 # 398fc <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 98,241,101,56,219,5,20,94,3,0 // vpandd 0x35e14(%rip){1to8},%ymm3,%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,62,85,3,0 // vmulps 0x3553e(%rip){1to8},%ymm0,%ymm0 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 98,241,101,56,219,13,56,85,3,0 // vpandd 0x35538(%rip){1to8},%ymm3,%ymm1 # 39904 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 98,241,124,56,89,5,10,94,3,0 // vmulps 0x35e0a(%rip){1to8},%ymm0,%ymm0 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 98,241,101,56,219,13,4,94,3,0 // vpandd 0x35e04(%rip){1to8},%ymm3,%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,46,85,3,0 // vmulps 0x3552e(%rip){1to8},%ymm1,%ymm1 # 39908 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 98,241,101,56,219,21,40,85,3,0 // vpandd 0x35528(%rip){1to8},%ymm3,%ymm2 # 3990c <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 98,241,116,56,89,13,250,93,3,0 // vmulps 0x35dfa(%rip){1to8},%ymm1,%ymm1 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 98,241,101,56,219,21,244,93,3,0 // vpandd 0x35df4(%rip){1to8},%ymm3,%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,30,85,3,0 // vmulps 0x3551e(%rip){1to8},%ymm2,%ymm2 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 98,241,101,56,219,29,24,85,3,0 // vpandd 0x35518(%rip){1to8},%ymm3,%ymm3 # 39914 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 98,241,108,56,89,21,234,93,3,0 // vmulps 0x35dea(%rip){1to8},%ymm2,%ymm2 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 98,241,101,56,219,29,228,93,3,0 // vpandd 0x35de4(%rip){1to8},%ymm3,%ymm3 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,14,85,3,0 // vmulps 0x3550e(%rip){1to8},%ymm3,%ymm3 # 39918 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 98,241,100,56,89,29,218,93,3,0 // vmulps 0x35dda(%rip){1to8},%ymm3,%ymm3 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -4161,22 +4221,22 @@ _sk_load_4444_skx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,130 // ja 43a5 <_sk_load_4444_skx+0x21>
+ .byte 119,130 // ja 44ed <_sk_load_4444_skx+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 44a8 <_sk_load_4444_skx+0x124>
+ .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 45f0 <_sk_load_4444_skx+0x124>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,96,255,255,255 // jmpq 43a5 <_sk_load_4444_skx+0x21>
+ .byte 233,96,255,255,255 // jmpq 44ed <_sk_load_4444_skx+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,130,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,57,255,255,255 // jmpq 43a5 <_sk_load_4444_skx+0x21>
+ .byte 233,57,255,255,255 // jmpq 44ed <_sk_load_4444_skx+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
@@ -4186,7 +4246,7 @@ _sk_load_4444_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,132 // vpshufd $0x84,%xmm1,%xmm1
.byte 197,241,109,192 // vpunpckhqdq %xmm0,%xmm1,%xmm0
- .byte 233,255,254,255,255 // jmpq 43a5 <_sk_load_4444_skx+0x21>
+ .byte 233,255,254,255,255 // jmpq 44ed <_sk_load_4444_skx+0x21>
.byte 102,144 // xchg %ax,%ax
.byte 143 // (bad)
.byte 255 // (bad)
@@ -4220,21 +4280,21 @@ _sk_load_4444_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 454e <_sk_load_4444_dst_skx+0x8a>
+ .byte 117,111 // jne 4696 <_sk_load_4444_dst_skx+0x8a>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 98,241,69,56,219,37,8,84,3,0 // vpandd 0x35408(%rip){1to8},%ymm7,%ymm4 # 398fc <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 98,241,69,56,219,37,212,92,3,0 // vpandd 0x35cd4(%rip){1to8},%ymm7,%ymm4 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,254,83,3,0 // vmulps 0x353fe(%rip){1to8},%ymm4,%ymm4 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 98,241,69,56,219,45,248,83,3,0 // vpandd 0x353f8(%rip){1to8},%ymm7,%ymm5 # 39904 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 98,241,92,56,89,37,202,92,3,0 // vmulps 0x35cca(%rip){1to8},%ymm4,%ymm4 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 98,241,69,56,219,45,196,92,3,0 // vpandd 0x35cc4(%rip){1to8},%ymm7,%ymm5 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 98,241,84,56,89,45,238,83,3,0 // vmulps 0x353ee(%rip){1to8},%ymm5,%ymm5 # 39908 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 98,241,69,56,219,53,232,83,3,0 // vpandd 0x353e8(%rip){1to8},%ymm7,%ymm6 # 3990c <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 98,241,84,56,89,45,186,92,3,0 // vmulps 0x35cba(%rip){1to8},%ymm5,%ymm5 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 98,241,69,56,219,53,180,92,3,0 // vpandd 0x35cb4(%rip){1to8},%ymm7,%ymm6 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 98,241,76,56,89,53,222,83,3,0 // vmulps 0x353de(%rip){1to8},%ymm6,%ymm6 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 98,241,69,56,219,61,216,83,3,0 // vpandd 0x353d8(%rip){1to8},%ymm7,%ymm7 # 39914 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 98,241,76,56,89,53,170,92,3,0 // vmulps 0x35caa(%rip){1to8},%ymm6,%ymm6 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 98,241,69,56,219,61,164,92,3,0 // vpandd 0x35ca4(%rip){1to8},%ymm7,%ymm7 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 98,241,68,56,89,61,206,83,3,0 // vmulps 0x353ce(%rip){1to8},%ymm7,%ymm7 # 39918 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 98,241,68,56,89,61,154,92,3,0 // vmulps 0x35c9a(%rip){1to8},%ymm7,%ymm7 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -4242,22 +4302,22 @@ _sk_load_4444_dst_skx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,130 // ja 44e5 <_sk_load_4444_dst_skx+0x21>
+ .byte 119,130 // ja 462d <_sk_load_4444_dst_skx+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 45e8 <_sk_load_4444_dst_skx+0x124>
+ .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 4730 <_sk_load_4444_dst_skx+0x124>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,96,255,255,255 // jmpq 44e5 <_sk_load_4444_dst_skx+0x21>
+ .byte 233,96,255,255,255 // jmpq 462d <_sk_load_4444_dst_skx+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,130,121,52,44,88 // vpmovzxwq (%r8,%r11,2),%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,57,255,255,255 // jmpq 44e5 <_sk_load_4444_dst_skx+0x21>
+ .byte 233,57,255,255,255 // jmpq 462d <_sk_load_4444_dst_skx+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
@@ -4267,7 +4327,7 @@ _sk_load_4444_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,132 // vpshufd $0x84,%xmm5,%xmm5
.byte 197,209,109,228 // vpunpckhqdq %xmm4,%xmm5,%xmm4
- .byte 233,255,254,255,255 // jmpq 44e5 <_sk_load_4444_dst_skx+0x21>
+ .byte 233,255,254,255,255 // jmpq 462d <_sk_load_4444_dst_skx+0x21>
.byte 102,144 // xchg %ax,%ax
.byte 143 // (bad)
.byte 255 // (bad)
@@ -4343,18 +4403,18 @@ _sk_gather_4444_skx:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 98,241,101,56,219,5,19,82,3,0 // vpandd 0x35213(%rip){1to8},%ymm3,%ymm0 # 398fc <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 98,241,101,56,219,5,223,90,3,0 // vpandd 0x35adf(%rip){1to8},%ymm3,%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,9,82,3,0 // vmulps 0x35209(%rip){1to8},%ymm0,%ymm0 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 98,241,101,56,219,13,3,82,3,0 // vpandd 0x35203(%rip){1to8},%ymm3,%ymm1 # 39904 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 98,241,124,56,89,5,213,90,3,0 // vmulps 0x35ad5(%rip){1to8},%ymm0,%ymm0 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 98,241,101,56,219,13,207,90,3,0 // vpandd 0x35acf(%rip){1to8},%ymm3,%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,249,81,3,0 // vmulps 0x351f9(%rip){1to8},%ymm1,%ymm1 # 39908 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 98,241,101,56,219,21,243,81,3,0 // vpandd 0x351f3(%rip){1to8},%ymm3,%ymm2 # 3990c <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 98,241,116,56,89,13,197,90,3,0 // vmulps 0x35ac5(%rip){1to8},%ymm1,%ymm1 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 98,241,101,56,219,21,191,90,3,0 // vpandd 0x35abf(%rip){1to8},%ymm3,%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,233,81,3,0 // vmulps 0x351e9(%rip){1to8},%ymm2,%ymm2 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 98,241,101,56,219,29,227,81,3,0 // vpandd 0x351e3(%rip){1to8},%ymm3,%ymm3 # 39914 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 98,241,108,56,89,21,181,90,3,0 // vmulps 0x35ab5(%rip){1to8},%ymm2,%ymm2 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 98,241,101,56,219,29,175,90,3,0 // vpandd 0x35aaf(%rip){1to8},%ymm3,%ymm3 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,217,81,3,0 // vmulps 0x351d9(%rip){1to8},%ymm3,%ymm3 # 39918 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 98,241,100,56,89,29,165,90,3,0 // vmulps 0x35aa5(%rip){1to8},%ymm3,%ymm3 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -4373,25 +4433,35 @@ _sk_store_4444_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,179,81,3,0 // vbroadcastss 0x351b3(%rip),%ymm8 # 3991c <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
- .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,21,94,89,3,0 // vbroadcastss 0x3595e(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,98,125,24,29,104,90,3,0 // vbroadcastss 0x35a68(%rip),%ymm11 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
+ .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
- .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10
- .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9
- .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
+ .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12
+ .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
+ .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,29,114,244,4 // vpslld $0x4,%ymm12,%ymm12
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
+ .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 47cc <_sk_store_4444_skx+0x82>
+ .byte 117,10 // jne 4946 <_sk_store_4444_skx+0xb4>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -4399,40 +4469,42 @@ _sk_store_4444_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 47c8 <_sk_store_4444_skx+0x7e>
+ .byte 119,235 // ja 4942 <_sk_store_4444_skx+0xb0>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,80,0,0,0 // lea 0x50(%rip),%r10 # 4838 <_sk_store_4444_skx+0xee>
+ .byte 76,141,21,78,0,0,0 // lea 0x4e(%rip),%r10 # 49b0 <_sk_store_4444_skx+0x11e>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,206 // jmp 47c8 <_sk_store_4444_skx+0x7e>
+ .byte 235,206 // jmp 4942 <_sk_store_4444_skx+0xb0>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,66,121,52,192 // vpmovzxwq %xmm8,%xmm8
.byte 98,18,126,8,52,4,88 // vpmovqw %xmm8,(%r8,%r11,2)
- .byte 235,184 // jmp 47c8 <_sk_store_4444_skx+0x7e>
+ .byte 235,184 // jmp 4942 <_sk_store_4444_skx+0xb0>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 98,18,126,8,51,4,88 // vpmovdw %xmm8,(%r8,%r11,2)
- .byte 235,146 // jmp 47c8 <_sk_store_4444_skx+0x7e>
- .byte 102,144 // xchg %ax,%ax
- .byte 185,255,255,255,202 // mov $0xcaffffff,%ecx
+ .byte 235,146 // jmp 4942 <_sk_store_4444_skx+0xb0>
+ .byte 187,255,255,255,204 // mov $0xccffffff,%ebx
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,194 // inc %edx
+ .byte 255,196 // inc %esp
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,240 // push %rax
+ .byte 255,242 // push %rdx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe100484c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fcb2f8>
+ .byte 234 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
+ .byte 255,226 // jmpq *%rdx
.byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 218,255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -4448,13 +4520,13 @@ _sk_load_8888_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 48d1 <_sk_load_8888_skx+0x7d>
+ .byte 117,97 // jne 4a49 <_sk_load_8888_skx+0x7d>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,234,79,3,0 // vbroadcastss 0x34fea(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,134,88,3,0 // vbroadcastss 0x35886(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,245,114,211,8 // vpsrld $0x8,%ymm3,%ymm1
.byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
@@ -4474,14 +4546,14 @@ _sk_load_8888_skx:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,144 // ja 4876 <_sk_load_8888_skx+0x22>
+ .byte 119,144 // ja 49ee <_sk_load_8888_skx+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 497c <_sk_load_8888_skx+0x128>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4af4 <_sk_load_8888_skx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 233,113,255,255,255 // jmpq 4876 <_sk_load_8888_skx+0x22>
+ .byte 233,113,255,255,255 // jmpq 49ee <_sk_load_8888_skx+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4489,7 +4561,7 @@ _sk_load_8888_skx:
.byte 196,130,121,53,4,152 // vpmovzxdq (%r8,%r11,4),%xmm0
.byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,72,255,255,255 // jmpq 4876 <_sk_load_8888_skx+0x22>
+ .byte 233,72,255,255,255 // jmpq 49ee <_sk_load_8888_skx+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4502,9 +4574,9 @@ _sk_load_8888_skx:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,252,254,255,255 // jmpq 4876 <_sk_load_8888_skx+0x22>
+ .byte 233,252,254,255,255 // jmpq 49ee <_sk_load_8888_skx+0x22>
.byte 102,144 // xchg %ax,%ax
- .byte 126,255 // jle 497d <_sk_load_8888_skx+0x129>
+ .byte 126,255 // jle 4af5 <_sk_load_8888_skx+0x129>
.byte 255 // (bad)
.byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -4535,13 +4607,13 @@ _sk_load_8888_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4a15 <_sk_load_8888_dst_skx+0x7d>
+ .byte 117,97 // jne 4b8d <_sk_load_8888_dst_skx+0x7d>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,166,78,3,0 // vbroadcastss 0x34ea6(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,66,87,3,0 // vbroadcastss 0x35742(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,213,114,215,8 // vpsrld $0x8,%ymm7,%ymm5
.byte 98,241,127,169,111,237 // vmovdqu8 %ymm5,%ymm5{%k1}{z}
@@ -4561,14 +4633,14 @@ _sk_load_8888_dst_skx:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,144 // ja 49ba <_sk_load_8888_dst_skx+0x22>
+ .byte 119,144 // ja 4b32 <_sk_load_8888_dst_skx+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4ac0 <_sk_load_8888_dst_skx+0x128>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4c38 <_sk_load_8888_dst_skx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,113,255,255,255 // jmpq 49ba <_sk_load_8888_dst_skx+0x22>
+ .byte 233,113,255,255,255 // jmpq 4b32 <_sk_load_8888_dst_skx+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4576,7 +4648,7 @@ _sk_load_8888_dst_skx:
.byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4
.byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,72,255,255,255 // jmpq 49ba <_sk_load_8888_dst_skx+0x22>
+ .byte 233,72,255,255,255 // jmpq 4b32 <_sk_load_8888_dst_skx+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4589,9 +4661,9 @@ _sk_load_8888_dst_skx:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,252,254,255,255 // jmpq 49ba <_sk_load_8888_dst_skx+0x22>
+ .byte 233,252,254,255,255 // jmpq 4b32 <_sk_load_8888_dst_skx+0x22>
.byte 102,144 // xchg %ax,%ax
- .byte 126,255 // jle 4ac1 <_sk_load_8888_dst_skx+0x129>
+ .byte 126,255 // jle 4c39 <_sk_load_8888_dst_skx+0x129>
.byte 255 // (bad)
.byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -4635,7 +4707,7 @@ _sk_gather_8888_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,57,77,3,0 // vbroadcastss 0x34d39(%rip),%ymm3 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,213,85,3,0 // vbroadcastss 0x355d5(%rip),%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
.byte 196,193,117,114,208,8 // vpsrld $0x8,%ymm8,%ymm1
.byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
@@ -4662,23 +4734,33 @@ _sk_store_8888_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,142,76,3,0 // vbroadcastss 0x34c8e(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,21,245,84,3,0 // vbroadcastss 0x354f5(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,98,125,24,29,19,85,3,0 // vbroadcastss 0x35513(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10
- .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9
- .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,45,114,242,16 // vpslld $0x10,%ymm10,%ymm10
- .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
+ .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12
+ .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
+ .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,29,114,244,16 // vpslld $0x10,%ymm12,%ymm12
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8
- .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
+ .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 4bfa <_sk_store_8888_skx+0x78>
+ .byte 117,10 // jne 4da4 <_sk_store_8888_skx+0xaa>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -4686,18 +4768,18 @@ _sk_store_8888_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 4bf6 <_sk_store_8888_skx+0x74>
+ .byte 119,235 // ja 4da0 <_sk_store_8888_skx+0xa6>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,90,0,0,0 // lea 0x5a(%rip),%r10 # 4c70 <_sk_store_8888_skx+0xee>
+ .byte 76,141,21,88,0,0,0 // lea 0x58(%rip),%r10 # 4e18 <_sk_store_8888_skx+0x11e>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,207 // jmp 4bf6 <_sk_store_8888_skx+0x74>
+ .byte 235,207 // jmp 4da0 <_sk_store_8888_skx+0xa6>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
.byte 98,18,126,8,53,4,152 // vpmovqd %xmm8,(%r8,%r11,4)
- .byte 235,185 // jmp 4bf6 <_sk_store_8888_skx+0x74>
+ .byte 235,185 // jmp 4da0 <_sk_store_8888_skx+0xa6>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -4705,23 +4787,23 @@ _sk_store_8888_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,136 // jmp 4bf6 <_sk_store_8888_skx+0x74>
- .byte 102,144 // xchg %ax,%ax
- .byte 175 // scas %es:(%rdi),%eax
+ .byte 235,136 // jmp 4da0 <_sk_store_8888_skx+0xa6>
+ .byte 177,255 // mov $0xff,%cl
.byte 255 // (bad)
+ .byte 255,193 // inc %ecx
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 191,255,255,255,183 // mov $0xb7ffffff,%edi
.byte 255 // (bad)
+ .byte 185,255,255,255,248 // mov $0xf8ffffff,%ecx
.byte 255 // (bad)
- .byte 255,246 // push %rsi
.byte 255 // (bad)
.byte 255 // (bad)
+ .byte 235,255 // jmp 4e29 <_sk_store_8888_skx+0x12f>
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc004c84 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfcb730>
.byte 255 // (bad)
+ .byte 221,255 // (bad)
.byte 255 // (bad)
- .byte 255,205 // dec %ebp
+ .byte 255,207 // dec %edi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -4738,13 +4820,13 @@ _sk_load_bgra_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4d09 <_sk_load_bgra_skx+0x7d>
+ .byte 117,97 // jne 4eb1 <_sk_load_bgra_skx+0x7d>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,178,75,3,0 // vbroadcastss 0x34bb2(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,30,84,3,0 // vbroadcastss 0x3541e(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
.byte 197,253,114,211,8 // vpsrld $0x8,%ymm3,%ymm0
.byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
@@ -4764,14 +4846,14 @@ _sk_load_bgra_skx:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,144 // ja 4cae <_sk_load_bgra_skx+0x22>
+ .byte 119,144 // ja 4e56 <_sk_load_bgra_skx+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4db4 <_sk_load_bgra_skx+0x128>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4f5c <_sk_load_bgra_skx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 233,113,255,255,255 // jmpq 4cae <_sk_load_bgra_skx+0x22>
+ .byte 233,113,255,255,255 // jmpq 4e56 <_sk_load_bgra_skx+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4779,7 +4861,7 @@ _sk_load_bgra_skx:
.byte 196,130,121,53,4,152 // vpmovzxdq (%r8,%r11,4),%xmm0
.byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,72,255,255,255 // jmpq 4cae <_sk_load_bgra_skx+0x22>
+ .byte 233,72,255,255,255 // jmpq 4e56 <_sk_load_bgra_skx+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4792,9 +4874,9 @@ _sk_load_bgra_skx:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,252,254,255,255 // jmpq 4cae <_sk_load_bgra_skx+0x22>
+ .byte 233,252,254,255,255 // jmpq 4e56 <_sk_load_bgra_skx+0x22>
.byte 102,144 // xchg %ax,%ax
- .byte 126,255 // jle 4db5 <_sk_load_bgra_skx+0x129>
+ .byte 126,255 // jle 4f5d <_sk_load_bgra_skx+0x129>
.byte 255 // (bad)
.byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -4825,13 +4907,13 @@ _sk_load_bgra_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4e4d <_sk_load_bgra_dst_skx+0x7d>
+ .byte 117,97 // jne 4ff5 <_sk_load_bgra_dst_skx+0x7d>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,110,74,3,0 // vbroadcastss 0x34a6e(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,218,82,3,0 // vbroadcastss 0x352da(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
.byte 197,221,114,215,8 // vpsrld $0x8,%ymm7,%ymm4
.byte 98,241,127,169,111,228 // vmovdqu8 %ymm4,%ymm4{%k1}{z}
@@ -4851,14 +4933,14 @@ _sk_load_bgra_dst_skx:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,144 // ja 4df2 <_sk_load_bgra_dst_skx+0x22>
+ .byte 119,144 // ja 4f9a <_sk_load_bgra_dst_skx+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4ef8 <_sk_load_bgra_dst_skx+0x128>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 50a0 <_sk_load_bgra_dst_skx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,113,255,255,255 // jmpq 4df2 <_sk_load_bgra_dst_skx+0x22>
+ .byte 233,113,255,255,255 // jmpq 4f9a <_sk_load_bgra_dst_skx+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4866,7 +4948,7 @@ _sk_load_bgra_dst_skx:
.byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4
.byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,72,255,255,255 // jmpq 4df2 <_sk_load_bgra_dst_skx+0x22>
+ .byte 233,72,255,255,255 // jmpq 4f9a <_sk_load_bgra_dst_skx+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -4879,9 +4961,9 @@ _sk_load_bgra_dst_skx:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,252,254,255,255 // jmpq 4df2 <_sk_load_bgra_dst_skx+0x22>
+ .byte 233,252,254,255,255 // jmpq 4f9a <_sk_load_bgra_dst_skx+0x22>
.byte 102,144 // xchg %ax,%ax
- .byte 126,255 // jle 4ef9 <_sk_load_bgra_dst_skx+0x129>
+ .byte 126,255 // jle 50a1 <_sk_load_bgra_dst_skx+0x129>
.byte 255 // (bad)
.byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -4925,7 +5007,7 @@ _sk_gather_bgra_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,1,73,3,0 // vbroadcastss 0x34901(%rip),%ymm3 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,109,81,3,0 // vbroadcastss 0x3516d(%rip),%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
.byte 196,193,125,114,208,8 // vpsrld $0x8,%ymm8,%ymm0
.byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
@@ -4952,23 +5034,33 @@ _sk_store_bgra_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,86,72,3,0 // vbroadcastss 0x34856(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9
+ .byte 196,98,125,24,21,141,80,3,0 // vbroadcastss 0x3508d(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,98,125,24,29,171,80,3,0 // vbroadcastss 0x350ab(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10
- .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9
- .byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,45,114,242,16 // vpslld $0x10,%ymm10,%ymm10
- .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
+ .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12
+ .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
+ .byte 197,60,95,224 // vmaxps %ymm0,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,29,114,244,16 // vpslld $0x10,%ymm12,%ymm12
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8
- .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
+ .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 5032 <_sk_store_bgra_skx+0x78>
+ .byte 117,10 // jne 520c <_sk_store_bgra_skx+0xaa>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -4976,18 +5068,18 @@ _sk_store_bgra_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 502e <_sk_store_bgra_skx+0x74>
+ .byte 119,235 // ja 5208 <_sk_store_bgra_skx+0xa6>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,90,0,0,0 // lea 0x5a(%rip),%r10 # 50a8 <_sk_store_bgra_skx+0xee>
+ .byte 76,141,21,88,0,0,0 // lea 0x58(%rip),%r10 # 5280 <_sk_store_bgra_skx+0x11e>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,207 // jmp 502e <_sk_store_bgra_skx+0x74>
+ .byte 235,207 // jmp 5208 <_sk_store_bgra_skx+0xa6>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
.byte 98,18,126,8,53,4,152 // vpmovqd %xmm8,(%r8,%r11,4)
- .byte 235,185 // jmp 502e <_sk_store_bgra_skx+0x74>
+ .byte 235,185 // jmp 5208 <_sk_store_bgra_skx+0xa6>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -4995,23 +5087,23 @@ _sk_store_bgra_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,136 // jmp 502e <_sk_store_bgra_skx+0x74>
- .byte 102,144 // xchg %ax,%ax
- .byte 175 // scas %es:(%rdi),%eax
+ .byte 235,136 // jmp 5208 <_sk_store_bgra_skx+0xa6>
+ .byte 177,255 // mov $0xff,%cl
.byte 255 // (bad)
+ .byte 255,193 // inc %ecx
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 191,255,255,255,183 // mov $0xb7ffffff,%edi
.byte 255 // (bad)
+ .byte 185,255,255,255,248 // mov $0xf8ffffff,%ecx
.byte 255 // (bad)
- .byte 255,246 // push %rsi
.byte 255 // (bad)
.byte 255 // (bad)
+ .byte 235,255 // jmp 5291 <_sk_store_bgra_skx+0x12f>
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc0050bc <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfcbb68>
.byte 255 // (bad)
+ .byte 221,255 // (bad)
.byte 255 // (bad)
- .byte 255,205 // dec %ebp
+ .byte 255,207 // dec %edi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -5028,7 +5120,7 @@ _sk_load_f16_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne 5145 <_sk_load_f16_skx+0x81>
+ .byte 117,101 // jne 531d <_sk_load_f16_skx+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,76,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm1
@@ -5054,29 +5146,29 @@ _sk_load_f16_skx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 51ab <_sk_load_f16_skx+0xe7>
+ .byte 116,85 // je 5383 <_sk_load_f16_skx+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 51ab <_sk_load_f16_skx+0xe7>
+ .byte 114,72 // jb 5383 <_sk_load_f16_skx+0xe7>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 51b8 <_sk_load_f16_skx+0xf4>
+ .byte 116,72 // je 5390 <_sk_load_f16_skx+0xf4>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 51b8 <_sk_load_f16_skx+0xf4>
+ .byte 114,59 // jb 5390 <_sk_load_f16_skx+0xf4>
.byte 196,193,123,16,76,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm1
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je 50fb <_sk_load_f16_skx+0x37>
+ .byte 15,132,109,255,255,255 // je 52d3 <_sk_load_f16_skx+0x37>
.byte 196,193,113,22,76,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm1,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb 50fb <_sk_load_f16_skx+0x37>
+ .byte 15,130,92,255,255,255 // jb 52d3 <_sk_load_f16_skx+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq 50fb <_sk_load_f16_skx+0x37>
+ .byte 233,80,255,255,255 // jmpq 52d3 <_sk_load_f16_skx+0x37>
.byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,67,255,255,255 // jmpq 50fb <_sk_load_f16_skx+0x37>
+ .byte 233,67,255,255,255 // jmpq 52d3 <_sk_load_f16_skx+0x37>
.byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
- .byte 233,58,255,255,255 // jmpq 50fb <_sk_load_f16_skx+0x37>
+ .byte 233,58,255,255,255 // jmpq 52d3 <_sk_load_f16_skx+0x37>
HIDDEN _sk_load_f16_dst_skx
.globl _sk_load_f16_dst_skx
@@ -5090,7 +5182,7 @@ _sk_load_f16_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne 5242 <_sk_load_f16_dst_skx+0x81>
+ .byte 117,101 // jne 541a <_sk_load_f16_dst_skx+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,108,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm5
@@ -5116,29 +5208,29 @@ _sk_load_f16_dst_skx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 52a8 <_sk_load_f16_dst_skx+0xe7>
+ .byte 116,85 // je 5480 <_sk_load_f16_dst_skx+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 52a8 <_sk_load_f16_dst_skx+0xe7>
+ .byte 114,72 // jb 5480 <_sk_load_f16_dst_skx+0xe7>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 52b5 <_sk_load_f16_dst_skx+0xf4>
+ .byte 116,72 // je 548d <_sk_load_f16_dst_skx+0xf4>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 52b5 <_sk_load_f16_dst_skx+0xf4>
+ .byte 114,59 // jb 548d <_sk_load_f16_dst_skx+0xf4>
.byte 196,193,123,16,108,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm5
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je 51f8 <_sk_load_f16_dst_skx+0x37>
+ .byte 15,132,109,255,255,255 // je 53d0 <_sk_load_f16_dst_skx+0x37>
.byte 196,193,81,22,108,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm5,%xmm5
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb 51f8 <_sk_load_f16_dst_skx+0x37>
+ .byte 15,130,92,255,255,255 // jb 53d0 <_sk_load_f16_dst_skx+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq 51f8 <_sk_load_f16_dst_skx+0x37>
+ .byte 233,80,255,255,255 // jmpq 53d0 <_sk_load_f16_dst_skx+0x37>
.byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,67,255,255,255 // jmpq 51f8 <_sk_load_f16_dst_skx+0x37>
+ .byte 233,67,255,255,255 // jmpq 53d0 <_sk_load_f16_dst_skx+0x37>
.byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5
- .byte 233,58,255,255,255 // jmpq 51f8 <_sk_load_f16_dst_skx+0x37>
+ .byte 233,58,255,255,255 // jmpq 53d0 <_sk_load_f16_dst_skx+0x37>
HIDDEN _sk_gather_f16_skx
.globl _sk_gather_f16_skx
@@ -5213,7 +5305,7 @@ _sk_store_f16_skx:
.byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
.byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 5403 <_sk_store_f16_skx+0x7b>
+ .byte 117,31 // jne 55db <_sk_store_f16_skx+0x7b>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -5222,22 +5314,22 @@ _sk_store_f16_skx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 53ff <_sk_store_f16_skx+0x77>
+ .byte 116,240 // je 55d7 <_sk_store_f16_skx+0x77>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 53ff <_sk_store_f16_skx+0x77>
+ .byte 114,227 // jb 55d7 <_sk_store_f16_skx+0x77>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,218 // je 53ff <_sk_store_f16_skx+0x77>
+ .byte 116,218 // je 55d7 <_sk_store_f16_skx+0x77>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 53ff <_sk_store_f16_skx+0x77>
+ .byte 114,205 // jb 55d7 <_sk_store_f16_skx+0x77>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,196 // je 53ff <_sk_store_f16_skx+0x77>
+ .byte 116,196 // je 55d7 <_sk_store_f16_skx+0x77>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 53ff <_sk_store_f16_skx+0x77>
+ .byte 114,183 // jb 55d7 <_sk_store_f16_skx+0x77>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,174 // jmp 53ff <_sk_store_f16_skx+0x77>
+ .byte 235,174 // jmp 55d7 <_sk_store_f16_skx+0x77>
HIDDEN _sk_load_u16_be_skx
.globl _sk_load_u16_be_skx
@@ -5252,7 +5344,7 @@ _sk_load_u16_be_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,204,0,0,0 // jne 5544 <_sk_load_u16_be_skx+0xf3>
+ .byte 15,133,204,0,0,0 // jne 571c <_sk_load_u16_be_skx+0xf3>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -5271,7 +5363,7 @@ _sk_load_u16_be_skx:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,191,67,3,0 // vbroadcastss 0x343bf(%rip),%ymm10 # 39898 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,21,251,75,3,0 // vbroadcastss 0x34bfb(%rip),%ymm10 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -5299,29 +5391,29 @@ _sk_load_u16_be_skx:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 55aa <_sk_load_u16_be_skx+0x159>
+ .byte 116,85 // je 5782 <_sk_load_u16_be_skx+0x159>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 55aa <_sk_load_u16_be_skx+0x159>
+ .byte 114,72 // jb 5782 <_sk_load_u16_be_skx+0x159>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 55b7 <_sk_load_u16_be_skx+0x166>
+ .byte 116,72 // je 578f <_sk_load_u16_be_skx+0x166>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 55b7 <_sk_load_u16_be_skx+0x166>
+ .byte 114,59 // jb 578f <_sk_load_u16_be_skx+0x166>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,6,255,255,255 // je 5493 <_sk_load_u16_be_skx+0x42>
+ .byte 15,132,6,255,255,255 // je 566b <_sk_load_u16_be_skx+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,245,254,255,255 // jb 5493 <_sk_load_u16_be_skx+0x42>
+ .byte 15,130,245,254,255,255 // jb 566b <_sk_load_u16_be_skx+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,233,254,255,255 // jmpq 5493 <_sk_load_u16_be_skx+0x42>
+ .byte 233,233,254,255,255 // jmpq 566b <_sk_load_u16_be_skx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,220,254,255,255 // jmpq 5493 <_sk_load_u16_be_skx+0x42>
+ .byte 233,220,254,255,255 // jmpq 566b <_sk_load_u16_be_skx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,211,254,255,255 // jmpq 5493 <_sk_load_u16_be_skx+0x42>
+ .byte 233,211,254,255,255 // jmpq 566b <_sk_load_u16_be_skx+0x42>
HIDDEN _sk_load_rgb_u16_be_skx
.globl _sk_load_rgb_u16_be_skx
@@ -5338,7 +5430,7 @@ _sk_load_rgb_u16_be_skx:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,202,0,0,0 // jne 56b5 <_sk_load_rgb_u16_be_skx+0xf5>
+ .byte 15,133,202,0,0,0 // jne 588d <_sk_load_rgb_u16_be_skx+0xf5>
.byte 196,65,121,16,28,64 // vmovupd (%r8,%rax,2),%xmm11
.byte 196,193,121,16,92,64,12 // vmovupd 0xc(%r8,%rax,2),%xmm3
.byte 196,193,121,16,84,64,24 // vmovupd 0x18(%r8,%rax,2),%xmm2
@@ -5362,7 +5454,7 @@ _sk_load_rgb_u16_be_skx:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,49,66,3,0 // vbroadcastss 0x34231(%rip),%ymm9 # 39898 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,109,74,3,0 // vbroadcastss 0x34a6d(%rip),%ymm9 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -5378,121 +5470,131 @@ _sk_load_rgb_u16_be_skx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,81,65,3,0 // vbroadcastss 0x34151(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,141,73,3,0 // vbroadcastss 0x3498d(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 56ed <_sk_load_rgb_u16_be_skx+0x12d>
+ .byte 117,31 // jne 58c5 <_sk_load_rgb_u16_be_skx+0x12d>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,48,255,255,255 // jmpq 561d <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,48,255,255,255 // jmpq 57f5 <_sk_load_rgb_u16_be_skx+0x5d>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 5737 <_sk_load_rgb_u16_be_skx+0x177>
+ .byte 114,48 // jb 590f <_sk_load_rgb_u16_be_skx+0x177>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 5751 <_sk_load_rgb_u16_be_skx+0x191>
+ .byte 117,48 // jne 5929 <_sk_load_rgb_u16_be_skx+0x191>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,230,254,255,255 // jmpq 561d <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,230,254,255,255 // jmpq 57f5 <_sk_load_rgb_u16_be_skx+0x5d>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,204,254,255,255 // jmpq 561d <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,204,254,255,255 // jmpq 57f5 <_sk_load_rgb_u16_be_skx+0x5d>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 5792 <_sk_load_rgb_u16_be_skx+0x1d2>
+ .byte 114,39 // jb 596a <_sk_load_rgb_u16_be_skx+0x1d2>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 57a3 <_sk_load_rgb_u16_be_skx+0x1e3>
+ .byte 117,30 // jne 597b <_sk_load_rgb_u16_be_skx+0x1e3>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,139,254,255,255 // jmpq 561d <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,139,254,255,255 // jmpq 57f5 <_sk_load_rgb_u16_be_skx+0x5d>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,122,254,255,255 // jmpq 561d <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,122,254,255,255 // jmpq 57f5 <_sk_load_rgb_u16_be_skx+0x5d>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 57d6 <_sk_load_rgb_u16_be_skx+0x216>
+ .byte 114,25 // jb 59ae <_sk_load_rgb_u16_be_skx+0x216>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,71,254,255,255 // jmpq 561d <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,71,254,255,255 // jmpq 57f5 <_sk_load_rgb_u16_be_skx+0x5d>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,62,254,255,255 // jmpq 561d <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,62,254,255,255 // jmpq 57f5 <_sk_load_rgb_u16_be_skx+0x5d>
HIDDEN _sk_store_u16_be_skx
.globl _sk_store_u16_be_skx
FUNCTION(_sk_store_u16_be_skx)
_sk_store_u16_be_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9d
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
.byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,194 // imul %r10,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 68,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9d
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,26,65,3,0 // vbroadcastss 0x3411a(%rip),%ymm8 # 39920 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
- .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,21,49,72,3,0 // vbroadcastss 0x34831(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,98,125,24,29,63,73,3,0 // vbroadcastss 0x3493f(%rip),%ymm11 # 3a334 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
- .byte 196,66,49,43,202 // vpackusdw %xmm10,%xmm9,%xmm9
- .byte 196,193,41,113,241,8 // vpsllw $0x8,%xmm9,%xmm10
+ .byte 196,67,125,57,204,1 // vextracti128 $0x1,%ymm9,%xmm12
+ .byte 196,66,49,43,204 // vpackusdw %xmm12,%xmm9,%xmm9
+ .byte 196,193,25,113,241,8 // vpsllw $0x8,%xmm9,%xmm12
.byte 196,193,49,113,209,8 // vpsrlw $0x8,%xmm9,%xmm9
- .byte 196,65,41,235,201 // vpor %xmm9,%xmm10,%xmm9
- .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,67,125,57,211,1 // vextracti128 $0x1,%ymm10,%xmm11
- .byte 196,66,41,43,211 // vpackusdw %xmm11,%xmm10,%xmm10
- .byte 196,193,33,113,242,8 // vpsllw $0x8,%xmm10,%xmm11
- .byte 196,193,41,113,210,8 // vpsrlw $0x8,%xmm10,%xmm10
- .byte 196,65,33,235,210 // vpor %xmm10,%xmm11,%xmm10
- .byte 196,65,108,89,216 // vmulps %ymm8,%ymm2,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,67,125,57,220,1 // vextracti128 $0x1,%ymm11,%xmm12
- .byte 196,66,33,43,220 // vpackusdw %xmm12,%xmm11,%xmm11
- .byte 196,193,25,113,243,8 // vpsllw $0x8,%xmm11,%xmm12
- .byte 196,193,33,113,211,8 // vpsrlw $0x8,%xmm11,%xmm11
- .byte 196,65,25,235,219 // vpor %xmm11,%xmm12,%xmm11
- .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
+ .byte 196,65,25,235,201 // vpor %xmm9,%xmm12,%xmm9
+ .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,67,125,57,229,1 // vextracti128 $0x1,%ymm12,%xmm13
+ .byte 196,66,25,43,229 // vpackusdw %xmm13,%xmm12,%xmm12
+ .byte 196,193,17,113,244,8 // vpsllw $0x8,%xmm12,%xmm13
+ .byte 196,193,25,113,212,8 // vpsrlw $0x8,%xmm12,%xmm12
+ .byte 196,65,17,235,228 // vpor %xmm12,%xmm13,%xmm12
+ .byte 197,60,95,234 // vmaxps %ymm2,%ymm8,%ymm13
+ .byte 196,65,20,93,234 // vminps %ymm10,%ymm13,%ymm13
+ .byte 196,65,20,89,235 // vmulps %ymm11,%ymm13,%ymm13
+ .byte 196,65,125,91,237 // vcvtps2dq %ymm13,%ymm13
+ .byte 196,67,125,57,238,1 // vextracti128 $0x1,%ymm13,%xmm14
+ .byte 196,66,17,43,238 // vpackusdw %xmm14,%xmm13,%xmm13
+ .byte 196,193,9,113,245,8 // vpsllw $0x8,%xmm13,%xmm14
+ .byte 196,193,17,113,213,8 // vpsrlw $0x8,%xmm13,%xmm13
+ .byte 196,65,9,235,237 // vpor %xmm13,%xmm14,%xmm13
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,67,125,57,196,1 // vextracti128 $0x1,%ymm8,%xmm12
- .byte 196,66,57,43,196 // vpackusdw %xmm12,%xmm8,%xmm8
- .byte 196,193,25,113,240,8 // vpsllw $0x8,%xmm8,%xmm12
+ .byte 196,67,125,57,194,1 // vextracti128 $0x1,%ymm8,%xmm10
+ .byte 196,66,57,43,194 // vpackusdw %xmm10,%xmm8,%xmm8
+ .byte 196,193,41,113,240,8 // vpsllw $0x8,%xmm8,%xmm10
.byte 196,193,57,113,208,8 // vpsrlw $0x8,%xmm8,%xmm8
- .byte 196,65,25,235,192 // vpor %xmm8,%xmm12,%xmm8
- .byte 196,65,49,97,226 // vpunpcklwd %xmm10,%xmm9,%xmm12
- .byte 196,65,49,105,234 // vpunpckhwd %xmm10,%xmm9,%xmm13
- .byte 196,65,33,97,200 // vpunpcklwd %xmm8,%xmm11,%xmm9
- .byte 196,65,33,105,192 // vpunpckhwd %xmm8,%xmm11,%xmm8
- .byte 196,65,25,98,217 // vpunpckldq %xmm9,%xmm12,%xmm11
- .byte 196,65,25,106,209 // vpunpckhdq %xmm9,%xmm12,%xmm10
- .byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
- .byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
+ .byte 196,65,41,235,192 // vpor %xmm8,%xmm10,%xmm8
+ .byte 196,65,49,97,212 // vpunpcklwd %xmm12,%xmm9,%xmm10
+ .byte 196,65,49,105,228 // vpunpckhwd %xmm12,%xmm9,%xmm12
+ .byte 196,65,17,97,200 // vpunpcklwd %xmm8,%xmm13,%xmm9
+ .byte 196,65,17,105,192 // vpunpckhwd %xmm8,%xmm13,%xmm8
+ .byte 196,65,41,98,217 // vpunpckldq %xmm9,%xmm10,%xmm11
+ .byte 196,65,41,106,209 // vpunpckhdq %xmm9,%xmm10,%xmm10
+ .byte 196,65,25,98,200 // vpunpckldq %xmm8,%xmm12,%xmm9
+ .byte 196,65,25,106,192 // vpunpckhdq %xmm8,%xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 58ea <_sk_store_u16_be_skx+0x10b>
+ .byte 117,31 // jne 5af4 <_sk_store_u16_be_skx+0x13d>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -5501,22 +5603,22 @@ _sk_store_u16_be_skx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 58e6 <_sk_store_u16_be_skx+0x107>
+ .byte 116,240 // je 5af0 <_sk_store_u16_be_skx+0x139>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 58e6 <_sk_store_u16_be_skx+0x107>
+ .byte 114,227 // jb 5af0 <_sk_store_u16_be_skx+0x139>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je 58e6 <_sk_store_u16_be_skx+0x107>
+ .byte 116,218 // je 5af0 <_sk_store_u16_be_skx+0x139>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 58e6 <_sk_store_u16_be_skx+0x107>
+ .byte 114,205 // jb 5af0 <_sk_store_u16_be_skx+0x139>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je 58e6 <_sk_store_u16_be_skx+0x107>
+ .byte 116,196 // je 5af0 <_sk_store_u16_be_skx+0x139>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 58e6 <_sk_store_u16_be_skx+0x107>
+ .byte 114,183 // jb 5af0 <_sk_store_u16_be_skx+0x139>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp 58e6 <_sk_store_u16_be_skx+0x107>
+ .byte 235,174 // jmp 5af0 <_sk_store_u16_be_skx+0x139>
HIDDEN _sk_load_f32_skx
.globl _sk_load_f32_skx
@@ -5526,7 +5628,7 @@ _sk_load_f32_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,63,1,0,0 // ja 5a8d <_sk_load_f32_skx+0x155>
+ .byte 15,135,63,1,0,0 // ja 5c97 <_sk_load_f32_skx+0x155>
.byte 68,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9d
.byte 76,99,80,8 // movslq 0x8(%rax),%r10
.byte 76,99,193 // movslq %ecx,%r8
@@ -5534,7 +5636,7 @@ _sk_load_f32_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 5aa0 <_sk_load_f32_skx+0x168>
+ .byte 76,141,21,44,1,0,0 // lea 0x12c(%rip),%r10 # 5ca8 <_sk_load_f32_skx+0x166>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
@@ -5593,24 +5695,22 @@ _sk_load_f32_skx:
.byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
.byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,196 // jmp 5a61 <_sk_load_f32_skx+0x129>
- .byte 15,31,0 // nopl (%rax)
- .byte 37,255,255,255,181 // and $0xb5ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,157,255,255,255,132 // lcall *-0x7b000001(%rbp)
+ .byte 235,196 // jmp 5c6b <_sk_load_f32_skx+0x129>
+ .byte 144 // nop
+ .byte 39 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,103,255 // jmpq *-0x1(%rdi)
+ .byte 255,183,255,255,255,159 // pushq -0x60000001(%rdi)
.byte 255 // (bad)
- .byte 255,80,255 // callq *-0x1(%rax)
.byte 255 // (bad)
+ .byte 255,134,255,255,255,105 // incl 0x69ffffff(%rsi)
.byte 255 // (bad)
- .byte 63 // (bad)
.byte 255 // (bad)
+ .byte 255,82,255 // callq *-0x1(%rdx)
.byte 255 // (bad)
- .byte 255,50 // pushq (%rdx)
+ .byte 255,65,255 // incl -0x1(%rcx)
.byte 255 // (bad)
+ .byte 255,52,255 // pushq (%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -5622,7 +5722,7 @@ _sk_load_f32_dst_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,63,1,0,0 // ja 5c15 <_sk_load_f32_dst_skx+0x155>
+ .byte 15,135,63,1,0,0 // ja 5e1d <_sk_load_f32_dst_skx+0x155>
.byte 68,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9d
.byte 76,99,80,8 // movslq 0x8(%rax),%r10
.byte 76,99,193 // movslq %ecx,%r8
@@ -5630,7 +5730,7 @@ _sk_load_f32_dst_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 5c28 <_sk_load_f32_dst_skx+0x168>
+ .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 5e30 <_sk_load_f32_dst_skx+0x168>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
@@ -5689,7 +5789,7 @@ _sk_load_f32_dst_skx:
.byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
.byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,196 // jmp 5be9 <_sk_load_f32_dst_skx+0x129>
+ .byte 235,196 // jmp 5df1 <_sk_load_f32_dst_skx+0x129>
.byte 15,31,0 // nopl (%rax)
.byte 37,255,255,255,181 // and $0xb5ffffff,%eax
.byte 255 // (bad)
@@ -5731,7 +5831,7 @@ _sk_store_f32_skx:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne 5cc7 <_sk_store_f32_skx+0x7f>
+ .byte 117,55 // jne 5ecf <_sk_store_f32_skx+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -5744,22 +5844,22 @@ _sk_store_f32_skx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 5cc3 <_sk_store_f32_skx+0x7b>
+ .byte 116,240 // je 5ecb <_sk_store_f32_skx+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 5cc3 <_sk_store_f32_skx+0x7b>
+ .byte 114,227 // jb 5ecb <_sk_store_f32_skx+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je 5cc3 <_sk_store_f32_skx+0x7b>
+ .byte 116,218 // je 5ecb <_sk_store_f32_skx+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 5cc3 <_sk_store_f32_skx+0x7b>
+ .byte 114,205 // jb 5ecb <_sk_store_f32_skx+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je 5cc3 <_sk_store_f32_skx+0x7b>
+ .byte 116,195 // je 5ecb <_sk_store_f32_skx+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb 5cc3 <_sk_store_f32_skx+0x7b>
+ .byte 114,181 // jb 5ecb <_sk_store_f32_skx+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp 5cc3 <_sk_store_f32_skx+0x7b>
+ .byte 235,171 // jmp 5ecb <_sk_store_f32_skx+0x7b>
HIDDEN _sk_repeat_x_skx
.globl _sk_repeat_x_skx
@@ -5796,7 +5896,7 @@ _sk_mirror_x_skx:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,135,58,3,0 // vmulss 0x33a87(%rip),%xmm9,%xmm0 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,5,147,66,3,0 // vmulss 0x34293(%rip),%xmm9,%xmm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -5819,7 +5919,7 @@ _sk_mirror_y_skx:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,54,58,3,0 // vmulss 0x33a36(%rip),%xmm9,%xmm1 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,13,66,66,3,0 // vmulss 0x34242(%rip),%xmm9,%xmm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -5837,7 +5937,7 @@ FUNCTION(_sk_clamp_x_1_skx)
_sk_clamp_x_1_skx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,253,57,3,0 // vminps 0x339fd(%rip){1to8},%ymm0,%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,9,66,3,0 // vminps 0x34209(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -5849,7 +5949,7 @@ _sk_repeat_x_1_skx:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,219,57,3,0 // vminps 0x339db(%rip){1to8},%ymm0,%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,231,65,3,0 // vminps 0x341e7(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -5857,9 +5957,9 @@ HIDDEN _sk_mirror_x_1_skx
.globl _sk_mirror_x_1_skx
FUNCTION(_sk_mirror_x_1_skx)
_sk_mirror_x_1_skx:
- .byte 196,98,125,24,5,230,57,3,0 // vbroadcastss 0x339e6(%rip),%ymm8 # 3981c <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,242,65,3,0 // vbroadcastss 0x341f2(%rip),%ymm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 98,113,124,56,89,13,187,57,3,0 // vmulps 0x339bb(%rip){1to8},%ymm0,%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,113,124,56,89,13,199,65,3,0 // vmulps 0x341c7(%rip){1to8},%ymm0,%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
.byte 196,193,124,92,193 // vsubps %ymm9,%ymm0,%ymm0
@@ -5868,7 +5968,7 @@ _sk_mirror_x_1_skx:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,143,57,3,0 // vminps 0x3398f(%rip){1to8},%ymm0,%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,93,5,155,65,3,0 // vminps 0x3419b(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -5876,9 +5976,9 @@ HIDDEN _sk_luminance_to_alpha_skx
.globl _sk_luminance_to_alpha_skx
FUNCTION(_sk_luminance_to_alpha_skx)
_sk_luminance_to_alpha_skx:
- .byte 98,241,116,56,89,29,161,58,3,0 // vmulps 0x33aa1(%rip){1to8},%ymm1,%ymm3 # 39924 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- .byte 98,242,125,56,184,29,155,58,3,0 // vfmadd231ps 0x33a9b(%rip){1to8},%ymm0,%ymm3 # 39928 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
- .byte 98,242,109,56,184,29,149,58,3,0 // vfmadd231ps 0x33a95(%rip){1to8},%ymm2,%ymm3 # 3992c <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
+ .byte 98,241,116,56,89,29,173,66,3,0 // vmulps 0x342ad(%rip){1to8},%ymm1,%ymm3 # 3a338 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 98,242,125,56,184,29,167,66,3,0 // vfmadd231ps 0x342a7(%rip){1to8},%ymm0,%ymm3 # 3a33c <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
+ .byte 98,242,109,56,184,29,161,66,3,0 // vfmadd231ps 0x342a1(%rip){1to8},%ymm2,%ymm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
@@ -6060,7 +6160,7 @@ _sk_evenly_spaced_gradient_skx:
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,126,91,209 // vcvttps2dq %ymm1,%ymm10
.byte 73,131,249,8 // cmp $0x8,%r9
- .byte 119,73 // ja 6195 <_sk_evenly_spaced_gradient_skx+0x70>
+ .byte 119,73 // ja 639d <_sk_evenly_spaced_gradient_skx+0x70>
.byte 196,66,45,22,0 // vpermps (%r8),%ymm10,%ymm8
.byte 76,139,64,40 // mov 0x28(%rax),%r8
.byte 196,66,45,22,8 // vpermps (%r8),%ymm10,%ymm9
@@ -6076,7 +6176,7 @@ _sk_evenly_spaced_gradient_skx:
.byte 196,194,45,22,24 // vpermps (%r8),%ymm10,%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,98,45,22,40 // vpermps (%rax),%ymm10,%ymm13
- .byte 233,147,0,0,0 // jmpq 6228 <_sk_evenly_spaced_gradient_skx+0x103>
+ .byte 233,147,0,0,0 // jmpq 6430 <_sk_evenly_spaced_gradient_skx+0x103>
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,2,117,146,4,144 // vgatherdps %ymm1,(%r8,%ymm10,4),%ymm8
@@ -6123,11 +6223,11 @@ _sk_gradient_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 15,134,229,0,0,0 // jbe 6338 <_sk_gradient_skx+0xf4>
+ .byte 15,134,229,0,0,0 // jbe 6540 <_sk_gradient_skx+0xf4>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,158,53,3,0 // vbroadcastss 0x3359e(%rip),%ymm2 # 39808 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,226,125,24,21,170,61,3,0 // vbroadcastss 0x33daa(%rip),%ymm2 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
.byte 98,241,100,40,194,192,2 // vcmpleps %ymm0,%ymm3,%k0
@@ -6136,10 +6236,10 @@ _sk_gradient_skx:
.byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9
.byte 73,131,194,1 // add $0x1,%r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,218 // jne 626f <_sk_gradient_skx+0x2b>
+ .byte 117,218 // jne 6477 <_sk_gradient_skx+0x2b>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,134,158,0,0,0 // jbe 6341 <_sk_gradient_skx+0xfd>
+ .byte 15,134,158,0,0,0 // jbe 6549 <_sk_gradient_skx+0xfd>
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,2,117,146,4,137 // vgatherdps %ymm1,(%r9,%ymm9,4),%ymm8
@@ -6171,7 +6271,7 @@ _sk_gradient_skx:
.byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,34,13,146,44,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm13
- .byte 235,77 // jmp 6385 <_sk_gradient_skx+0x141>
+ .byte 235,77 // jmp 658d <_sk_gradient_skx+0x141>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8
@@ -6227,24 +6327,24 @@ _sk_xy_to_unit_angle_skx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,32,53,3,0 // vbroadcastss 0x33520(%rip),%ymm13 # 39930 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- .byte 98,114,29,56,168,45,26,53,3,0 // vfmadd213ps 0x3351a(%rip){1to8},%ymm12,%ymm13 # 39934 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
- .byte 98,114,29,56,168,45,20,53,3,0 // vfmadd213ps 0x33514(%rip){1to8},%ymm12,%ymm13 # 39938 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
- .byte 98,114,29,56,168,45,14,53,3,0 // vfmadd213ps 0x3350e(%rip){1to8},%ymm12,%ymm13 # 3993c <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,45,44,61,3,0 // vbroadcastss 0x33d2c(%rip),%ymm13 # 3a344 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
+ .byte 98,114,29,56,168,45,38,61,3,0 // vfmadd213ps 0x33d26(%rip){1to8},%ymm12,%ymm13 # 3a348 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 98,114,29,56,168,45,32,61,3,0 // vfmadd213ps 0x33d20(%rip){1to8},%ymm12,%ymm13 # 3a34c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 98,114,29,56,168,45,26,61,3,0 // vfmadd213ps 0x33d1a(%rip){1to8},%ymm12,%ymm13 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
.byte 196,65,36,89,221 // vmulps %ymm13,%ymm11,%ymm11
.byte 98,209,52,40,194,194,1 // vcmpltps %ymm10,%ymm9,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,247,52,3,0 // vbroadcastss 0x334f7(%rip),%ymm10 # 39940 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,21,3,61,3,0 // vbroadcastss 0x33d03(%rip),%ymm10 # 3a354 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 98,209,124,40,194,192,1 // vcmpltps %ymm8,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
- .byte 196,98,125,24,21,150,51,3,0 // vbroadcastss 0x33396(%rip),%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,162,59,3,0 // vbroadcastss 0x33ba2(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 98,209,116,40,194,192,1 // vcmpltps %ymm8,%ymm1,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,121,51,3,0 // vbroadcastss 0x33379(%rip),%ymm10 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,133,59,3,0 // vbroadcastss 0x33b85(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 98,209,124,40,194,192,3 // vcmpunordps %ymm8,%ymm0,%k0
@@ -6273,19 +6373,19 @@ _sk_xy_to_2pt_conical_quadratic_first_skx:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 98,113,44,56,89,21,97,52,3,0 // vmulps 0x33461(%rip){1to8},%ymm10,%ymm10 # 39944 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 98,113,44,56,89,21,109,60,3,0 // vmulps 0x33c6d(%rip){1to8},%ymm10,%ymm10 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 98,113,60,56,89,5,68,52,3,0 // vmulps 0x33444(%rip){1to8},%ymm8,%ymm8 # 39948 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 98,113,60,56,89,5,80,60,3,0 // vmulps 0x33c50(%rip){1to8},%ymm8,%ymm8 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 98,113,60,56,89,5,218,50,3,0 // vmulps 0x332da(%rip){1to8},%ymm8,%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,113,60,56,89,5,230,58,3,0 // vmulps 0x33ae6(%rip){1to8},%ymm8,%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6300,19 +6400,19 @@ _sk_xy_to_2pt_conical_quadratic_second_skx:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 98,113,44,56,89,21,240,51,3,0 // vmulps 0x333f0(%rip){1to8},%ymm10,%ymm10 # 39944 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 98,113,44,56,89,21,252,59,3,0 // vmulps 0x33bfc(%rip){1to8},%ymm10,%ymm10 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 98,113,60,56,89,5,211,51,3,0 // vmulps 0x333d3(%rip){1to8},%ymm8,%ymm8 # 39948 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 98,113,60,56,89,5,223,59,3,0 // vmulps 0x33bdf(%rip){1to8},%ymm8,%ymm8 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 98,113,44,56,87,13,186,51,3,0 // vxorps 0x333ba(%rip){1to8},%ymm10,%ymm9 # 3994c <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
- .byte 98,113,60,56,89,5,100,50,3,0 // vmulps 0x33264(%rip){1to8},%ymm8,%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,113,44,56,87,13,198,59,3,0 // vxorps 0x33bc6(%rip){1to8},%ymm10,%ymm9 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 98,113,60,56,89,5,112,58,3,0 // vmulps 0x33a70(%rip){1to8},%ymm8,%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6327,13 +6427,13 @@ _sk_xy_to_2pt_conical_linear_skx:
.byte 197,58,89,72,76 // vmulss 0x4c(%rax),%xmm8,%xmm9
.byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 98,113,52,56,89,13,124,51,3,0 // vmulps 0x3337c(%rip){1to8},%ymm9,%ymm9 # 39944 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 98,113,52,56,89,13,136,59,3,0 // vmulps 0x33b88(%rip){1to8},%ymm9,%ymm9 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
.byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10
.byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 98,241,124,56,87,5,99,51,3,0 // vxorps 0x33363(%rip){1to8},%ymm0,%ymm0 # 3994c <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 98,241,124,56,87,5,111,59,3,0 // vxorps 0x33b6f(%rip){1to8},%ymm0,%ymm0 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6375,7 +6475,7 @@ HIDDEN _sk_save_xy_skx
FUNCTION(_sk_save_xy_skx)
_sk_save_xy_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,164,49,3,0 // vbroadcastss 0x331a4(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,176,57,3,0 // vbroadcastss 0x339b0(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -6410,8 +6510,8 @@ FUNCTION(_sk_bilinear_nx_skx)
_sk_bilinear_nx_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,121,50,3,0 // vaddps 0x33279(%rip){1to8},%ymm0,%ymm0 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,98,125,24,5,36,49,3,0 // vbroadcastss 0x33124(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,88,5,133,58,3,0 // vaddps 0x33a85(%rip){1to8},%ymm0,%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,5,48,57,3,0 // vbroadcastss 0x33930(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6424,7 +6524,7 @@ _sk_bilinear_px_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
- .byte 98,241,124,56,88,5,244,48,3,0 // vaddps 0x330f4(%rip){1to8},%ymm0,%ymm0 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,241,124,56,88,5,0,57,3,0 // vaddps 0x33900(%rip){1to8},%ymm0,%ymm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6435,8 +6535,8 @@ FUNCTION(_sk_bilinear_ny_skx)
_sk_bilinear_ny_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,39,50,3,0 // vaddps 0x33227(%rip){1to8},%ymm1,%ymm1 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,98,125,24,5,210,48,3,0 // vbroadcastss 0x330d2(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,88,13,51,58,3,0 // vaddps 0x33a33(%rip){1to8},%ymm1,%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,5,222,56,3,0 // vbroadcastss 0x338de(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6449,7 +6549,7 @@ _sk_bilinear_py_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
- .byte 98,241,116,56,88,13,161,48,3,0 // vaddps 0x330a1(%rip){1to8},%ymm1,%ymm1 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,241,116,56,88,13,173,56,3,0 // vaddps 0x338ad(%rip){1to8},%ymm1,%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6460,12 +6560,12 @@ FUNCTION(_sk_bicubic_n3x_skx)
_sk_bicubic_n3x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,217,49,3,0 // vaddps 0x331d9(%rip){1to8},%ymm0,%ymm0 # 39954 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- .byte 196,98,125,24,5,128,48,3,0 // vbroadcastss 0x33080(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,88,5,229,57,3,0 // vaddps 0x339e5(%rip){1to8},%ymm0,%ymm0 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,98,125,24,5,140,56,3,0 // vbroadcastss 0x3388c(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,190,49,3,0 // vbroadcastss 0x331be(%rip),%ymm10 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 98,114,61,56,168,21,212,48,3,0 // vfmadd213ps 0x330d4(%rip){1to8},%ymm8,%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,202,57,3,0 // vbroadcastss 0x339ca(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 98,114,61,56,168,21,224,56,3,0 // vfmadd213ps 0x338e0(%rip){1to8},%ymm8,%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6477,13 +6577,13 @@ FUNCTION(_sk_bicubic_n1x_skx)
_sk_bicubic_n1x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,139,49,3,0 // vaddps 0x3318b(%rip){1to8},%ymm0,%ymm0 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,98,125,24,5,54,48,3,0 // vbroadcastss 0x33036(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,124,56,88,5,151,57,3,0 // vaddps 0x33997(%rip){1to8},%ymm0,%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,5,66,56,3,0 // vbroadcastss 0x33842(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,125,49,3,0 // vbroadcastss 0x3317d(%rip),%ymm9 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 98,114,61,56,168,13,119,49,3,0 // vfmadd213ps 0x33177(%rip){1to8},%ymm8,%ymm9 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 98,114,61,56,168,13,13,48,3,0 // vfmadd213ps 0x3300d(%rip){1to8},%ymm8,%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,61,56,168,13,103,49,3,0 // vfmadd213ps 0x33167(%rip){1to8},%ymm8,%ymm9 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,137,57,3,0 // vbroadcastss 0x33989(%rip),%ymm9 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 98,114,61,56,168,13,131,57,3,0 // vfmadd213ps 0x33983(%rip){1to8},%ymm8,%ymm9 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,114,61,56,168,13,25,56,3,0 // vfmadd213ps 0x33819(%rip){1to8},%ymm8,%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,61,56,168,13,115,57,3,0 // vfmadd213ps 0x33973(%rip){1to8},%ymm8,%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 197,124,17,136,0,1,0,0 // vmovups %ymm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6493,13 +6593,13 @@ HIDDEN _sk_bicubic_p1x_skx
FUNCTION(_sk_bicubic_p1x_skx)
_sk_bicubic_p1x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,236,47,3,0 // vbroadcastss 0x32fec(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,248,55,3,0 // vbroadcastss 0x337f8(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,51,49,3,0 // vbroadcastss 0x33133(%rip),%ymm10 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 98,114,53,56,168,21,45,49,3,0 // vfmadd213ps 0x3312d(%rip){1to8},%ymm9,%ymm10 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,63,57,3,0 // vbroadcastss 0x3393f(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 98,114,53,56,168,21,57,57,3,0 // vfmadd213ps 0x33939(%rip){1to8},%ymm9,%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 98,114,53,56,168,21,34,49,3,0 // vfmadd213ps 0x33122(%rip){1to8},%ymm9,%ymm10 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 98,114,53,56,168,21,46,57,3,0 // vfmadd213ps 0x3392e(%rip){1to8},%ymm9,%ymm10 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 197,124,17,144,0,1,0,0 // vmovups %ymm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6511,10 +6611,10 @@ _sk_bicubic_p3x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
- .byte 98,241,124,56,88,5,250,48,3,0 // vaddps 0x330fa(%rip){1to8},%ymm0,%ymm0 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,241,124,56,88,5,6,57,3,0 // vaddps 0x33906(%rip){1to8},%ymm0,%ymm0 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,228,48,3,0 // vbroadcastss 0x330e4(%rip),%ymm10 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 98,114,61,56,168,21,250,47,3,0 // vfmadd213ps 0x32ffa(%rip){1to8},%ymm8,%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,240,56,3,0 // vbroadcastss 0x338f0(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 98,114,61,56,168,21,6,56,3,0 // vfmadd213ps 0x33806(%rip){1to8},%ymm8,%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6526,12 +6626,12 @@ FUNCTION(_sk_bicubic_n3y_skx)
_sk_bicubic_n3y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,180,48,3,0 // vaddps 0x330b4(%rip){1to8},%ymm1,%ymm1 # 39954 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- .byte 196,98,125,24,5,91,47,3,0 // vbroadcastss 0x32f5b(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,88,13,192,56,3,0 // vaddps 0x338c0(%rip){1to8},%ymm1,%ymm1 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,98,125,24,5,103,55,3,0 // vbroadcastss 0x33767(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,153,48,3,0 // vbroadcastss 0x33099(%rip),%ymm10 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 98,114,61,56,168,21,175,47,3,0 // vfmadd213ps 0x32faf(%rip){1to8},%ymm8,%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,165,56,3,0 // vbroadcastss 0x338a5(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 98,114,61,56,168,21,187,55,3,0 // vfmadd213ps 0x337bb(%rip){1to8},%ymm8,%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6543,13 +6643,13 @@ FUNCTION(_sk_bicubic_n1y_skx)
_sk_bicubic_n1y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,101,48,3,0 // vaddps 0x33065(%rip){1to8},%ymm1,%ymm1 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,98,125,24,5,16,47,3,0 // vbroadcastss 0x32f10(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 98,241,116,56,88,13,113,56,3,0 // vaddps 0x33871(%rip){1to8},%ymm1,%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,98,125,24,5,28,55,3,0 // vbroadcastss 0x3371c(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,87,48,3,0 // vbroadcastss 0x33057(%rip),%ymm9 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 98,114,61,56,168,13,81,48,3,0 // vfmadd213ps 0x33051(%rip){1to8},%ymm8,%ymm9 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 98,114,61,56,168,13,231,46,3,0 // vfmadd213ps 0x32ee7(%rip){1to8},%ymm8,%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,61,56,168,13,65,48,3,0 // vfmadd213ps 0x33041(%rip){1to8},%ymm8,%ymm9 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,99,56,3,0 // vbroadcastss 0x33863(%rip),%ymm9 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 98,114,61,56,168,13,93,56,3,0 // vfmadd213ps 0x3385d(%rip){1to8},%ymm8,%ymm9 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,114,61,56,168,13,243,54,3,0 // vfmadd213ps 0x336f3(%rip){1to8},%ymm8,%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 98,114,61,56,168,13,77,56,3,0 // vfmadd213ps 0x3384d(%rip){1to8},%ymm8,%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 197,124,17,136,64,1,0,0 // vmovups %ymm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6559,13 +6659,13 @@ HIDDEN _sk_bicubic_p1y_skx
FUNCTION(_sk_bicubic_p1y_skx)
_sk_bicubic_p1y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,198,46,3,0 // vbroadcastss 0x32ec6(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,210,54,3,0 // vbroadcastss 0x336d2(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
.byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,12,48,3,0 // vbroadcastss 0x3300c(%rip),%ymm10 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 98,114,53,56,168,21,6,48,3,0 // vfmadd213ps 0x33006(%rip){1to8},%ymm9,%ymm10 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,24,56,3,0 // vbroadcastss 0x33818(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 98,114,53,56,168,21,18,56,3,0 // vfmadd213ps 0x33812(%rip){1to8},%ymm9,%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 98,114,53,56,168,21,251,47,3,0 // vfmadd213ps 0x32ffb(%rip){1to8},%ymm9,%ymm10 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 98,114,53,56,168,21,7,56,3,0 // vfmadd213ps 0x33807(%rip){1to8},%ymm9,%ymm10 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 197,124,17,144,64,1,0,0 // vmovups %ymm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -6577,10 +6677,10 @@ _sk_bicubic_p3y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
- .byte 98,241,116,56,88,13,210,47,3,0 // vaddps 0x32fd2(%rip){1to8},%ymm1,%ymm1 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 98,241,116,56,88,13,222,55,3,0 // vaddps 0x337de(%rip){1to8},%ymm1,%ymm1 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,188,47,3,0 // vbroadcastss 0x32fbc(%rip),%ymm10 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 98,114,61,56,168,21,210,46,3,0 // vfmadd213ps 0x32ed2(%rip){1to8},%ymm8,%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,200,55,3,0 // vbroadcastss 0x337c8(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 98,114,61,56,168,21,222,54,3,0 // vfmadd213ps 0x336de(%rip){1to8},%ymm8,%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -6706,7 +6806,7 @@ _sk_clut_3D_skx:
.byte 98,226,61,40,64,224 // vpmulld %ymm0,%ymm8,%ymm20
.byte 98,209,93,32,254,193 // vpaddd %ymm9,%ymm20,%ymm0
.byte 72,139,0 // mov (%rax),%rax
- .byte 98,98,125,40,88,29,198,45,3,0 // vpbroadcastd 0x32dc6(%rip),%ymm27 # 3996c <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 98,98,125,40,88,29,210,53,3,0 // vpbroadcastd 0x335d2(%rip),%ymm27 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 98,146,125,40,64,195 // vpmulld %ymm27,%ymm0,%ymm0
.byte 196,65,45,239,210 // vpxor %ymm10,%ymm10,%ymm10
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
@@ -6719,9 +6819,9 @@ _sk_clut_3D_skx:
.byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
.byte 196,162,37,146,12,144 // vgatherdps %ymm11,(%rax,%ymm10,4),%ymm1
.byte 98,97,124,40,40,233 // vmovaps %ymm1,%ymm29
- .byte 196,98,125,24,21,124,45,3,0 // vbroadcastss 0x32d7c(%rip),%ymm10 # 39968 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,98,125,24,21,136,53,3,0 // vbroadcastss 0x33588(%rip),%ymm10 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 98,81,60,32,88,218 // vaddps %ymm10,%ymm24,%ymm11
- .byte 98,226,125,40,88,5,20,44,3,0 // vpbroadcastd 0x32c14(%rip),%ymm16 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 98,226,125,40,88,5,32,52,3,0 // vpbroadcastd 0x33420(%rip),%ymm16 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 98,177,125,40,254,192 // vpaddd %ymm16,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -6961,7 +7061,7 @@ _sk_clut_4D_skx:
.byte 98,162,45,40,64,229 // vpmulld %ymm21,%ymm10,%ymm20
.byte 98,241,93,32,254,193 // vpaddd %ymm1,%ymm20,%ymm0
.byte 72,139,0 // mov (%rax),%rax
- .byte 98,226,125,40,88,5,88,40,3,0 // vpbroadcastd 0x32858(%rip),%ymm16 # 3996c <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 98,226,125,40,88,5,100,48,3,0 // vpbroadcastd 0x33064(%rip),%ymm16 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 98,50,125,40,64,216 // vpmulld %ymm16,%ymm0,%ymm11
.byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
.byte 197,253,118,192 // vpcmpeqd %ymm0,%ymm0,%ymm0
@@ -6973,9 +7073,9 @@ _sk_clut_4D_skx:
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
.byte 196,98,29,146,44,128 // vgatherdps %ymm12,(%rax,%ymm0,4),%ymm13
.byte 197,124,17,172,36,192,4,0,0 // vmovups %ymm13,0x4c0(%rsp)
- .byte 196,226,125,24,5,10,40,3,0 // vbroadcastss 0x3280a(%rip),%ymm0 # 39968 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,226,125,24,5,22,48,3,0 // vbroadcastss 0x33016(%rip),%ymm0 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 98,113,28,32,88,224 // vaddps %ymm0,%ymm28,%ymm12
- .byte 98,226,125,40,88,13,162,38,3,0 // vpbroadcastd 0x326a2(%rip),%ymm17 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 98,226,125,40,88,13,174,46,3,0 // vpbroadcastd 0x32eae(%rip),%ymm17 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 98,49,37,40,254,217 // vpaddd %ymm17,%ymm11,%ymm11
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
@@ -7380,7 +7480,7 @@ _sk_clut_4D_skx:
.byte 197,228,92,214 // vsubps %ymm6,%ymm3,%ymm2
.byte 196,226,93,168,214 // vfmadd213ps %ymm6,%ymm4,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,64,29,3,0 // vbroadcastss 0x31d40(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,76,37,3,0 // vbroadcastss 0x3254c(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 98,145,124,40,40,227 // vmovaps %ymm27,%ymm4
.byte 197,252,16,108,36,128 // vmovups -0x80(%rsp),%ymm5
.byte 197,252,16,116,36,160 // vmovups -0x60(%rsp),%ymm6
@@ -7392,11 +7492,11 @@ HIDDEN _sk_gauss_a_to_rgba_skx
.globl _sk_gauss_a_to_rgba_skx
FUNCTION(_sk_gauss_a_to_rgba_skx)
_sk_gauss_a_to_rgba_skx:
- .byte 196,226,125,24,5,130,30,3,0 // vbroadcastss 0x31e82(%rip),%ymm0 # 39970 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
- .byte 98,242,101,56,168,5,124,30,3,0 // vfmadd213ps 0x31e7c(%rip){1to8},%ymm3,%ymm0 # 39974 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
- .byte 98,242,101,56,168,5,118,30,3,0 // vfmadd213ps 0x31e76(%rip){1to8},%ymm3,%ymm0 # 39978 <_sk_srcover_bgra_8888_sse2_lowp+0x424>
- .byte 98,242,101,56,168,5,112,30,3,0 // vfmadd213ps 0x31e70(%rip){1to8},%ymm3,%ymm0 # 3997c <_sk_srcover_bgra_8888_sse2_lowp+0x428>
- .byte 98,242,101,56,168,5,106,30,3,0 // vfmadd213ps 0x31e6a(%rip){1to8},%ymm3,%ymm0 # 39980 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
+ .byte 196,226,125,24,5,142,38,3,0 // vbroadcastss 0x3268e(%rip),%ymm0 # 3a384 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
+ .byte 98,242,101,56,168,5,136,38,3,0 // vfmadd213ps 0x32688(%rip){1to8},%ymm3,%ymm0 # 3a388 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
+ .byte 98,242,101,56,168,5,130,38,3,0 // vfmadd213ps 0x32682(%rip){1to8},%ymm3,%ymm0 # 3a38c <_sk_srcover_bgra_8888_sse2_lowp+0x424>
+ .byte 98,242,101,56,168,5,124,38,3,0 // vfmadd213ps 0x3267c(%rip){1to8},%ymm3,%ymm0 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
+ .byte 98,242,101,56,168,5,118,38,3,0 // vfmadd213ps 0x32676(%rip){1to8},%ymm3,%ymm0 # 3a394 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
@@ -7426,13 +7526,13 @@ _sk_start_pipeline_hsw:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 7bf2 <_sk_start_pipeline_hsw+0xca>
+ .byte 15,131,151,0,0,0 // jae 7dfa <_sk_start_pipeline_hsw+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 7bb4 <_sk_start_pipeline_hsw+0x8c>
+ .byte 119,67 // ja 7dbc <_sk_start_pipeline_hsw+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -7451,10 +7551,10 @@ _sk_start_pipeline_hsw:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 7b75 <_sk_start_pipeline_hsw+0x4d>
+ .byte 118,193 // jbe 7d7d <_sk_start_pipeline_hsw+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 7be5 <_sk_start_pipeline_hsw+0xbd>
+ .byte 116,41 // je 7ded <_sk_start_pipeline_hsw+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -7468,7 +7568,7 @@ _sk_start_pipeline_hsw:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 7b67 <_sk_start_pipeline_hsw+0x3f>
+ .byte 15,133,117,255,255,255 // jne 7d6f <_sk_start_pipeline_hsw+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -7497,10 +7597,10 @@ _sk_seed_shader_hsw:
.byte 197,249,110,201 // vmovd %ecx,%xmm1
.byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,210,27,3,0 // vbroadcastss 0x31bd2(%rip),%ymm2 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,21,222,35,3,0 // vbroadcastss 0x323de(%rip),%ymm2 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,199,27,3,0 // vbroadcastss 0x31bc7(%rip),%ymm2 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,21,211,35,3,0 // vbroadcastss 0x323d3(%rip),%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -7515,17 +7615,17 @@ _sk_dither_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,61,254,5,90,29,3,0 // vpaddd 0x31d5a(%rip),%ymm8,%ymm8 # 399c0 <_sk_srcover_bgra_8888_sse2_lowp+0x46c>
+ .byte 197,61,254,5,114,37,3,0 // vpaddd 0x32572(%rip),%ymm8,%ymm8 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x478>
.byte 197,121,110,201 // vmovd %ecx,%xmm9
.byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,139,27,3,0 // vpbroadcastd 0x31b8b(%rip),%ymm10 # 39808 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,88,21,151,35,3,0 // vpbroadcastd 0x32397(%rip),%ymm10 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,112,27,3,0 // vpbroadcastd 0x31b70(%rip),%ymm12 # 3980c <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
- .byte 196,98,125,88,45,107,27,3,0 // vpbroadcastd 0x31b6b(%rip),%ymm13 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,88,37,124,35,3,0 // vpbroadcastd 0x3237c(%rip),%ymm12 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
+ .byte 196,98,125,88,45,119,35,3,0 // vpbroadcastd 0x32377(%rip),%ymm13 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
@@ -7540,8 +7640,8 @@ _sk_dither_hsw:
.byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,29,27,3,0 // vbroadcastss 0x31b1d(%rip),%ymm9 # 39814 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
- .byte 196,98,125,24,21,24,27,3,0 // vbroadcastss 0x31b18(%rip),%ymm10 # 39818 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
+ .byte 196,98,125,24,13,41,35,3,0 // vbroadcastss 0x32329(%rip),%ymm9 # 3a228 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
+ .byte 196,98,125,24,21,36,35,3,0 // vbroadcastss 0x32324(%rip),%ymm10 # 3a22c <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,44,89,192 // vmulps %ymm8,%ymm10,%ymm8
@@ -7575,7 +7675,7 @@ HIDDEN _sk_black_color_hsw
FUNCTION(_sk_black_color_hsw)
_sk_black_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,160,26,3,0 // vbroadcastss 0x31aa0(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,172,34,3,0 // vbroadcastss 0x322ac(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -7586,7 +7686,7 @@ HIDDEN _sk_white_color_hsw
FUNCTION(_sk_white_color_hsw)
_sk_white_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,135,26,3,0 // vbroadcastss 0x31a87(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,147,34,3,0 // vbroadcastss 0x32293(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -7632,7 +7732,7 @@ HIDDEN _sk_srcatop_hsw
FUNCTION(_sk_srcatop_hsw)
_sk_srcatop_hsw:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,38,26,3,0 // vbroadcastss 0x31a26(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,50,34,3,0 // vbroadcastss 0x32232(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -7648,7 +7748,7 @@ HIDDEN _sk_dstatop_hsw
.globl _sk_dstatop_hsw
FUNCTION(_sk_dstatop_hsw)
_sk_dstatop_hsw:
- .byte 196,98,125,24,5,245,25,3,0 // vbroadcastss 0x319f5(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,1,34,3,0 // vbroadcastss 0x32201(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -7687,7 +7787,7 @@ HIDDEN _sk_srcout_hsw
.globl _sk_srcout_hsw
FUNCTION(_sk_srcout_hsw)
_sk_srcout_hsw:
- .byte 196,98,125,24,5,152,25,3,0 // vbroadcastss 0x31998(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,164,33,3,0 // vbroadcastss 0x321a4(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -7700,7 +7800,7 @@ HIDDEN _sk_dstout_hsw
.globl _sk_dstout_hsw
FUNCTION(_sk_dstout_hsw)
_sk_dstout_hsw:
- .byte 196,226,125,24,5,119,25,3,0 // vbroadcastss 0x31977(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,131,33,3,0 // vbroadcastss 0x32183(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -7713,7 +7813,7 @@ HIDDEN _sk_srcover_hsw
.globl _sk_srcover_hsw
FUNCTION(_sk_srcover_hsw)
_sk_srcover_hsw:
- .byte 196,98,125,24,5,86,25,3,0 // vbroadcastss 0x31956(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,98,33,3,0 // vbroadcastss 0x32162(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -7726,7 +7826,7 @@ HIDDEN _sk_dstover_hsw
.globl _sk_dstover_hsw
FUNCTION(_sk_dstover_hsw)
_sk_dstover_hsw:
- .byte 196,98,125,24,5,49,25,3,0 // vbroadcastss 0x31931(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,61,33,3,0 // vbroadcastss 0x3213d(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -7750,7 +7850,7 @@ HIDDEN _sk_multiply_hsw
.globl _sk_multiply_hsw
FUNCTION(_sk_multiply_hsw)
_sk_multiply_hsw:
- .byte 196,98,125,24,5,248,24,3,0 // vbroadcastss 0x318f8(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,4,33,3,0 // vbroadcastss 0x32104(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -7773,7 +7873,7 @@ HIDDEN _sk_plus__hsw
FUNCTION(_sk_plus__hsw)
_sk_plus__hsw:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,167,24,3,0 // vbroadcastss 0x318a7(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,179,32,3,0 // vbroadcastss 0x320b3(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -7803,7 +7903,7 @@ HIDDEN _sk_xor__hsw
.globl _sk_xor__hsw
FUNCTION(_sk_xor__hsw)
_sk_xor__hsw:
- .byte 196,98,125,24,5,82,24,3,0 // vbroadcastss 0x31852(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,94,32,3,0 // vbroadcastss 0x3205e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -7837,7 +7937,7 @@ _sk_darken_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,214,23,3,0 // vbroadcastss 0x317d6(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,226,31,3,0 // vbroadcastss 0x31fe2(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -7862,7 +7962,7 @@ _sk_lighten_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,129,23,3,0 // vbroadcastss 0x31781(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,141,31,3,0 // vbroadcastss 0x31f8d(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -7890,7 +7990,7 @@ _sk_difference_hsw:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,32,23,3,0 // vbroadcastss 0x31720(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,44,31,3,0 // vbroadcastss 0x31f2c(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -7912,7 +8012,7 @@ _sk_exclusion_hsw:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,218,22,3,0 // vbroadcastss 0x316da(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,230,30,3,0 // vbroadcastss 0x31ee6(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -7922,7 +8022,7 @@ HIDDEN _sk_colorburn_hsw
.globl _sk_colorburn_hsw
FUNCTION(_sk_colorburn_hsw)
_sk_colorburn_hsw:
- .byte 196,98,125,24,5,196,22,3,0 // vbroadcastss 0x316c4(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,208,30,3,0 // vbroadcastss 0x31ed0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -7980,7 +8080,7 @@ HIDDEN _sk_colordodge_hsw
FUNCTION(_sk_colordodge_hsw)
_sk_colordodge_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,212,21,3,0 // vbroadcastss 0x315d4(%rip),%ymm9 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,224,29,3,0 // vbroadcastss 0x31de0(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -8033,7 +8133,7 @@ HIDDEN _sk_hardlight_hsw
.globl _sk_hardlight_hsw
FUNCTION(_sk_hardlight_hsw)
_sk_hardlight_hsw:
- .byte 196,98,125,24,5,238,20,3,0 // vbroadcastss 0x314ee(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,250,28,3,0 // vbroadcastss 0x31cfa(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -8084,7 +8184,7 @@ HIDDEN _sk_overlay_hsw
.globl _sk_overlay_hsw
FUNCTION(_sk_overlay_hsw)
_sk_overlay_hsw:
- .byte 196,98,125,24,5,34,20,3,0 // vbroadcastss 0x31422(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,46,28,3,0 // vbroadcastss 0x31c2e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -8145,10 +8245,10 @@ _sk_softlight_hsw:
.byte 196,65,20,88,197 // vaddps %ymm13,%ymm13,%ymm8
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,66,61,168,192 // vfmadd213ps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,29,61,19,3,0 // vbroadcastss 0x3133d(%rip),%ymm11 # 3981c <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,29,73,27,3,0 // vbroadcastss 0x31b49(%rip),%ymm11 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,65,20,88,227 // vaddps %ymm11,%ymm13,%ymm12
.byte 196,65,28,89,192 // vmulps %ymm8,%ymm12,%ymm8
- .byte 196,98,125,24,37,46,19,3,0 // vbroadcastss 0x3132e(%rip),%ymm12 # 39820 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
+ .byte 196,98,125,24,37,58,27,3,0 // vbroadcastss 0x31b3a(%rip),%ymm12 # 3a234 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
.byte 196,66,21,184,196 // vfmadd231ps %ymm12,%ymm13,%ymm8
.byte 196,65,124,82,245 // vrsqrtps %ymm13,%ymm14
.byte 196,65,124,83,246 // vrcpps %ymm14,%ymm14
@@ -8158,7 +8258,7 @@ _sk_softlight_hsw:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,221,18,3,0 // vbroadcastss 0x312dd(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,233,26,3,0 // vbroadcastss 0x31ae9(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,60,92,237 // vsubps %ymm13,%ymm8,%ymm13
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,98,125,168,235 // vfmadd213ps %ymm3,%ymm0,%ymm13
@@ -8271,11 +8371,11 @@ _sk_hue_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,245,16,3,0 // vbroadcastss 0x310f5(%rip),%ymm14 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,61,240,16,3,0 // vbroadcastss 0x310f0(%rip),%ymm15 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,1,25,3,0 // vbroadcastss 0x31901(%rip),%ymm14 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,61,252,24,3,0 // vbroadcastss 0x318fc(%rip),%ymm15 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,225,16,3,0 // vbroadcastss 0x310e1(%rip),%ymm0 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,237,24,3,0 // vbroadcastss 0x318ed(%rip),%ymm0 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -8330,7 +8430,7 @@ _sk_hue_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,162,15,3,0 // vbroadcastss 0x30fa2(%rip),%ymm1 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,174,23,3,0 // vbroadcastss 0x317ae(%rip),%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -8384,11 +8484,11 @@ _sk_saturation_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,213,14,3,0 // vbroadcastss 0x30ed5(%rip),%ymm14 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,61,208,14,3,0 // vbroadcastss 0x30ed0(%rip),%ymm15 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,225,22,3,0 // vbroadcastss 0x316e1(%rip),%ymm14 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,61,220,22,3,0 // vbroadcastss 0x316dc(%rip),%ymm15 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,193,14,3,0 // vbroadcastss 0x30ec1(%rip),%ymm0 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,205,22,3,0 // vbroadcastss 0x316cd(%rip),%ymm0 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -8443,7 +8543,7 @@ _sk_saturation_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,130,13,3,0 // vbroadcastss 0x30d82(%rip),%ymm1 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,13,142,21,3,0 // vbroadcastss 0x3158e(%rip),%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -8471,11 +8571,11 @@ _sk_color_hsw:
.byte 197,108,89,199 // vmulps %ymm7,%ymm2,%ymm8
.byte 197,116,89,215 // vmulps %ymm7,%ymm1,%ymm10
.byte 197,52,89,223 // vmulps %ymm7,%ymm9,%ymm11
- .byte 196,98,125,24,45,55,13,3,0 // vbroadcastss 0x30d37(%rip),%ymm13 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,50,13,3,0 // vbroadcastss 0x30d32(%rip),%ymm14 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,67,21,3,0 // vbroadcastss 0x31543(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,62,21,3,0 // vbroadcastss 0x3153e(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,230 // vmulps %ymm14,%ymm5,%ymm12
.byte 196,66,93,184,229 // vfmadd231ps %ymm13,%ymm4,%ymm12
- .byte 196,98,125,24,61,35,13,3,0 // vbroadcastss 0x30d23(%rip),%ymm15 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,47,21,3,0 // vbroadcastss 0x3152f(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,77,184,231 // vfmadd231ps %ymm15,%ymm6,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -8531,7 +8631,7 @@ _sk_color_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,217,11,3,0 // vbroadcastss 0x30bd9(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,229,19,3,0 // vbroadcastss 0x313e5(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -8559,11 +8659,11 @@ _sk_luminosity_hsw:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,45,142,11,3,0 // vbroadcastss 0x30b8e(%rip),%ymm13 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,137,11,3,0 // vbroadcastss 0x30b89(%rip),%ymm14 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,45,154,19,3,0 // vbroadcastss 0x3139a(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,149,19,3,0 // vbroadcastss 0x31395(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,116,89,230 // vmulps %ymm14,%ymm1,%ymm12
.byte 196,66,109,184,229 // vfmadd231ps %ymm13,%ymm2,%ymm12
- .byte 196,98,125,24,61,122,11,3,0 // vbroadcastss 0x30b7a(%rip),%ymm15 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,134,19,3,0 // vbroadcastss 0x31386(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,66,53,184,231 // vfmadd231ps %ymm15,%ymm9,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -8619,7 +8719,7 @@ _sk_luminosity_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,48,10,3,0 // vbroadcastss 0x30a30(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,60,18,3,0 // vbroadcastss 0x3123c(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -8648,39 +8748,48 @@ _sk_srcover_rgba_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,179,0,0,0 // jne 8ee9 <_sk_srcover_rgba_8888_hsw+0xd3>
+ .byte 15,133,224,0,0,0 // jne 911e <_sk_srcover_rgba_8888_hsw+0x100>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,156,11,3,0 // vpand 0x30b9c(%rip),%ymm7,%ymm4 # 399e0 <_sk_srcover_bgra_8888_sse2_lowp+0x48c>
+ .byte 197,197,219,37,180,19,3,0 // vpand 0x313b4(%rip),%ymm7,%ymm4 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0x498>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,69,0,45,175,11,3,0 // vpshufb 0x30baf(%rip),%ymm7,%ymm5 # 39a00 <_sk_srcover_bgra_8888_sse2_lowp+0x4ac>
+ .byte 196,226,69,0,45,199,19,3,0 // vpshufb 0x313c7(%rip),%ymm7,%ymm5 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x4b8>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,69,0,53,194,11,3,0 // vpshufb 0x30bc2(%rip),%ymm7,%ymm6 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x4cc>
+ .byte 196,226,69,0,53,218,19,3,0 // vpshufb 0x313da(%rip),%ymm7,%ymm6 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0x4d8>
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,144,9,3,0 // vbroadcastss 0x30990(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,175,9,3,0 // vbroadcastss 0x309af(%rip),%ymm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
- .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
- .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
- .byte 196,194,77,184,208 // vfmadd231ps %ymm8,%ymm6,%ymm2
- .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 197,125,91,192 // vcvtps2dq %ymm0,%ymm8
- .byte 197,125,91,201 // vcvtps2dq %ymm1,%ymm9
- .byte 196,193,53,114,241,8 // vpslld $0x8,%ymm9,%ymm9
+ .byte 196,98,125,24,13,151,17,3,0 // vbroadcastss 0x31197(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
+ .byte 196,98,125,24,21,182,17,3,0 // vbroadcastss 0x311b6(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
+ .byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
+ .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
+ .byte 196,194,85,184,201 // vfmadd231ps %ymm9,%ymm5,%ymm1
+ .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
+ .byte 196,194,77,184,209 // vfmadd231ps %ymm9,%ymm6,%ymm2
+ .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
+ .byte 196,194,69,184,217 // vfmadd231ps %ymm9,%ymm7,%ymm3
+ .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
+ .byte 197,60,95,217 // vmaxps %ymm1,%ymm8,%ymm11
+ .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11
+ .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
+ .byte 196,193,37,114,243,8 // vpslld $0x8,%ymm11,%ymm11
+ .byte 196,65,37,235,201 // vpor %ymm9,%ymm11,%ymm9
+ .byte 197,60,95,218 // vmaxps %ymm2,%ymm8,%ymm11
+ .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11
+ .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
+ .byte 196,193,37,114,243,16 // vpslld $0x10,%ymm11,%ymm11
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
+ .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8
+ .byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 197,125,91,202 // vcvtps2dq %ymm2,%ymm9
- .byte 196,193,53,114,241,16 // vpslld $0x10,%ymm9,%ymm9
- .byte 197,125,91,211 // vcvtps2dq %ymm3,%ymm10
- .byte 196,193,45,114,242,24 // vpslld $0x18,%ymm10,%ymm10
- .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
- .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,65 // jne 8f20 <_sk_srcover_rgba_8888_hsw+0x10a>
+ .byte 117,65 // jne 9155 <_sk_srcover_rgba_8888_hsw+0x137>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -8689,33 +8798,33 @@ _sk_srcover_rgba_8888_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,59,255,255,255 // ja 8e3c <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 15,135,14,255,255,255 // ja 9044 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,0,1,0,0 // lea 0x100(%rip),%r10 # 900c <_sk_srcover_rgba_8888_hsw+0x1f6>
+ .byte 76,141,21,255,0,0,0 // lea 0xff(%rip),%r10 # 9240 <_sk_srcover_rgba_8888_hsw+0x222>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,28,255,255,255 // jmpq 8e3c <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,239,254,255,255 // jmpq 9044 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,181 // ja 8ee5 <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 119,181 // ja 911a <_sk_srcover_rgba_8888_hsw+0xfc>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,237,0,0,0 // lea 0xed(%rip),%r9 # 9028 <_sk_srcover_rgba_8888_hsw+0x212>
+ .byte 76,141,13,236,0,0,0 // lea 0xec(%rip),%r9 # 925c <_sk_srcover_rgba_8888_hsw+0x23e>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,153 // jmp 8ee5 <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 235,153 // jmp 911a <_sk_srcover_rgba_8888_hsw+0xfc>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,201,254,255,255 // jmpq 8e3c <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,156,254,255,255 // jmpq 9044 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -8728,10 +8837,10 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,122,254,255,255 // jmpq 8e3c <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,77,254,255,255 // jmpq 9044 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,16,255,255,255 // jmpq 8ee5 <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 233,16,255,255,255 // jmpq 911a <_sk_srcover_rgba_8888_hsw+0xfc>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -8739,35 +8848,33 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 233,220,254,255,255 // jmpq 8ee5 <_sk_srcover_rgba_8888_hsw+0xcf>
- .byte 15,31,0 // nopl (%rax)
- .byte 9,255 // or %edi,%edi
+ .byte 233,220,254,255,255 // jmpq 911a <_sk_srcover_rgba_8888_hsw+0xfc>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 10,255 // or %bh,%bh
.byte 255 // (bad)
- .byte 255,86,255 // callq *-0x1(%rsi)
+ .byte 255,87,255 // callq *-0x1(%rdi)
.byte 255 // (bad)
- .byte 255,64,255 // incl -0x1(%rax)
+ .byte 255,65,255 // incl -0x1(%rcx)
.byte 255 // (bad)
- .byte 255,165,255,255,255,145 // jmpq *-0x6e000001(%rbp)
+ .byte 255,166,255,255,255,146 // jmpq *-0x6d000001(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 9021 <_sk_srcover_rgba_8888_hsw+0x20b>
+ .byte 126,255 // jle 9255 <_sk_srcover_rgba_8888_hsw+0x237>
.byte 255 // (bad)
- .byte 255,103,255 // jmpq *-0x1(%rdi)
+ .byte 255,104,255 // ljmp *-0x1(%rax)
.byte 255 // (bad)
- .byte 255,28,255 // lcall *(%rdi,%rdi,8)
+ .byte 255,29,255,255,255,163 // lcall *-0x5c000001(%rip) # ffffffffa4009260 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffa3fcf2f8>
.byte 255 // (bad)
- .byte 255,162,255,255,255,154 // jmpq *-0x65000001(%rdx)
.byte 255 // (bad)
+ .byte 255,155,255,255,255,215 // lcall *-0x28000001(%rbx)
.byte 255 // (bad)
- .byte 255,214 // callq *%rsi
.byte 255 // (bad)
+ .byte 255,202 // dec %edx
.byte 255 // (bad)
- .byte 255,201 // dec %ecx
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255 // (bad)
- .byte 187,255,255,255,173 // mov $0xadffffff,%ebx
+ .byte 188,255,255,255,174 // mov $0xaeffffff,%esp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -8784,39 +8891,48 @@ _sk_srcover_bgra_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,179,0,0,0 // jne 9117 <_sk_srcover_bgra_8888_hsw+0xd3>
+ .byte 15,133,224,0,0,0 // jne 9378 <_sk_srcover_bgra_8888_hsw+0x100>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,206,9,3,0 // vpand 0x309ce(%rip),%ymm7,%ymm4 # 39a40 <_sk_srcover_bgra_8888_sse2_lowp+0x4ec>
+ .byte 197,197,219,37,186,17,3,0 // vpand 0x311ba(%rip),%ymm7,%ymm4 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x4f8>
.byte 197,252,91,244 // vcvtdq2ps %ymm4,%ymm6
- .byte 196,226,69,0,37,225,9,3,0 // vpshufb 0x309e1(%rip),%ymm7,%ymm4 # 39a60 <_sk_srcover_bgra_8888_sse2_lowp+0x50c>
+ .byte 196,226,69,0,37,205,17,3,0 // vpshufb 0x311cd(%rip),%ymm7,%ymm4 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0x518>
.byte 197,252,91,236 // vcvtdq2ps %ymm4,%ymm5
- .byte 196,226,69,0,37,244,9,3,0 // vpshufb 0x309f4(%rip),%ymm7,%ymm4 # 39a80 <_sk_srcover_bgra_8888_sse2_lowp+0x52c>
+ .byte 196,226,69,0,37,224,17,3,0 // vpshufb 0x311e0(%rip),%ymm7,%ymm4 # 3a4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x538>
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,98,7,3,0 // vbroadcastss 0x30762(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,129,7,3,0 // vbroadcastss 0x30781(%rip),%ymm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
- .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
- .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
- .byte 196,194,77,184,208 // vfmadd231ps %ymm8,%ymm6,%ymm2
- .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 197,125,91,194 // vcvtps2dq %ymm2,%ymm8
- .byte 197,125,91,201 // vcvtps2dq %ymm1,%ymm9
- .byte 196,193,53,114,241,8 // vpslld $0x8,%ymm9,%ymm9
+ .byte 196,98,125,24,13,61,15,3,0 // vbroadcastss 0x30f3d(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
+ .byte 196,98,125,24,21,92,15,3,0 // vbroadcastss 0x30f5c(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
+ .byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
+ .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
+ .byte 196,194,85,184,201 // vfmadd231ps %ymm9,%ymm5,%ymm1
+ .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
+ .byte 196,194,77,184,209 // vfmadd231ps %ymm9,%ymm6,%ymm2
+ .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
+ .byte 196,194,69,184,217 // vfmadd231ps %ymm9,%ymm7,%ymm3
+ .byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
+ .byte 197,60,95,217 // vmaxps %ymm1,%ymm8,%ymm11
+ .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11
+ .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
+ .byte 196,193,37,114,243,8 // vpslld $0x8,%ymm11,%ymm11
+ .byte 196,65,37,235,201 // vpor %ymm9,%ymm11,%ymm9
+ .byte 197,60,95,216 // vmaxps %ymm0,%ymm8,%ymm11
+ .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11
+ .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
+ .byte 196,193,37,114,243,16 // vpslld $0x10,%ymm11,%ymm11
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
+ .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8
+ .byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
- .byte 196,193,53,114,241,16 // vpslld $0x10,%ymm9,%ymm9
- .byte 197,125,91,211 // vcvtps2dq %ymm3,%ymm10
- .byte 196,193,45,114,242,24 // vpslld $0x18,%ymm10,%ymm10
- .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
- .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,65 // jne 914e <_sk_srcover_bgra_8888_hsw+0x10a>
+ .byte 117,65 // jne 93af <_sk_srcover_bgra_8888_hsw+0x137>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -8825,33 +8941,33 @@ _sk_srcover_bgra_8888_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,59,255,255,255 // ja 906a <_sk_srcover_bgra_8888_hsw+0x26>
+ .byte 15,135,14,255,255,255 // ja 929e <_sk_srcover_bgra_8888_hsw+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,254,0,0,0 // lea 0xfe(%rip),%r10 # 9238 <_sk_srcover_bgra_8888_hsw+0x1f4>
+ .byte 76,141,21,253,0,0,0 // lea 0xfd(%rip),%r10 # 9498 <_sk_srcover_bgra_8888_hsw+0x220>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,28,255,255,255 // jmpq 906a <_sk_srcover_bgra_8888_hsw+0x26>
+ .byte 233,239,254,255,255 // jmpq 929e <_sk_srcover_bgra_8888_hsw+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,181 // ja 9113 <_sk_srcover_bgra_8888_hsw+0xcf>
+ .byte 119,181 // ja 9374 <_sk_srcover_bgra_8888_hsw+0xfc>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,235,0,0,0 // lea 0xeb(%rip),%r9 # 9254 <_sk_srcover_bgra_8888_hsw+0x210>
+ .byte 76,141,13,234,0,0,0 // lea 0xea(%rip),%r9 # 94b4 <_sk_srcover_bgra_8888_hsw+0x23c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,153 // jmp 9113 <_sk_srcover_bgra_8888_hsw+0xcf>
+ .byte 235,153 // jmp 9374 <_sk_srcover_bgra_8888_hsw+0xfc>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,201,254,255,255 // jmpq 906a <_sk_srcover_bgra_8888_hsw+0x26>
+ .byte 233,156,254,255,255 // jmpq 929e <_sk_srcover_bgra_8888_hsw+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -8864,10 +8980,10 @@ _sk_srcover_bgra_8888_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,122,254,255,255 // jmpq 906a <_sk_srcover_bgra_8888_hsw+0x26>
+ .byte 233,77,254,255,255 // jmpq 929e <_sk_srcover_bgra_8888_hsw+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,16,255,255,255 // jmpq 9113 <_sk_srcover_bgra_8888_hsw+0xcf>
+ .byte 233,16,255,255,255 // jmpq 9374 <_sk_srcover_bgra_8888_hsw+0xfc>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -8875,35 +8991,33 @@ _sk_srcover_bgra_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 233,220,254,255,255 // jmpq 9113 <_sk_srcover_bgra_8888_hsw+0xcf>
- .byte 144 // nop
- .byte 11,255 // or %edi,%edi
+ .byte 233,220,254,255,255 // jmpq 9374 <_sk_srcover_bgra_8888_hsw+0xfc>
+ .byte 12,255 // or $0xff,%al
.byte 255 // (bad)
- .byte 255,88,255 // lcall *-0x1(%rax)
+ .byte 255,89,255 // lcall *-0x1(%rcx)
.byte 255 // (bad)
- .byte 255,66,255 // incl -0x1(%rdx)
+ .byte 255,67,255 // incl -0x1(%rbx)
.byte 255 // (bad)
- .byte 255,167,255,255,255,147 // jmpq *-0x6c000001(%rdi)
+ .byte 255,168,255,255,255,148 // ljmp *-0x6b000001(%rax)
.byte 255 // (bad)
.byte 255 // (bad)
+ .byte 255,128,255,255,255,106 // incl 0x6affffff(%rax)
.byte 255 // (bad)
- .byte 127,255 // jg 924d <_sk_srcover_bgra_8888_hsw+0x209>
.byte 255 // (bad)
- .byte 255,105,255 // ljmp *-0x1(%rcx)
+ .byte 255,31 // lcall *(%rdi)
.byte 255 // (bad)
- .byte 255,30 // lcall *(%rsi)
.byte 255 // (bad)
+ .byte 255,165,255,255,255,157 // jmpq *-0x62000001(%rbp)
.byte 255 // (bad)
- .byte 255,164,255,255,255,156,255 // jmpq *-0x630001(%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
+ .byte 217,255 // fcos
.byte 255 // (bad)
- .byte 255,203 // dec %ebx
+ .byte 255,204 // dec %esp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 189,255,255,255,175 // mov $0xafffffff,%ebp
+ .byte 190,255,255,255,176 // mov $0xb0ffffff,%esi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -8924,7 +9038,7 @@ HIDDEN _sk_clamp_1_hsw
.globl _sk_clamp_1_hsw
FUNCTION(_sk_clamp_1_hsw)
_sk_clamp_1_hsw:
- .byte 196,98,125,24,5,110,5,3,0 // vbroadcastss 0x3056e(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,34,13,3,0 // vbroadcastss 0x30d22(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -8936,7 +9050,7 @@ HIDDEN _sk_clamp_a_hsw
.globl _sk_clamp_a_hsw
FUNCTION(_sk_clamp_a_hsw)
_sk_clamp_a_hsw:
- .byte 196,98,125,24,5,77,5,3,0 // vbroadcastss 0x3054d(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,1,13,3,0 // vbroadcastss 0x30d01(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -8948,7 +9062,7 @@ HIDDEN _sk_clamp_a_dst_hsw
.globl _sk_clamp_a_dst_hsw
FUNCTION(_sk_clamp_a_dst_hsw)
_sk_clamp_a_dst_hsw:
- .byte 196,98,125,24,5,47,5,3,0 // vbroadcastss 0x3052f(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,227,12,3,0 // vbroadcastss 0x30ce3(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -8981,7 +9095,7 @@ HIDDEN _sk_invert_hsw
.globl _sk_invert_hsw
FUNCTION(_sk_invert_hsw)
_sk_invert_hsw:
- .byte 196,98,125,24,5,234,4,3,0 // vbroadcastss 0x304ea(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,158,12,3,0 // vbroadcastss 0x30c9e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -9035,9 +9149,9 @@ HIDDEN _sk_unpremul_hsw
.globl _sk_unpremul_hsw
FUNCTION(_sk_unpremul_hsw)
_sk_unpremul_hsw:
- .byte 196,98,125,24,5,133,4,3,0 // vbroadcastss 0x30485(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,57,12,3,0 // vbroadcastss 0x30c39(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,168,4,3,0 // vbroadcastss 0x304a8(%rip),%ymm9 # 39834 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
+ .byte 196,98,125,24,13,92,12,3,0 // vbroadcastss 0x30c5c(%rip),%ymm9 # 3a248 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
.byte 196,65,60,194,201,1 // vcmpltps %ymm9,%ymm8,%ymm9
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
@@ -9051,16 +9165,16 @@ HIDDEN _sk_from_srgb_hsw
.globl _sk_from_srgb_hsw
FUNCTION(_sk_from_srgb_hsw)
_sk_from_srgb_hsw:
- .byte 196,98,125,24,5,130,4,3,0 // vbroadcastss 0x30482(%rip),%ymm8 # 39838 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,54,12,3,0 // vbroadcastss 0x30c36(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,116,4,3,0 // vbroadcastss 0x30474(%rip),%ymm11 # 3983c <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,83,4,3,0 // vbroadcastss 0x30453(%rip),%ymm12 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,40,12,3,0 // vbroadcastss 0x30c28(%rip),%ymm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,7,12,3,0 // vbroadcastss 0x30c07(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,92,4,3,0 // vbroadcastss 0x3045c(%rip),%ymm14 # 39840 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,16,12,3,0 // vbroadcastss 0x30c10(%rip),%ymm14 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,82,4,3,0 // vbroadcastss 0x30452(%rip),%ymm10 # 39844 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,6,12,3,0 // vbroadcastss 0x30c06(%rip),%ymm10 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,124,194,194,1 // vcmpltps %ymm10,%ymm0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -9083,16 +9197,16 @@ HIDDEN _sk_from_srgb_dst_hsw
.globl _sk_from_srgb_dst_hsw
FUNCTION(_sk_from_srgb_dst_hsw)
_sk_from_srgb_dst_hsw:
- .byte 196,98,125,24,5,234,3,3,0 // vbroadcastss 0x303ea(%rip),%ymm8 # 39838 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,158,11,3,0 // vbroadcastss 0x30b9e(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,220,3,3,0 // vbroadcastss 0x303dc(%rip),%ymm11 # 3983c <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,187,3,3,0 // vbroadcastss 0x303bb(%rip),%ymm12 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,144,11,3,0 // vbroadcastss 0x30b90(%rip),%ymm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,111,11,3,0 // vbroadcastss 0x30b6f(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,196,3,3,0 // vbroadcastss 0x303c4(%rip),%ymm14 # 39840 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,53,120,11,3,0 // vbroadcastss 0x30b78(%rip),%ymm14 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,186,3,3,0 // vbroadcastss 0x303ba(%rip),%ymm10 # 39844 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,21,110,11,3,0 // vbroadcastss 0x30b6e(%rip),%ymm10 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,92,194,226,1 // vcmpltps %ymm10,%ymm4,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -9116,19 +9230,19 @@ HIDDEN _sk_to_srgb_hsw
FUNCTION(_sk_to_srgb_hsw)
_sk_to_srgb_hsw:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,94,3,3,0 // vbroadcastss 0x3035e(%rip),%ymm8 # 39848 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
+ .byte 196,98,125,24,5,18,11,3,0 // vbroadcastss 0x30b12(%rip),%ymm8 # 3a25c <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,84,3,3,0 // vbroadcastss 0x30354(%rip),%ymm11 # 3984c <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
- .byte 196,98,125,24,37,79,3,3,0 // vbroadcastss 0x3034f(%rip),%ymm12 # 39850 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
+ .byte 196,98,125,24,29,8,11,3,0 // vbroadcastss 0x30b08(%rip),%ymm11 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
+ .byte 196,98,125,24,37,3,11,3,0 // vbroadcastss 0x30b03(%rip),%ymm12 # 3a264 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,53,168,235 // vfmadd213ps %ymm11,%ymm9,%ymm13
- .byte 196,98,125,24,53,112,4,3,0 // vbroadcastss 0x30470(%rip),%ymm14 # 39984 <_sk_srcover_bgra_8888_sse2_lowp+0x430>
+ .byte 196,98,125,24,53,36,12,3,0 // vbroadcastss 0x30c24(%rip),%ymm14 # 3a398 <_sk_srcover_bgra_8888_sse2_lowp+0x430>
.byte 196,66,53,168,238 // vfmadd213ps %ymm14,%ymm9,%ymm13
- .byte 196,98,125,24,61,102,4,3,0 // vbroadcastss 0x30466(%rip),%ymm15 # 39988 <_sk_srcover_bgra_8888_sse2_lowp+0x434>
+ .byte 196,98,125,24,61,26,12,3,0 // vbroadcastss 0x30c1a(%rip),%ymm15 # 3a39c <_sk_srcover_bgra_8888_sse2_lowp+0x434>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,20,89,201 // vmulps %ymm9,%ymm13,%ymm9
- .byte 196,98,125,24,45,34,3,3,0 // vbroadcastss 0x30322(%rip),%ymm13 # 3985c <_sk_srcover_bgra_8888_sse2_lowp+0x308>
+ .byte 196,98,125,24,45,214,10,3,0 // vbroadcastss 0x30ad6(%rip),%ymm13 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
.byte 196,193,124,194,197,1 // vcmpltps %ymm13,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -9162,26 +9276,26 @@ _sk_rgb_to_hsl_hsw:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,57,2,3,0 // vbroadcastss 0x30239(%rip),%ymm11 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,237,9,3,0 // vbroadcastss 0x309ed(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 197,116,194,234,1 // vcmpltps %ymm2,%ymm1,%ymm13
- .byte 196,98,125,24,53,126,2,3,0 // vbroadcastss 0x3027e(%rip),%ymm14 # 39860 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,53,50,10,3,0 // vbroadcastss 0x30a32(%rip),%ymm14 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
.byte 196,67,5,74,238,208 // vblendvps %ymm13,%ymm14,%ymm15,%ymm13
.byte 196,66,37,168,229 // vfmadd213ps %ymm13,%ymm11,%ymm12
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
.byte 197,124,92,233 // vsubps %ymm1,%ymm0,%ymm13
- .byte 196,98,125,24,53,101,2,3,0 // vbroadcastss 0x30265(%rip),%ymm14 # 39868 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,53,25,10,3,0 // vbroadcastss 0x30a19(%rip),%ymm14 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 196,66,37,168,238 // vfmadd213ps %ymm14,%ymm11,%ymm13
- .byte 196,98,125,24,53,83,2,3,0 // vbroadcastss 0x30253(%rip),%ymm14 # 39864 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,53,7,10,3,0 // vbroadcastss 0x30a07(%rip),%ymm14 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,194,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm2
.byte 197,188,194,201,0 // vcmpeqps %ymm1,%ymm8,%ymm1
.byte 196,227,21,74,202,16 // vblendvps %ymm1,%ymm2,%ymm13,%ymm1
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,195,117,74,196,0 // vblendvps %ymm0,%ymm12,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,29,198,1,3,0 // vbroadcastss 0x301c6(%rip),%ymm11 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,29,122,9,3,0 // vbroadcastss 0x3097a(%rip),%ymm11 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 197,36,194,218,1 // vcmpltps %ymm2,%ymm11,%ymm11
.byte 196,65,12,92,224 // vsubps %ymm8,%ymm14,%ymm12
@@ -9191,7 +9305,7 @@ _sk_rgb_to_hsl_hsw:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,199,128 // vblendvps %ymm8,%ymm15,%ymm0,%ymm0
.byte 196,195,117,74,207,128 // vblendvps %ymm8,%ymm15,%ymm1,%ymm1
- .byte 196,98,125,24,5,249,1,3,0 // vbroadcastss 0x301f9(%rip),%ymm8 # 3986c <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,5,173,9,3,0 // vbroadcastss 0x309ad(%rip),%ymm8 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -9208,30 +9322,30 @@ _sk_hsl_to_rgb_hsw:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 197,252,40,224 // vmovaps %ymm0,%ymm4
- .byte 196,98,125,24,5,82,1,3,0 // vbroadcastss 0x30152(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,6,9,3,0 // vbroadcastss 0x30906(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,84,89,210 // vmulps %ymm2,%ymm5,%ymm10
.byte 196,65,84,92,218 // vsubps %ymm10,%ymm5,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
- .byte 196,98,125,24,13,149,1,3,0 // vbroadcastss 0x30195(%rip),%ymm9 # 39864 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,13,73,9,3,0 // vbroadcastss 0x30949(%rip),%ymm9 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,66,109,170,202 // vfmsub213ps %ymm10,%ymm2,%ymm9
- .byte 196,98,125,24,29,147,1,3,0 // vbroadcastss 0x30193(%rip),%ymm11 # 39870 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 196,98,125,24,29,71,9,3,0 // vbroadcastss 0x30947(%rip),%ymm11 # 3a284 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
.byte 196,65,92,88,219 // vaddps %ymm11,%ymm4,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,45,101,1,3,0 // vbroadcastss 0x30165(%rip),%ymm13 # 39860 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,45,25,9,3,0 // vbroadcastss 0x30919(%rip),%ymm13 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,193,4,89,197 // vmulps %ymm13,%ymm15,%ymm0
- .byte 196,98,125,24,53,95,1,3,0 // vbroadcastss 0x3015f(%rip),%ymm14 # 39868 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,53,19,9,3,0 // vbroadcastss 0x30913(%rip),%ymm14 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 197,12,92,224 // vsubps %ymm0,%ymm14,%ymm12
.byte 196,66,37,168,225 // vfmadd213ps %ymm9,%ymm11,%ymm12
- .byte 196,226,125,24,29,89,1,3,0 // vbroadcastss 0x30159(%rip),%ymm3 # 39874 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
+ .byte 196,226,125,24,29,13,9,3,0 // vbroadcastss 0x3090d(%rip),%ymm3 # 3a288 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
.byte 196,193,100,194,255,2 // vcmpleps %ymm15,%ymm3,%ymm7
.byte 196,195,29,74,249,112 // vblendvps %ymm7,%ymm9,%ymm12,%ymm7
.byte 196,65,60,194,231,2 // vcmpleps %ymm15,%ymm8,%ymm12
.byte 196,227,45,74,255,192 // vblendvps %ymm12,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,37,48,1,3,0 // vbroadcastss 0x30130(%rip),%ymm12 # 3986c <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,37,228,8,3,0 // vbroadcastss 0x308e4(%rip),%ymm12 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,65,28,194,255,2 // vcmpleps %ymm15,%ymm12,%ymm15
.byte 196,194,37,168,193 // vfmadd213ps %ymm9,%ymm11,%ymm0
.byte 196,99,125,74,255,240 // vblendvps %ymm15,%ymm7,%ymm0,%ymm15
@@ -9247,7 +9361,7 @@ _sk_hsl_to_rgb_hsw:
.byte 197,156,194,192,2 // vcmpleps %ymm0,%ymm12,%ymm0
.byte 196,194,37,168,249 // vfmadd213ps %ymm9,%ymm11,%ymm7
.byte 196,227,69,74,201,0 // vblendvps %ymm0,%ymm1,%ymm7,%ymm1
- .byte 196,226,125,24,5,228,0,3,0 // vbroadcastss 0x300e4(%rip),%ymm0 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,226,125,24,5,152,8,3,0 // vbroadcastss 0x30898(%rip),%ymm0 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
.byte 196,227,125,8,224,1 // vroundps $0x1,%ymm0,%ymm4
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
@@ -9299,12 +9413,12 @@ _sk_scale_u8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,58 // jne 9883 <_sk_scale_u8_hsw+0x52>
+ .byte 117,58 // jne 9ae3 <_sk_scale_u8_hsw+0x52>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,121,8,3,0 // vpand 0x30879(%rip),%xmm8,%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,57,219,5,57,16,3,0 // vpand 0x31039(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,18,0,3,0 // vbroadcastss 0x30012(%rip),%ymm9 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,198,7,3,0 // vbroadcastss 0x307c6(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -9317,15 +9431,15 @@ _sk_scale_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,183 // ja 984f <_sk_scale_u8_hsw+0x1e>
+ .byte 119,183 // ja 9aaf <_sk_scale_u8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 991c <_sk_scale_u8_hsw+0xeb>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 9b7c <_sk_scale_u8_hsw+0xeb>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,152 // jmp 984f <_sk_scale_u8_hsw+0x1e>
+ .byte 235,152 // jmp 9aaf <_sk_scale_u8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -9333,7 +9447,7 @@ _sk_scale_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,111,255,255,255 // jmpq 984f <_sk_scale_u8_hsw+0x1e>
+ .byte 233,111,255,255,255 // jmpq 9aaf <_sk_scale_u8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -9344,7 +9458,7 @@ _sk_scale_u8_hsw:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,51,255,255,255 // jmpq 984f <_sk_scale_u8_hsw+0x1e>
+ .byte 233,51,255,255,255 // jmpq 9aaf <_sk_scale_u8_hsw+0x1e>
.byte 144 // nop
.byte 255 // (bad)
.byte 255 // (bad)
@@ -9378,23 +9492,23 @@ _sk_scale_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,161,0,0,0 // jne 99f8 <_sk_scale_565_hsw+0xc0>
+ .byte 15,133,161,0,0,0 // jne 9c58 <_sk_scale_565_hsw+0xc0>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,21,255,2,0 // vpbroadcastd 0x2ff15(%rip),%ymm9 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,88,13,201,6,3,0 // vpbroadcastd 0x306c9(%rip),%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,6,255,2,0 // vbroadcastss 0x2ff06(%rip),%ymm10 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,186,6,3,0 // vbroadcastss 0x306ba(%rip),%ymm10 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,252,254,2,0 // vpbroadcastd 0x2fefc(%rip),%ymm10 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,88,21,176,6,3,0 // vpbroadcastd 0x306b0(%rip),%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,237,254,2,0 // vbroadcastss 0x2feed(%rip),%ymm11 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,161,6,3,0 // vbroadcastss 0x306a1(%rip),%ymm11 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,227,254,2,0 // vpbroadcastd 0x2fee3(%rip),%ymm11 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,88,29,151,6,3,0 // vpbroadcastd 0x30697(%rip),%ymm11 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,212,254,2,0 // vbroadcastss 0x2fed4(%rip),%ymm11 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,136,6,3,0 // vbroadcastss 0x30688(%rip),%ymm11 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -9413,27 +9527,27 @@ _sk_scale_565_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,76,255,255,255 // ja 995d <_sk_scale_565_hsw+0x25>
+ .byte 15,135,76,255,255,255 // ja 9bbd <_sk_scale_565_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9a80 <_sk_scale_565_hsw+0x148>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9ce0 <_sk_scale_565_hsw+0x148>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,42,255,255,255 // jmpq 995d <_sk_scale_565_hsw+0x25>
+ .byte 233,42,255,255,255 // jmpq 9bbd <_sk_scale_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,12,255,255,255 // jmpq 995d <_sk_scale_565_hsw+0x25>
+ .byte 233,12,255,255,255 // jmpq 9bbd <_sk_scale_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,222,254,255,255 // jmpq 995d <_sk_scale_565_hsw+0x25>
+ .byte 233,222,254,255,255 // jmpq 9bbd <_sk_scale_565_hsw+0x25>
.byte 144 // nop
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -9483,12 +9597,12 @@ _sk_lerp_u8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,78 // jne 9b31 <_sk_lerp_u8_hsw+0x66>
+ .byte 117,78 // jne 9d91 <_sk_lerp_u8_hsw+0x66>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,223,5,3,0 // vpand 0x305df(%rip),%xmm8,%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,57,219,5,159,13,3,0 // vpand 0x30d9f(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,120,253,2,0 // vbroadcastss 0x2fd78(%rip),%ymm9 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,44,5,3,0 // vbroadcastss 0x3052c(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
@@ -9505,15 +9619,15 @@ _sk_lerp_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,163 // ja 9ae9 <_sk_lerp_u8_hsw+0x1e>
+ .byte 119,163 // ja 9d49 <_sk_lerp_u8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 9bcc <_sk_lerp_u8_hsw+0x101>
+ .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 9e2c <_sk_lerp_u8_hsw+0x101>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,132 // jmp 9ae9 <_sk_lerp_u8_hsw+0x1e>
+ .byte 235,132 // jmp 9d49 <_sk_lerp_u8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -9521,7 +9635,7 @@ _sk_lerp_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,91,255,255,255 // jmpq 9ae9 <_sk_lerp_u8_hsw+0x1e>
+ .byte 233,91,255,255,255 // jmpq 9d49 <_sk_lerp_u8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -9532,7 +9646,7 @@ _sk_lerp_u8_hsw:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,31,255,255,255 // jmpq 9ae9 <_sk_lerp_u8_hsw+0x1e>
+ .byte 233,31,255,255,255 // jmpq 9d49 <_sk_lerp_u8_hsw+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 142,255 // mov %edi,%?
.byte 255 // (bad)
@@ -9540,7 +9654,7 @@ _sk_lerp_u8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde009bdc <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd0688>
+ .byte 232,255,255,255,221 // callq ffffffffde009e3c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfcfed4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -9563,23 +9677,23 @@ _sk_lerp_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,181,0,0,0 // jne 9cbc <_sk_lerp_565_hsw+0xd4>
+ .byte 15,133,181,0,0,0 // jne 9f1c <_sk_lerp_565_hsw+0xd4>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,101,252,2,0 // vpbroadcastd 0x2fc65(%rip),%ymm9 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,88,13,25,4,3,0 // vpbroadcastd 0x30419(%rip),%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,86,252,2,0 // vbroadcastss 0x2fc56(%rip),%ymm10 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,10,4,3,0 // vbroadcastss 0x3040a(%rip),%ymm10 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,76,252,2,0 // vpbroadcastd 0x2fc4c(%rip),%ymm10 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,88,21,0,4,3,0 // vpbroadcastd 0x30400(%rip),%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,61,252,2,0 // vbroadcastss 0x2fc3d(%rip),%ymm11 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,241,3,3,0 // vbroadcastss 0x303f1(%rip),%ymm11 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,51,252,2,0 // vpbroadcastd 0x2fc33(%rip),%ymm11 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,88,29,231,3,3,0 // vpbroadcastd 0x303e7(%rip),%ymm11 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,36,252,2,0 // vbroadcastss 0x2fc24(%rip),%ymm11 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,216,3,3,0 // vbroadcastss 0x303d8(%rip),%ymm11 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -9602,27 +9716,27 @@ _sk_lerp_565_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,56,255,255,255 // ja 9c0d <_sk_lerp_565_hsw+0x25>
+ .byte 15,135,56,255,255,255 // ja 9e6d <_sk_lerp_565_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9d44 <_sk_lerp_565_hsw+0x15c>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9fa4 <_sk_lerp_565_hsw+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,22,255,255,255 // jmpq 9c0d <_sk_lerp_565_hsw+0x25>
+ .byte 233,22,255,255,255 // jmpq 9e6d <_sk_lerp_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,248,254,255,255 // jmpq 9c0d <_sk_lerp_565_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq 9e6d <_sk_lerp_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,202,254,255,255 // jmpq 9c0d <_sk_lerp_565_hsw+0x25>
+ .byte 233,202,254,255,255 // jmpq 9e6d <_sk_lerp_565_hsw+0x25>
.byte 144 // nop
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -9651,9 +9765,9 @@ _sk_load_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,116 // jne 9dde <_sk_load_tables_hsw+0x7e>
+ .byte 117,116 // jne a03e <_sk_load_tables_hsw+0x7e>
.byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 197,229,219,13,40,253,2,0 // vpand 0x2fd28(%rip),%ymm3,%ymm1 # 39aa0 <_sk_srcover_bgra_8888_sse2_lowp+0x54c>
+ .byte 197,229,219,13,232,4,3,0 // vpand 0x304e8(%rip),%ymm3,%ymm1 # 3a4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x558>
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
@@ -9661,16 +9775,16 @@ _sk_load_tables_hsw:
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
.byte 196,194,53,146,4,136 // vgatherdps %ymm9,(%r8,%ymm1,4),%ymm0
- .byte 196,98,101,0,13,31,253,2,0 // vpshufb 0x2fd1f(%rip),%ymm3,%ymm9 # 39ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x56c>
+ .byte 196,98,101,0,13,223,4,3,0 // vpshufb 0x304df(%rip),%ymm3,%ymm9 # 3a4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x578>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
.byte 196,130,45,146,12,137 // vgatherdps %ymm10,(%r9,%ymm9,4),%ymm1
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,98,101,0,13,35,253,2,0 // vpshufb 0x2fd23(%rip),%ymm3,%ymm9 # 39ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x58c>
+ .byte 196,98,101,0,13,227,4,3,0 // vpshufb 0x304e3(%rip),%ymm3,%ymm9 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x598>
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,167,250,2,0 // vbroadcastss 0x2faa7(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,91,2,3,0 // vbroadcastss 0x3025b(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -9679,21 +9793,21 @@ _sk_load_tables_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,122,255,255,255 // ja 9d70 <_sk_load_tables_hsw+0x10>
+ .byte 15,135,122,255,255,255 // ja 9fd0 <_sk_load_tables_hsw+0x10>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 9e8c <_sk_load_tables_hsw+0x12c>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # a0ec <_sk_load_tables_hsw+0x12c>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,90,255,255,255 // jmpq 9d70 <_sk_load_tables_hsw+0x10>
+ .byte 233,90,255,255,255 // jmpq 9fd0 <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,193,122,126,4,144 // vmovq (%r8,%rdx,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,51,255,255,255 // jmpq 9d70 <_sk_load_tables_hsw+0x10>
+ .byte 233,51,255,255,255 // jmpq 9fd0 <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -9706,8 +9820,8 @@ _sk_load_tables_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,228,254,255,255 // jmpq 9d70 <_sk_load_tables_hsw+0x10>
- .byte 127,255 // jg 9e8d <_sk_load_tables_hsw+0x12d>
+ .byte 233,228,254,255,255 // jmpq 9fd0 <_sk_load_tables_hsw+0x10>
+ .byte 127,255 // jg a0ed <_sk_load_tables_hsw+0x12d>
.byte 255 // (bad)
.byte 255,160,255,255,255,138 // jmpq *-0x75000001(%rax)
.byte 255 // (bad)
@@ -9735,7 +9849,7 @@ _sk_load_tables_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,215,0,0,0 // jne 9f95 <_sk_load_tables_u16_be_hsw+0xed>
+ .byte 15,133,215,0,0,0 // jne a1f5 <_sk_load_tables_u16_be_hsw+0xed>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -9751,7 +9865,7 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
.byte 196,65,49,108,214 // vpunpcklqdq %xmm14,%xmm9,%xmm10
- .byte 197,121,111,29,192,1,3,0 // vmovdqa 0x301c0(%rip),%xmm11 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,121,111,29,128,9,3,0 // vmovdqa 0x30980(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,193,113,219,195 // vpand %xmm11,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -9776,36 +9890,36 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,12,249,2,0 // vbroadcastss 0x2f90c(%rip),%ymm8 # 39898 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,5,192,0,3,0 // vbroadcastss 0x300c0(%rip),%ymm8 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 9ffb <_sk_load_tables_u16_be_hsw+0x153>
+ .byte 116,85 // je a25b <_sk_load_tables_u16_be_hsw+0x153>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 9ffb <_sk_load_tables_u16_be_hsw+0x153>
+ .byte 114,72 // jb a25b <_sk_load_tables_u16_be_hsw+0x153>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je a008 <_sk_load_tables_u16_be_hsw+0x160>
+ .byte 116,72 // je a268 <_sk_load_tables_u16_be_hsw+0x160>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb a008 <_sk_load_tables_u16_be_hsw+0x160>
+ .byte 114,59 // jb a268 <_sk_load_tables_u16_be_hsw+0x160>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,251,254,255,255 // je 9ed9 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,132,251,254,255,255 // je a139 <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,234,254,255,255 // jb 9ed9 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,130,234,254,255,255 // jb a139 <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,222,254,255,255 // jmpq 9ed9 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,222,254,255,255 // jmpq a139 <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,209,254,255,255 // jmpq 9ed9 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,209,254,255,255 // jmpq a139 <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,200,254,255,255 // jmpq 9ed9 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,200,254,255,255 // jmpq a139 <_sk_load_tables_u16_be_hsw+0x31>
HIDDEN _sk_load_tables_rgb_u16_be_hsw
.globl _sk_load_tables_rgb_u16_be_hsw
@@ -9815,7 +9929,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,206,0,0,0 // jne a0f1 <_sk_load_tables_rgb_u16_be_hsw+0xe0>
+ .byte 15,133,206,0,0,0 // jne a351 <_sk_load_tables_rgb_u16_be_hsw+0xe0>
.byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
.byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
.byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
@@ -9836,7 +9950,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 197,105,108,192 // vpunpcklqdq %xmm0,%xmm2,%xmm8
.byte 197,241,108,195 // vpunpcklqdq %xmm3,%xmm1,%xmm0
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,249,111,29,64,0,3,0 // vmovdqa 0x30040(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,249,111,29,0,8,3,0 // vmovdqa 0x30800(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 197,249,219,195 // vpand %xmm3,%xmm0,%xmm0
.byte 196,98,125,51,200 // vpmovzxwd %xmm0,%ymm9
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
@@ -9856,111 +9970,117 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 196,226,45,146,20,152 // vgatherdps %ymm10,(%rax,%ymm3,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,21,247,2,0 // vbroadcastss 0x2f715(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,201,254,2,0 // vbroadcastss 0x2fec9(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne a129 <_sk_load_tables_rgb_u16_be_hsw+0x118>
+ .byte 117,31 // jne a389 <_sk_load_tables_rgb_u16_be_hsw+0x118>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,47,255,255,255 // jmpq a058 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,47,255,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb a173 <_sk_load_tables_rgb_u16_be_hsw+0x162>
+ .byte 114,48 // jb a3d3 <_sk_load_tables_rgb_u16_be_hsw+0x162>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne a18d <_sk_load_tables_rgb_u16_be_hsw+0x17c>
+ .byte 117,48 // jne a3ed <_sk_load_tables_rgb_u16_be_hsw+0x17c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,229,254,255,255 // jmpq a058 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,229,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,203,254,255,255 // jmpq a058 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,203,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb a1ce <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
+ .byte 114,39 // jb a42e <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne a1df <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
+ .byte 117,30 // jne a43f <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,138,254,255,255 // jmpq a058 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,138,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,121,254,255,255 // jmpq a058 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,121,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb a212 <_sk_load_tables_rgb_u16_be_hsw+0x201>
+ .byte 114,25 // jb a472 <_sk_load_tables_rgb_u16_be_hsw+0x201>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,70,254,255,255 // jmpq a058 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,70,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,61,254,255,255 // jmpq a058 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,61,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47>
HIDDEN _sk_byte_tables_hsw
.globl _sk_byte_tables_hsw
FUNCTION(_sk_byte_tables_hsw)
_sk_byte_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,10,246,2,0 // vbroadcastss 0x2f60a(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
- .byte 196,65,249,126,200 // vmovq %xmm9,%r8
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,29,137,253,2,0 // vbroadcastss 0x2fd89(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,52,93,211 // vminps %ymm11,%ymm9,%ymm10
+ .byte 196,98,125,24,13,167,253,2,0 // vbroadcastss 0x2fda7(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,65,44,89,209 // vmulps %ymm9,%ymm10,%ymm10
+ .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
+ .byte 196,65,249,126,208 // vmovq %xmm10,%r8
.byte 69,137,193 // mov %r8d,%r9d
.byte 76,139,16 // mov (%rax),%r10
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
.byte 196,193,121,110,193 // vmovd %r9d,%xmm0
- .byte 196,67,249,22,201,1 // vpextrq $0x1,%xmm9,%r9
+ .byte 196,67,249,22,209,1 // vpextrq $0x1,%xmm10,%r9
.byte 73,193,232,32 // shr $0x20,%r8
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,121,32,208,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm10
+ .byte 196,67,121,32,224,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm12
.byte 69,137,200 // mov %r9d,%r8d
.byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,99,125,57,200,1 // vextracti128 $0x1,%ymm9,%xmm0
+ .byte 196,99,125,57,208,1 // vextracti128 $0x1,%ymm10,%xmm0
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,41,32,200,2 // vpinsrb $0x2,%r8d,%xmm10,%xmm9
+ .byte 196,67,25,32,208,2 // vpinsrb $0x2,%r8d,%xmm12,%xmm10
.byte 196,193,249,126,192 // vmovq %xmm0,%r8
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,49,32,201,3 // vpinsrb $0x3,%r9d,%xmm9,%xmm9
+ .byte 196,67,41,32,209,3 // vpinsrb $0x3,%r9d,%xmm10,%xmm10
.byte 69,137,193 // mov %r8d,%r9d
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,49,32,201,4 // vpinsrb $0x4,%r9d,%xmm9,%xmm9
+ .byte 196,67,41,32,209,4 // vpinsrb $0x4,%r9d,%xmm10,%xmm10
.byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9
.byte 73,193,232,32 // shr $0x20,%r8
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,195,49,32,192,5 // vpinsrb $0x5,%r8d,%xmm9,%xmm0
+ .byte 196,195,41,32,192,5 // vpinsrb $0x5,%r8d,%xmm10,%xmm0
.byte 69,137,200 // mov %r9d,%r8d
.byte 73,193,233,32 // shr $0x20,%r9
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
.byte 196,195,121,32,192,6 // vpinsrb $0x6,%r8d,%xmm0,%xmm0
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,121,32,201,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm9
- .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
+ .byte 196,67,121,32,209,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm10
+ .byte 197,188,95,193 // vmaxps %ymm1,%ymm8,%ymm0
+ .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
+ .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
+ .byte 197,253,91,200 // vcvtps2dq %ymm0,%ymm1
.byte 196,193,249,126,201 // vmovq %xmm1,%r9
.byte 69,137,202 // mov %r9d,%r10d
.byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
@@ -9991,7 +10111,9 @@ _sk_byte_tables_hsw:
.byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
.byte 196,195,121,32,200,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm1
.byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 196,193,108,89,192 // vmulps %ymm8,%ymm2,%ymm0
+ .byte 197,188,95,194 // vmaxps %ymm2,%ymm8,%ymm0
+ .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
+ .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,253,91,208 // vcvtps2dq %ymm0,%ymm2
.byte 196,193,249,126,209 // vmovq %xmm2,%r9
.byte 69,137,202 // mov %r9d,%r10d
@@ -10023,39 +10145,41 @@ _sk_byte_tables_hsw:
.byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
.byte 196,195,121,32,208,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm2
.byte 76,139,72,24 // mov 0x18(%rax),%r9
- .byte 196,193,100,89,192 // vmulps %ymm8,%ymm3,%ymm0
- .byte 197,253,91,216 // vcvtps2dq %ymm0,%ymm3
- .byte 196,193,249,126,216 // vmovq %xmm3,%r8
+ .byte 197,188,95,195 // vmaxps %ymm3,%ymm8,%ymm0
+ .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
+ .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
+ .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
+ .byte 196,193,249,126,192 // vmovq %xmm0,%r8
.byte 68,137,192 // mov %r8d,%eax
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,195,249,22,218,1 // vpextrq $0x1,%xmm3,%r10
+ .byte 197,249,110,216 // vmovd %eax,%xmm3
+ .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
.byte 73,193,232,32 // shr $0x20,%r8
.byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,121,32,192,1 // vpinsrb $0x1,%eax,%xmm0,%xmm0
+ .byte 196,227,97,32,216,1 // vpinsrb $0x1,%eax,%xmm3,%xmm3
.byte 68,137,208 // mov %r10d,%eax
.byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,219,1 // vextracti128 $0x1,%ymm3,%xmm3
+ .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,121,32,192,2 // vpinsrb $0x2,%eax,%xmm0,%xmm0
- .byte 196,193,249,126,216 // vmovq %xmm3,%r8
+ .byte 196,227,97,32,216,2 // vpinsrb $0x2,%eax,%xmm3,%xmm3
+ .byte 196,193,249,126,192 // vmovq %xmm0,%r8
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,227,121,32,192,3 // vpinsrb $0x3,%eax,%xmm0,%xmm0
+ .byte 196,227,97,32,216,3 // vpinsrb $0x3,%eax,%xmm3,%xmm3
.byte 68,137,192 // mov %r8d,%eax
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,121,32,192,4 // vpinsrb $0x4,%eax,%xmm0,%xmm0
- .byte 196,195,249,22,218,1 // vpextrq $0x1,%xmm3,%r10
+ .byte 196,227,97,32,216,4 // vpinsrb $0x4,%eax,%xmm3,%xmm3
+ .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
.byte 73,193,232,32 // shr $0x20,%r8
.byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,121,32,192,5 // vpinsrb $0x5,%eax,%xmm0,%xmm0
+ .byte 196,227,97,32,192,5 // vpinsrb $0x5,%eax,%xmm3,%xmm0
.byte 68,137,208 // mov %r10d,%eax
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
.byte 196,227,121,32,216,6 // vpinsrb $0x6,%eax,%xmm0,%xmm3
.byte 73,193,234,32 // shr $0x20,%r10
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
+ .byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,220,243,2,0 // vbroadcastss 0x2f3dc(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,93,251,2,0 // vbroadcastss 0x2fb5d(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -10080,41 +10204,47 @@ _sk_byte_tables_rgb_hsw:
.byte 196,65,121,110,192 // vmovd %r8d,%xmm8
.byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
- .byte 196,65,249,126,200 // vmovq %xmm9,%r8
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 197,52,95,208 // vmaxps %ymm0,%ymm9,%ymm10
+ .byte 196,98,125,24,29,130,250,2,0 // vbroadcastss 0x2fa82(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,44,93,211 // vminps %ymm11,%ymm10,%ymm10
+ .byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
+ .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
+ .byte 196,65,249,126,208 // vmovq %xmm10,%r8
.byte 69,137,193 // mov %r8d,%r9d
.byte 76,139,16 // mov (%rax),%r10
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
.byte 196,193,121,110,193 // vmovd %r9d,%xmm0
- .byte 196,67,249,22,201,1 // vpextrq $0x1,%xmm9,%r9
+ .byte 196,67,249,22,209,1 // vpextrq $0x1,%xmm10,%r9
.byte 73,193,232,32 // shr $0x20,%r8
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,121,32,208,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm10
+ .byte 196,67,121,32,224,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm12
.byte 69,137,200 // mov %r9d,%r8d
.byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,99,125,57,200,1 // vextracti128 $0x1,%ymm9,%xmm0
+ .byte 196,99,125,57,208,1 // vextracti128 $0x1,%ymm10,%xmm0
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,41,32,200,2 // vpinsrb $0x2,%r8d,%xmm10,%xmm9
+ .byte 196,67,25,32,208,2 // vpinsrb $0x2,%r8d,%xmm12,%xmm10
.byte 196,193,249,126,192 // vmovq %xmm0,%r8
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,49,32,201,3 // vpinsrb $0x3,%r9d,%xmm9,%xmm9
+ .byte 196,67,41,32,209,3 // vpinsrb $0x3,%r9d,%xmm10,%xmm10
.byte 69,137,193 // mov %r8d,%r9d
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,49,32,201,4 // vpinsrb $0x4,%r9d,%xmm9,%xmm9
+ .byte 196,67,41,32,209,4 // vpinsrb $0x4,%r9d,%xmm10,%xmm10
.byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9
.byte 73,193,232,32 // shr $0x20,%r8
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,195,49,32,192,5 // vpinsrb $0x5,%r8d,%xmm9,%xmm0
+ .byte 196,195,41,32,192,5 // vpinsrb $0x5,%r8d,%xmm10,%xmm0
.byte 69,137,200 // mov %r9d,%r8d
.byte 73,193,233,32 // shr $0x20,%r9
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
.byte 196,195,121,32,192,6 // vpinsrb $0x6,%r8d,%xmm0,%xmm0
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,121,32,201,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm9
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
+ .byte 196,67,121,32,209,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm10
+ .byte 197,180,95,193 // vmaxps %ymm1,%ymm9,%ymm0
+ .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
+ .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
+ .byte 197,253,91,200 // vcvtps2dq %ymm0,%ymm1
.byte 196,193,249,126,201 // vmovq %xmm1,%r9
.byte 69,137,202 // mov %r9d,%r10d
.byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
@@ -10145,39 +10275,41 @@ _sk_byte_tables_rgb_hsw:
.byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
.byte 196,195,121,32,200,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm1
.byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 197,188,89,194 // vmulps %ymm2,%ymm8,%ymm0
- .byte 197,253,91,208 // vcvtps2dq %ymm0,%ymm2
- .byte 196,193,249,126,208 // vmovq %xmm2,%r8
+ .byte 197,180,95,194 // vmaxps %ymm2,%ymm9,%ymm0
+ .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
+ .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
+ .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
+ .byte 196,193,249,126,192 // vmovq %xmm0,%r8
.byte 68,137,192 // mov %r8d,%eax
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
+ .byte 197,249,110,208 // vmovd %eax,%xmm2
+ .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
.byte 73,193,232,32 // shr $0x20,%r8
.byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,121,32,192,1 // vpinsrb $0x1,%eax,%xmm0,%xmm0
+ .byte 196,227,105,32,208,1 // vpinsrb $0x1,%eax,%xmm2,%xmm2
.byte 68,137,208 // mov %r10d,%eax
.byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,210,1 // vextracti128 $0x1,%ymm2,%xmm2
+ .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,121,32,192,2 // vpinsrb $0x2,%eax,%xmm0,%xmm0
- .byte 196,193,249,126,208 // vmovq %xmm2,%r8
+ .byte 196,227,105,32,208,2 // vpinsrb $0x2,%eax,%xmm2,%xmm2
+ .byte 196,193,249,126,192 // vmovq %xmm0,%r8
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,227,121,32,192,3 // vpinsrb $0x3,%eax,%xmm0,%xmm0
+ .byte 196,227,105,32,208,3 // vpinsrb $0x3,%eax,%xmm2,%xmm2
.byte 68,137,192 // mov %r8d,%eax
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,121,32,192,4 // vpinsrb $0x4,%eax,%xmm0,%xmm0
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
+ .byte 196,227,105,32,208,4 // vpinsrb $0x4,%eax,%xmm2,%xmm2
+ .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
.byte 73,193,232,32 // shr $0x20,%r8
.byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,121,32,192,5 // vpinsrb $0x5,%eax,%xmm0,%xmm0
+ .byte 196,227,105,32,192,5 // vpinsrb $0x5,%eax,%xmm2,%xmm0
.byte 68,137,208 // mov %r10d,%eax
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
.byte 196,227,121,32,208,6 // vpinsrb $0x6,%eax,%xmm0,%xmm2
.byte 73,193,234,32 // shr $0x20,%r10
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
+ .byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,176,241,2,0 // vbroadcastss 0x2f1b0(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,6,249,2,0 // vbroadcastss 0x2f906(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -10199,13 +10331,17 @@ _sk_table_r_hsw:
.byte 255,200 // dec %eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,125,91,192 // vcvtps2dq %ymm0,%ymm8
+ .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
+ .byte 196,98,125,24,21,57,248,2,0 // vbroadcastss 0x2f839(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,193,124,93,194 // vminps %ymm10,%ymm0,%ymm0
+ .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
+ .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 196,130,53,146,4,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm0
+ .byte 196,66,53,146,4,128 // vgatherdps %ymm9,(%r8,%ymm0,4),%ymm8
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
.byte 255,224 // jmpq *%rax
HIDDEN _sk_table_g_hsw
@@ -10218,13 +10354,17 @@ _sk_table_g_hsw:
.byte 255,200 // dec %eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 197,125,91,193 // vcvtps2dq %ymm1,%ymm8
+ .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
+ .byte 196,98,125,24,21,238,247,2,0 // vbroadcastss 0x2f7ee(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,193,116,93,202 // vminps %ymm10,%ymm1,%ymm1
+ .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
+ .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,130,53,146,12,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm1
+ .byte 196,66,53,146,4,136 // vgatherdps %ymm9,(%r8,%ymm1,4),%ymm8
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,193 // vmovaps %ymm8,%ymm1
.byte 255,224 // jmpq *%rax
HIDDEN _sk_table_b_hsw
@@ -10237,13 +10377,17 @@ _sk_table_b_hsw:
.byte 255,200 // dec %eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 197,125,91,194 // vcvtps2dq %ymm2,%ymm8
+ .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
+ .byte 196,98,125,24,21,163,247,2,0 // vbroadcastss 0x2f7a3(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,193,108,93,210 // vminps %ymm10,%ymm2,%ymm2
+ .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
+ .byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,130,53,146,20,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm2
+ .byte 196,66,53,146,4,144 // vgatherdps %ymm9,(%r8,%ymm2,4),%ymm8
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,194 // vmovaps %ymm8,%ymm2
.byte 255,224 // jmpq *%rax
HIDDEN _sk_table_a_hsw
@@ -10256,13 +10400,17 @@ _sk_table_a_hsw:
.byte 255,200 // dec %eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
- .byte 197,125,91,195 // vcvtps2dq %ymm3,%ymm8
+ .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
+ .byte 196,98,125,24,21,88,247,2,0 // vbroadcastss 0x2f758(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,193,100,93,218 // vminps %ymm10,%ymm3,%ymm3
+ .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
+ .byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,130,53,146,28,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm3
+ .byte 196,66,53,146,4,152 // vgatherdps %ymm9,(%r8,%ymm3,4),%ymm8
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,195 // vmovaps %ymm8,%ymm3
.byte 255,224 // jmpq *%rax
HIDDEN _sk_parametric_r_hsw
@@ -10282,33 +10430,33 @@ _sk_parametric_r_hsw:
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,36,194,208,0 // vcmpeqps %ymm0,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,141,240,2,0 // vbroadcastss 0x2f08d(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,136,240,2,0 // vbroadcastss 0x2f088(%rip),%ymm15 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,131,247,2,0 // vbroadcastss 0x2f783(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,61,126,247,2,0 // vbroadcastss 0x2f77e(%rip),%ymm15 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,218,239,2,0 // vbroadcastss 0x2efda(%rip),%ymm15 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,61,208,246,2,0 // vbroadcastss 0x2f6d0(%rip),%ymm15 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,112,240,2,0 // vbroadcastss 0x2f070(%rip),%ymm15 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,61,102,247,2,0 // vbroadcastss 0x2f766(%rip),%ymm15 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,102,240,2,0 // vbroadcastss 0x2f066(%rip),%ymm13 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,45,92,247,2,0 // vbroadcastss 0x2f75c(%rip),%ymm13 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,92,240,2,0 // vbroadcastss 0x2f05c(%rip),%ymm14 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,82,247,2,0 // vbroadcastss 0x2f752(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,82,240,2,0 // vbroadcastss 0x2f052(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,72,247,2,0 // vbroadcastss 0x2f748(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,51,240,2,0 // vbroadcastss 0x2f033(%rip),%ymm13 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,41,247,2,0 // vbroadcastss 0x2f729(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,41,240,2,0 // vbroadcastss 0x2f029(%rip),%ymm13 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,31,247,2,0 // vbroadcastss 0x2f71f(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,31,240,2,0 // vbroadcastss 0x2f01f(%rip),%ymm11 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,21,247,2,0 // vbroadcastss 0x2f715(%rip),%ymm11 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,21,240,2,0 // vbroadcastss 0x2f015(%rip),%ymm12 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,37,11,247,2,0 // vbroadcastss 0x2f70b(%rip),%ymm12 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,6,240,2,0 // vbroadcastss 0x2f006(%rip),%ymm12 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,252,246,2,0 // vbroadcastss 0x2f6fc(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,208,160 // vblendvps %ymm10,%ymm0,%ymm11,%ymm10
@@ -10316,7 +10464,7 @@ _sk_parametric_r_hsw:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,24,239,2,0 // vbroadcastss 0x2ef18(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,14,246,2,0 // vbroadcastss 0x2f60e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10338,33 +10486,33 @@ _sk_parametric_g_hsw:
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,36,194,209,0 // vcmpeqps %ymm1,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,91,239,2,0 // vbroadcastss 0x2ef5b(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,86,239,2,0 // vbroadcastss 0x2ef56(%rip),%ymm15 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,81,246,2,0 // vbroadcastss 0x2f651(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,61,76,246,2,0 // vbroadcastss 0x2f64c(%rip),%ymm15 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,168,238,2,0 // vbroadcastss 0x2eea8(%rip),%ymm15 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,61,158,245,2,0 // vbroadcastss 0x2f59e(%rip),%ymm15 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,62,239,2,0 // vbroadcastss 0x2ef3e(%rip),%ymm15 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,61,52,246,2,0 // vbroadcastss 0x2f634(%rip),%ymm15 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,52,239,2,0 // vbroadcastss 0x2ef34(%rip),%ymm13 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,45,42,246,2,0 // vbroadcastss 0x2f62a(%rip),%ymm13 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,42,239,2,0 // vbroadcastss 0x2ef2a(%rip),%ymm14 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,32,246,2,0 // vbroadcastss 0x2f620(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,32,239,2,0 // vbroadcastss 0x2ef20(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,22,246,2,0 // vbroadcastss 0x2f616(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,1,239,2,0 // vbroadcastss 0x2ef01(%rip),%ymm13 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,247,245,2,0 // vbroadcastss 0x2f5f7(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,247,238,2,0 // vbroadcastss 0x2eef7(%rip),%ymm13 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,237,245,2,0 // vbroadcastss 0x2f5ed(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,237,238,2,0 // vbroadcastss 0x2eeed(%rip),%ymm11 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,227,245,2,0 // vbroadcastss 0x2f5e3(%rip),%ymm11 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,227,238,2,0 // vbroadcastss 0x2eee3(%rip),%ymm12 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,37,217,245,2,0 // vbroadcastss 0x2f5d9(%rip),%ymm12 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,212,238,2,0 // vbroadcastss 0x2eed4(%rip),%ymm12 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,202,245,2,0 // vbroadcastss 0x2f5ca(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,209,160 // vblendvps %ymm10,%ymm1,%ymm11,%ymm10
@@ -10372,7 +10520,7 @@ _sk_parametric_g_hsw:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 196,98,125,24,5,230,237,2,0 // vbroadcastss 0x2ede6(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,220,244,2,0 // vbroadcastss 0x2f4dc(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10394,33 +10542,33 @@ _sk_parametric_b_hsw:
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,36,194,210,0 // vcmpeqps %ymm2,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,41,238,2,0 // vbroadcastss 0x2ee29(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,36,238,2,0 // vbroadcastss 0x2ee24(%rip),%ymm15 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,31,245,2,0 // vbroadcastss 0x2f51f(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,61,26,245,2,0 // vbroadcastss 0x2f51a(%rip),%ymm15 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,118,237,2,0 // vbroadcastss 0x2ed76(%rip),%ymm15 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,61,108,244,2,0 // vbroadcastss 0x2f46c(%rip),%ymm15 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,12,238,2,0 // vbroadcastss 0x2ee0c(%rip),%ymm15 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,61,2,245,2,0 // vbroadcastss 0x2f502(%rip),%ymm15 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,2,238,2,0 // vbroadcastss 0x2ee02(%rip),%ymm13 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,45,248,244,2,0 // vbroadcastss 0x2f4f8(%rip),%ymm13 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,248,237,2,0 // vbroadcastss 0x2edf8(%rip),%ymm14 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,238,244,2,0 // vbroadcastss 0x2f4ee(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,238,237,2,0 // vbroadcastss 0x2edee(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,228,244,2,0 // vbroadcastss 0x2f4e4(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,207,237,2,0 // vbroadcastss 0x2edcf(%rip),%ymm13 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,197,244,2,0 // vbroadcastss 0x2f4c5(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,197,237,2,0 // vbroadcastss 0x2edc5(%rip),%ymm13 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,187,244,2,0 // vbroadcastss 0x2f4bb(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,187,237,2,0 // vbroadcastss 0x2edbb(%rip),%ymm11 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,177,244,2,0 // vbroadcastss 0x2f4b1(%rip),%ymm11 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,177,237,2,0 // vbroadcastss 0x2edb1(%rip),%ymm12 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,37,167,244,2,0 // vbroadcastss 0x2f4a7(%rip),%ymm12 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,162,237,2,0 // vbroadcastss 0x2eda2(%rip),%ymm12 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,152,244,2,0 // vbroadcastss 0x2f498(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,210,160 // vblendvps %ymm10,%ymm2,%ymm11,%ymm10
@@ -10428,7 +10576,7 @@ _sk_parametric_b_hsw:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,180,236,2,0 // vbroadcastss 0x2ecb4(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,170,243,2,0 // vbroadcastss 0x2f3aa(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10450,33 +10598,33 @@ _sk_parametric_a_hsw:
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,36,194,211,0 // vcmpeqps %ymm3,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,247,236,2,0 // vbroadcastss 0x2ecf7(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,242,236,2,0 // vbroadcastss 0x2ecf2(%rip),%ymm15 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,237,243,2,0 // vbroadcastss 0x2f3ed(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,61,232,243,2,0 // vbroadcastss 0x2f3e8(%rip),%ymm15 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,68,236,2,0 // vbroadcastss 0x2ec44(%rip),%ymm15 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,61,58,243,2,0 // vbroadcastss 0x2f33a(%rip),%ymm15 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,218,236,2,0 // vbroadcastss 0x2ecda(%rip),%ymm15 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,61,208,243,2,0 // vbroadcastss 0x2f3d0(%rip),%ymm15 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,208,236,2,0 // vbroadcastss 0x2ecd0(%rip),%ymm13 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,45,198,243,2,0 // vbroadcastss 0x2f3c6(%rip),%ymm13 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,198,236,2,0 // vbroadcastss 0x2ecc6(%rip),%ymm14 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,188,243,2,0 // vbroadcastss 0x2f3bc(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,188,236,2,0 // vbroadcastss 0x2ecbc(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,178,243,2,0 // vbroadcastss 0x2f3b2(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,157,236,2,0 // vbroadcastss 0x2ec9d(%rip),%ymm13 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,147,243,2,0 // vbroadcastss 0x2f393(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,147,236,2,0 // vbroadcastss 0x2ec93(%rip),%ymm13 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,137,243,2,0 // vbroadcastss 0x2f389(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,137,236,2,0 // vbroadcastss 0x2ec89(%rip),%ymm11 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,29,127,243,2,0 // vbroadcastss 0x2f37f(%rip),%ymm11 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,127,236,2,0 // vbroadcastss 0x2ec7f(%rip),%ymm12 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,37,117,243,2,0 // vbroadcastss 0x2f375(%rip),%ymm12 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,112,236,2,0 // vbroadcastss 0x2ec70(%rip),%ymm12 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,102,243,2,0 // vbroadcastss 0x2f366(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,211,160 // vblendvps %ymm10,%ymm3,%ymm11,%ymm10
@@ -10484,7 +10632,7 @@ _sk_parametric_a_hsw:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
- .byte 196,98,125,24,5,130,235,2,0 // vbroadcastss 0x2eb82(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,120,242,2,0 // vbroadcastss 0x2f278(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10502,24 +10650,24 @@ _sk_gamma_hsw:
.byte 197,252,17,84,36,224 // vmovups %ymm2,-0x20(%rsp)
.byte 197,252,17,12,36 // vmovups %ymm1,(%rsp)
.byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 196,98,125,24,29,203,235,2,0 // vbroadcastss 0x2ebcb(%rip),%ymm11 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,226,125,24,37,198,235,2,0 // vbroadcastss 0x2ebc6(%rip),%ymm4 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,29,193,242,2,0 // vbroadcastss 0x2f2c1(%rip),%ymm11 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,226,125,24,37,188,242,2,0 // vbroadcastss 0x2f2bc(%rip),%ymm4 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 197,124,84,228 // vandps %ymm4,%ymm0,%ymm12
- .byte 196,226,125,24,29,25,235,2,0 // vbroadcastss 0x2eb19(%rip),%ymm3 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,29,15,242,2,0 // vbroadcastss 0x2f20f(%rip),%ymm3 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,17,92,36,32 // vmovups %ymm3,0x20(%rsp)
.byte 197,28,86,227 // vorps %ymm3,%ymm12,%ymm12
- .byte 196,98,125,24,45,170,235,2,0 // vbroadcastss 0x2ebaa(%rip),%ymm13 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,45,160,242,2,0 // vbroadcastss 0x2f2a0(%rip),%ymm13 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10
.byte 197,124,91,241 // vcvtdq2ps %ymm1,%ymm14
.byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14
.byte 197,124,91,250 // vcvtdq2ps %ymm2,%ymm15
.byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15
- .byte 196,226,125,24,45,142,235,2,0 // vbroadcastss 0x2eb8e(%rip),%ymm5 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,226,125,24,45,132,242,2,0 // vbroadcastss 0x2f284(%rip),%ymm5 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,98,29,188,213 // vfnmadd231ps %ymm5,%ymm12,%ymm10
- .byte 196,226,125,24,13,132,235,2,0 // vbroadcastss 0x2eb84(%rip),%ymm1 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,226,125,24,13,122,242,2,0 // vbroadcastss 0x2f27a(%rip),%ymm1 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp)
.byte 197,28,88,225 // vaddps %ymm1,%ymm12,%ymm12
- .byte 196,98,125,24,5,117,235,2,0 // vbroadcastss 0x2eb75(%rip),%ymm8 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,5,107,242,2,0 // vbroadcastss 0x2f26b(%rip),%ymm8 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,60,94,228 // vdivps %ymm12,%ymm8,%ymm12
.byte 197,124,17,68,36,128 // vmovups %ymm8,-0x80(%rsp)
.byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
@@ -10528,18 +10676,18 @@ _sk_gamma_hsw:
.byte 196,65,44,89,213 // vmulps %ymm13,%ymm10,%ymm10
.byte 196,195,125,8,250,1 // vroundps $0x1,%ymm10,%ymm7
.byte 197,172,92,255 // vsubps %ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,29,74,235,2,0 // vbroadcastss 0x2eb4a(%rip),%ymm11 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,29,64,242,2,0 // vbroadcastss 0x2f240(%rip),%ymm11 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,37,64,235,2,0 // vbroadcastss 0x2eb40(%rip),%ymm12 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,37,54,242,2,0 // vbroadcastss 0x2f236(%rip),%ymm12 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,69,188,212 // vfnmadd231ps %ymm12,%ymm7,%ymm10
- .byte 196,98,125,24,13,54,235,2,0 // vbroadcastss 0x2eb36(%rip),%ymm9 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,13,44,242,2,0 // vbroadcastss 0x2f22c(%rip),%ymm9 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 197,180,92,255 // vsubps %ymm7,%ymm9,%ymm7
- .byte 196,226,125,24,13,45,235,2,0 // vbroadcastss 0x2eb2d(%rip),%ymm1 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,226,125,24,13,35,242,2,0 // vbroadcastss 0x2f223(%rip),%ymm1 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,244,94,255 // vdivps %ymm7,%ymm1,%ymm7
.byte 197,172,88,255 // vaddps %ymm7,%ymm10,%ymm7
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,193,124,194,242,0 // vcmpeqps %ymm10,%ymm0,%ymm6
- .byte 196,226,125,24,29,21,235,2,0 // vbroadcastss 0x2eb15(%rip),%ymm3 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,226,125,24,29,11,242,2,0 // vbroadcastss 0x2f20b(%rip),%ymm3 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,196,89,251 // vmulps %ymm3,%ymm7,%ymm7
.byte 197,253,91,255 // vcvtps2dq %ymm7,%ymm7
.byte 196,195,69,74,194,96 // vblendvps %ymm6,%ymm10,%ymm7,%ymm0
@@ -10608,27 +10756,27 @@ _sk_gamma_dst_hsw:
.byte 197,252,17,76,36,64 // vmovups %ymm1,0x40(%rsp)
.byte 197,252,17,68,36,32 // vmovups %ymm0,0x20(%rsp)
.byte 197,124,91,212 // vcvtdq2ps %ymm4,%ymm10
- .byte 196,98,125,24,29,151,233,2,0 // vbroadcastss 0x2e997(%rip),%ymm11 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,226,125,24,5,146,233,2,0 // vbroadcastss 0x2e992(%rip),%ymm0 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,29,141,240,2,0 // vbroadcastss 0x2f08d(%rip),%ymm11 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,226,125,24,5,136,240,2,0 // vbroadcastss 0x2f088(%rip),%ymm0 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 197,92,84,224 // vandps %ymm0,%ymm4,%ymm12
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,220 // vmovaps %ymm4,%ymm3
- .byte 196,226,125,24,5,221,232,2,0 // vbroadcastss 0x2e8dd(%rip),%ymm0 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,211,239,2,0 // vbroadcastss 0x2efd3(%rip),%ymm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,17,4,36 // vmovups %ymm0,(%rsp)
.byte 197,28,86,224 // vorps %ymm0,%ymm12,%ymm12
- .byte 196,98,125,24,45,111,233,2,0 // vbroadcastss 0x2e96f(%rip),%ymm13 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,45,101,240,2,0 // vbroadcastss 0x2f065(%rip),%ymm13 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10
.byte 197,252,40,197 // vmovaps %ymm5,%ymm0
.byte 197,124,91,240 // vcvtdq2ps %ymm0,%ymm14
.byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14
.byte 197,124,91,124,36,128 // vcvtdq2ps -0x80(%rsp),%ymm15
.byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15
- .byte 196,226,125,24,45,77,233,2,0 // vbroadcastss 0x2e94d(%rip),%ymm5 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,226,125,24,45,67,240,2,0 // vbroadcastss 0x2f043(%rip),%ymm5 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,98,29,188,213 // vfnmadd231ps %ymm5,%ymm12,%ymm10
- .byte 196,226,125,24,13,67,233,2,0 // vbroadcastss 0x2e943(%rip),%ymm1 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,226,125,24,13,57,240,2,0 // vbroadcastss 0x2f039(%rip),%ymm1 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 197,252,17,76,36,192 // vmovups %ymm1,-0x40(%rsp)
.byte 197,28,88,225 // vaddps %ymm1,%ymm12,%ymm12
- .byte 196,98,125,24,13,52,233,2,0 // vbroadcastss 0x2e934(%rip),%ymm9 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,13,42,240,2,0 // vbroadcastss 0x2f02a(%rip),%ymm9 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,52,94,228 // vdivps %ymm12,%ymm9,%ymm12
.byte 197,124,17,76,36,160 // vmovups %ymm9,-0x60(%rsp)
.byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
@@ -10637,18 +10785,18 @@ _sk_gamma_dst_hsw:
.byte 196,65,44,89,213 // vmulps %ymm13,%ymm10,%ymm10
.byte 196,195,125,8,250,1 // vroundps $0x1,%ymm10,%ymm7
.byte 197,172,92,255 // vsubps %ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,29,9,233,2,0 // vbroadcastss 0x2e909(%rip),%ymm11 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,29,255,239,2,0 // vbroadcastss 0x2efff(%rip),%ymm11 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,37,255,232,2,0 // vbroadcastss 0x2e8ff(%rip),%ymm12 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,37,245,239,2,0 // vbroadcastss 0x2eff5(%rip),%ymm12 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,66,69,188,212 // vfnmadd231ps %ymm12,%ymm7,%ymm10
- .byte 196,98,125,24,5,245,232,2,0 // vbroadcastss 0x2e8f5(%rip),%ymm8 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,5,235,239,2,0 // vbroadcastss 0x2efeb(%rip),%ymm8 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 197,188,92,255 // vsubps %ymm7,%ymm8,%ymm7
- .byte 196,226,125,24,13,236,232,2,0 // vbroadcastss 0x2e8ec(%rip),%ymm1 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,226,125,24,13,226,239,2,0 // vbroadcastss 0x2efe2(%rip),%ymm1 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,244,94,255 // vdivps %ymm7,%ymm1,%ymm7
.byte 197,172,88,255 // vaddps %ymm7,%ymm10,%ymm7
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,193,100,194,242,0 // vcmpeqps %ymm10,%ymm3,%ymm6
- .byte 196,226,125,24,29,212,232,2,0 // vbroadcastss 0x2e8d4(%rip),%ymm3 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,226,125,24,29,202,239,2,0 // vbroadcastss 0x2efca(%rip),%ymm3 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,196,89,251 // vmulps %ymm3,%ymm7,%ymm7
.byte 197,253,91,255 // vcvtps2dq %ymm7,%ymm7
.byte 196,195,69,74,226,96 // vblendvps %ymm6,%ymm10,%ymm7,%ymm4
@@ -10709,26 +10857,26 @@ HIDDEN _sk_lab_to_xyz_hsw
.globl _sk_lab_to_xyz_hsw
FUNCTION(_sk_lab_to_xyz_hsw)
_sk_lab_to_xyz_hsw:
- .byte 196,98,125,24,5,191,231,2,0 // vbroadcastss 0x2e7bf(%rip),%ymm8 # 398c8 <_sk_srcover_bgra_8888_sse2_lowp+0x374>
- .byte 196,98,125,24,13,30,231,2,0 // vbroadcastss 0x2e71e(%rip),%ymm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,125,24,21,177,231,2,0 // vbroadcastss 0x2e7b1(%rip),%ymm10 # 398cc <_sk_srcover_bgra_8888_sse2_lowp+0x378>
+ .byte 196,98,125,24,5,181,238,2,0 // vbroadcastss 0x2eeb5(%rip),%ymm8 # 3a2dc <_sk_srcover_bgra_8888_sse2_lowp+0x374>
+ .byte 196,98,125,24,13,20,238,2,0 // vbroadcastss 0x2ee14(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,167,238,2,0 // vbroadcastss 0x2eea7(%rip),%ymm10 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 196,98,125,24,13,162,231,2,0 // vbroadcastss 0x2e7a2(%rip),%ymm9 # 398d0 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
+ .byte 196,98,125,24,13,152,238,2,0 // vbroadcastss 0x2ee98(%rip),%ymm9 # 3a2e4 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
.byte 196,66,125,184,200 // vfmadd231ps %ymm8,%ymm0,%ymm9
- .byte 196,226,125,24,5,152,231,2,0 // vbroadcastss 0x2e798(%rip),%ymm0 # 398d4 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
+ .byte 196,226,125,24,5,142,238,2,0 // vbroadcastss 0x2ee8e(%rip),%ymm0 # 3a2e8 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,5,143,231,2,0 // vbroadcastss 0x2e78f(%rip),%ymm8 # 398d8 <_sk_srcover_bgra_8888_sse2_lowp+0x384>
+ .byte 196,98,125,24,5,133,238,2,0 // vbroadcastss 0x2ee85(%rip),%ymm8 # 3a2ec <_sk_srcover_bgra_8888_sse2_lowp+0x384>
.byte 196,98,117,168,192 // vfmadd213ps %ymm0,%ymm1,%ymm8
- .byte 196,98,125,24,13,133,231,2,0 // vbroadcastss 0x2e785(%rip),%ymm9 # 398dc <_sk_srcover_bgra_8888_sse2_lowp+0x388>
+ .byte 196,98,125,24,13,123,238,2,0 // vbroadcastss 0x2ee7b(%rip),%ymm9 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
.byte 196,98,109,172,200 // vfnmadd213ps %ymm0,%ymm2,%ymm9
.byte 196,193,60,89,200 // vmulps %ymm8,%ymm8,%ymm1
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 196,226,125,24,21,114,231,2,0 // vbroadcastss 0x2e772(%rip),%ymm2 # 398e0 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
+ .byte 196,226,125,24,21,104,238,2,0 // vbroadcastss 0x2ee68(%rip),%ymm2 # 3a2f4 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
.byte 197,108,194,209,1 // vcmpltps %ymm1,%ymm2,%ymm10
- .byte 196,98,125,24,29,104,231,2,0 // vbroadcastss 0x2e768(%rip),%ymm11 # 398e4 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
+ .byte 196,98,125,24,29,94,238,2,0 // vbroadcastss 0x2ee5e(%rip),%ymm11 # 3a2f8 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,37,94,231,2,0 // vbroadcastss 0x2e75e(%rip),%ymm12 # 398e8 <_sk_srcover_bgra_8888_sse2_lowp+0x394>
+ .byte 196,98,125,24,37,84,238,2,0 // vbroadcastss 0x2ee54(%rip),%ymm12 # 3a2fc <_sk_srcover_bgra_8888_sse2_lowp+0x394>
.byte 196,65,60,89,196 // vmulps %ymm12,%ymm8,%ymm8
.byte 196,99,61,74,193,160 // vblendvps %ymm10,%ymm1,%ymm8,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -10743,9 +10891,9 @@ _sk_lab_to_xyz_hsw:
.byte 196,65,52,88,203 // vaddps %ymm11,%ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
.byte 196,227,53,74,208,32 // vblendvps %ymm2,%ymm0,%ymm9,%ymm2
- .byte 196,226,125,24,5,19,231,2,0 // vbroadcastss 0x2e713(%rip),%ymm0 # 398ec <_sk_srcover_bgra_8888_sse2_lowp+0x398>
+ .byte 196,226,125,24,5,9,238,2,0 // vbroadcastss 0x2ee09(%rip),%ymm0 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,10,231,2,0 // vbroadcastss 0x2e70a(%rip),%ymm8 # 398f0 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
+ .byte 196,98,125,24,5,0,238,2,0 // vbroadcastss 0x2ee00(%rip),%ymm8 # 3a304 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10761,12 +10909,12 @@ _sk_load_a8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne b23b <_sk_load_a8_hsw+0x4c>
+ .byte 117,52 // jne b559 <_sk_load_a8_hsw+0x4c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,187,238,2,0 // vpand 0x2eebb(%rip),%xmm0,%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,249,219,5,189,245,2,0 // vpand 0x2f5bd(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,85,230,2,0 // vbroadcastss 0x2e655(%rip),%ymm1 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,75,237,2,0 // vbroadcastss 0x2ed4b(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -10778,15 +10926,15 @@ _sk_load_a8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,190 // ja b20d <_sk_load_a8_hsw+0x1e>
+ .byte 119,190 // ja b52b <_sk_load_a8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # b2d4 <_sk_load_a8_hsw+0xe5>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b5f0 <_sk_load_a8_hsw+0xe3>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,159 // jmp b20d <_sk_load_a8_hsw+0x1e>
+ .byte 235,159 // jmp b52b <_sk_load_a8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -10794,7 +10942,7 @@ _sk_load_a8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,119,255,255,255 // jmpq b20d <_sk_load_a8_hsw+0x1e>
+ .byte 233,119,255,255,255 // jmpq b52b <_sk_load_a8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -10805,24 +10953,22 @@ _sk_load_a8_hsw:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,60,255,255,255 // jmpq b20d <_sk_load_a8_hsw+0x1e>
- .byte 15,31,0 // nopl (%rax)
- .byte 143 // (bad)
+ .byte 233,60,255,255,255 // jmpq b52b <_sk_load_a8_hsw+0x1e>
+ .byte 144 // nop
+ .byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,169,255,255,255,154 // ljmp *-0x65000001(%rcx)
- .byte 255 // (bad)
+ .byte 255,171,255,255,255,156 // ljmp *-0x63000001(%rbx)
.byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
.byte 255 // (bad)
.byte 255 // (bad)
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00b600 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd1698>
.byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
.byte 255 // (bad)
- .byte 255,209 // callq *%rcx
+ .byte 255,211 // callq *%rbx
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,194 // inc %edx
+ .byte 255,196 // inc %esp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -10838,12 +10984,12 @@ _sk_load_a8_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne b33c <_sk_load_a8_dst_hsw+0x4c>
+ .byte 117,52 // jne b658 <_sk_load_a8_dst_hsw+0x4c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,186,237,2,0 // vpand 0x2edba(%rip),%xmm4,%xmm4 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,217,219,37,190,244,2,0 // vpand 0x2f4be(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,84,229,2,0 // vbroadcastss 0x2e554(%rip),%ymm5 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,76,236,2,0 // vbroadcastss 0x2ec4c(%rip),%ymm5 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -10855,15 +11001,15 @@ _sk_load_a8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,190 // ja b30e <_sk_load_a8_dst_hsw+0x1e>
+ .byte 119,190 // ja b62a <_sk_load_a8_dst_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # b3d4 <_sk_load_a8_dst_hsw+0xe4>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # b6f0 <_sk_load_a8_dst_hsw+0xe4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,159 // jmp b30e <_sk_load_a8_dst_hsw+0x1e>
+ .byte 235,159 // jmp b62a <_sk_load_a8_dst_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -10871,7 +11017,7 @@ _sk_load_a8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,119,255,255,255 // jmpq b30e <_sk_load_a8_dst_hsw+0x1e>
+ .byte 233,119,255,255,255 // jmpq b62a <_sk_load_a8_dst_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -10882,7 +11028,7 @@ _sk_load_a8_dst_hsw:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,60,255,255,255 // jmpq b30e <_sk_load_a8_dst_hsw+0x1e>
+ .byte 233,60,255,255,255 // jmpq b62a <_sk_load_a8_dst_hsw+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -10891,7 +11037,7 @@ _sk_load_a8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00b3e4 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd1e90>
+ .byte 232,255,255,255,221 // callq ffffffffde00b700 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd1798>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -10958,7 +11104,7 @@ _sk_gather_a8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,155,227,2,0 // vbroadcastss 0x2e39b(%rip),%ymm1 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,147,234,2,0 // vbroadcastss 0x2ea93(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -10980,14 +11126,18 @@ _sk_store_a8_hsw:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,24,227,2,0 // vbroadcastss 0x2e318(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,98,125,24,13,219,233,2,0 // vbroadcastss 0x2e9db(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8
+ .byte 196,98,125,24,13,249,233,2,0 // vbroadcastss 0x2e9f9(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne b540 <_sk_store_a8_hsw+0x44>
+ .byte 117,10 // jne b873 <_sk_store_a8_hsw+0x5b>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10995,42 +11145,41 @@ _sk_store_a8_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja b53c <_sk_store_a8_hsw+0x40>
+ .byte 119,236 // ja b86f <_sk_store_a8_hsw+0x57>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,88,0,0,0 // lea 0x58(%rip),%r10 # b5b8 <_sk_store_a8_hsw+0xbc>
+ .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # b8e8 <_sk_store_a8_hsw+0xd0>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,202 // jmp b53c <_sk_store_a8_hsw+0x40>
+ .byte 235,202 // jmp b86f <_sk_store_a8_hsw+0x57>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,93,235,2,0 // vpshufb 0x2eb5d(%rip),%xmm8,%xmm8 # 3a0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xb8c>
+ .byte 196,98,57,0,5,74,242,2,0 // vpshufb 0x2f24a(%rip),%xmm8,%xmm8 # 3ab00 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,176 // jmp b53c <_sk_store_a8_hsw+0x40>
+ .byte 235,176 // jmp b86f <_sk_store_a8_hsw+0x57>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,67,235,2,0 // vpshufb 0x2eb43(%rip),%xmm8,%xmm8 # 3a0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xb9c>
+ .byte 196,98,57,0,5,48,242,2,0 // vpshufb 0x2f230(%rip),%xmm8,%xmm8 # 3ab10 <_sk_srcover_bgra_8888_sse2_lowp+0xba8>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
- .byte 235,135 // jmp b53c <_sk_store_a8_hsw+0x40>
- .byte 15,31,0 // nopl (%rax)
- .byte 177,255 // mov $0xff,%cl
+ .byte 235,135 // jmp b86f <_sk_store_a8_hsw+0x57>
+ .byte 180,255 // mov $0xff,%ah
.byte 255 // (bad)
- .byte 255,194 // inc %edx
+ .byte 255,197 // inc %ebp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 186,255,255,255,236 // mov $0xecffffff,%edx
+ .byte 189,255,255,255,239 // mov $0xefffffff,%ebp
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,228 // jmpq *%rsp
+ .byte 255,231 // jmpq *%rdi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
+ .byte 223,255 // (bad)
.byte 255 // (bad)
- .byte 255,212 // callq *%rsp
+ .byte 255,215 // callq *%rdi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -11046,15 +11195,15 @@ _sk_load_g8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne b625 <_sk_load_g8_hsw+0x51>
+ .byte 117,57 // jne b955 <_sk_load_g8_hsw+0x51>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,214,234,2,0 // vpand 0x2ead6(%rip),%xmm0,%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,249,219,5,198,241,2,0 // vpand 0x2f1c6(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,112,226,2,0 // vbroadcastss 0x2e270(%rip),%ymm1 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,84,233,2,0 // vbroadcastss 0x2e954(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,233,225,2,0 // vbroadcastss 0x2e1e9(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,205,232,2,0 // vbroadcastss 0x2e8cd(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -11063,15 +11212,15 @@ _sk_load_g8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,185 // ja b5f2 <_sk_load_g8_hsw+0x1e>
+ .byte 119,185 // ja b922 <_sk_load_g8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b6bc <_sk_load_g8_hsw+0xe8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b9ec <_sk_load_g8_hsw+0xe8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,154 // jmp b5f2 <_sk_load_g8_hsw+0x1e>
+ .byte 235,154 // jmp b922 <_sk_load_g8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -11079,7 +11228,7 @@ _sk_load_g8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,114,255,255,255 // jmpq b5f2 <_sk_load_g8_hsw+0x1e>
+ .byte 233,114,255,255,255 // jmpq b922 <_sk_load_g8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -11090,7 +11239,7 @@ _sk_load_g8_hsw:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,55,255,255,255 // jmpq b5f2 <_sk_load_g8_hsw+0x1e>
+ .byte 233,55,255,255,255 // jmpq b922 <_sk_load_g8_hsw+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -11099,7 +11248,7 @@ _sk_load_g8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00b6cc <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd2178>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00b9fc <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd1a94>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -11121,15 +11270,15 @@ _sk_load_g8_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne b729 <_sk_load_g8_dst_hsw+0x51>
+ .byte 117,57 // jne ba59 <_sk_load_g8_dst_hsw+0x51>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,210,233,2,0 // vpand 0x2e9d2(%rip),%xmm4,%xmm4 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,217,219,37,194,240,2,0 // vpand 0x2f0c2(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,108,225,2,0 // vbroadcastss 0x2e16c(%rip),%ymm5 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,80,232,2,0 // vbroadcastss 0x2e850(%rip),%ymm5 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,229,224,2,0 // vbroadcastss 0x2e0e5(%rip),%ymm7 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,201,231,2,0 // vbroadcastss 0x2e7c9(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -11138,15 +11287,15 @@ _sk_load_g8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,185 // ja b6f6 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 119,185 // ja ba26 <_sk_load_g8_dst_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b7c0 <_sk_load_g8_dst_hsw+0xe8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # baf0 <_sk_load_g8_dst_hsw+0xe8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,154 // jmp b6f6 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 235,154 // jmp ba26 <_sk_load_g8_dst_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -11154,7 +11303,7 @@ _sk_load_g8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,114,255,255,255 // jmpq b6f6 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 233,114,255,255,255 // jmpq ba26 <_sk_load_g8_dst_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -11165,7 +11314,7 @@ _sk_load_g8_dst_hsw:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,55,255,255,255 // jmpq b6f6 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 233,55,255,255,255 // jmpq ba26 <_sk_load_g8_dst_hsw+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -11174,7 +11323,7 @@ _sk_load_g8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00b7d0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd227c>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd1b98>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -11241,10 +11390,10 @@ _sk_gather_g8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,175,223,2,0 // vbroadcastss 0x2dfaf(%rip),%ymm1 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,147,230,2,0 // vbroadcastss 0x2e693(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,40,223,2,0 // vbroadcastss 0x2df28(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,12,230,2,0 // vbroadcastss 0x2e60c(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -11265,53 +11414,53 @@ _sk_load_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne b97a <_sk_load_565_hsw+0x8d>
+ .byte 117,114 // jne bcaa <_sk_load_565_hsw+0x8d>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,100,223,2,0 // vpbroadcastd 0x2df64(%rip),%ymm0 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,88,5,72,230,2,0 // vpbroadcastd 0x2e648(%rip),%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,87,223,2,0 // vbroadcastss 0x2df57(%rip),%ymm1 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,59,230,2,0 // vbroadcastss 0x2e63b(%rip),%ymm1 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,78,223,2,0 // vpbroadcastd 0x2df4e(%rip),%ymm1 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,88,13,50,230,2,0 // vpbroadcastd 0x2e632(%rip),%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,65,223,2,0 // vbroadcastss 0x2df41(%rip),%ymm3 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,37,230,2,0 // vbroadcastss 0x2e625(%rip),%ymm3 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,56,223,2,0 // vpbroadcastd 0x2df38(%rip),%ymm3 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,88,29,28,230,2,0 // vpbroadcastd 0x2e61c(%rip),%ymm3 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,43,223,2,0 // vbroadcastss 0x2df2b(%rip),%ymm3 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,15,230,2,0 // vbroadcastss 0x2e60f(%rip),%ymm3 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,140,222,2,0 // vbroadcastss 0x2de8c(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,112,229,2,0 // vbroadcastss 0x2e570(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,128 // ja b90e <_sk_load_565_hsw+0x21>
+ .byte 119,128 // ja bc3e <_sk_load_565_hsw+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # b9fc <_sk_load_565_hsw+0x10f>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # bd2c <_sk_load_565_hsw+0x10f>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,94,255,255,255 // jmpq b90e <_sk_load_565_hsw+0x21>
+ .byte 233,94,255,255,255 // jmpq bc3e <_sk_load_565_hsw+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,65,255,255,255 // jmpq b90e <_sk_load_565_hsw+0x21>
+ .byte 233,65,255,255,255 // jmpq bc3e <_sk_load_565_hsw+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,20,255,255,255 // jmpq b90e <_sk_load_565_hsw+0x21>
+ .byte 233,20,255,255,255 // jmpq bc3e <_sk_load_565_hsw+0x21>
.byte 102,144 // xchg %ax,%ax
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
@@ -11344,53 +11493,53 @@ _sk_load_565_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne baa5 <_sk_load_565_dst_hsw+0x8d>
+ .byte 117,114 // jne bdd5 <_sk_load_565_dst_hsw+0x8d>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 196,226,125,88,37,57,222,2,0 // vpbroadcastd 0x2de39(%rip),%ymm4 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,88,37,29,229,2,0 // vpbroadcastd 0x2e51d(%rip),%ymm4 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,205,219,228 // vpand %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,44,222,2,0 // vbroadcastss 0x2de2c(%rip),%ymm5 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,45,16,229,2,0 // vbroadcastss 0x2e510(%rip),%ymm5 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,35,222,2,0 // vpbroadcastd 0x2de23(%rip),%ymm5 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,88,45,7,229,2,0 // vpbroadcastd 0x2e507(%rip),%ymm5 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,22,222,2,0 // vbroadcastss 0x2de16(%rip),%ymm7 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,61,250,228,2,0 // vbroadcastss 0x2e4fa(%rip),%ymm7 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,88,61,13,222,2,0 // vpbroadcastd 0x2de0d(%rip),%ymm7 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,88,61,241,228,2,0 // vpbroadcastd 0x2e4f1(%rip),%ymm7 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,0,222,2,0 // vbroadcastss 0x2de00(%rip),%ymm7 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,61,228,228,2,0 // vbroadcastss 0x2e4e4(%rip),%ymm7 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,97,221,2,0 // vbroadcastss 0x2dd61(%rip),%ymm7 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,69,228,2,0 // vbroadcastss 0x2e445(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,128 // ja ba39 <_sk_load_565_dst_hsw+0x21>
+ .byte 119,128 // ja bd69 <_sk_load_565_dst_hsw+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # bb28 <_sk_load_565_dst_hsw+0x110>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # be58 <_sk_load_565_dst_hsw+0x110>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,94,255,255,255 // jmpq ba39 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,94,255,255,255 // jmpq bd69 <_sk_load_565_dst_hsw+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,65,255,255,255 // jmpq ba39 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,65,255,255,255 // jmpq bd69 <_sk_load_565_dst_hsw+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,20,255,255,255 // jmpq ba39 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,20,255,255,255 // jmpq bd69 <_sk_load_565_dst_hsw+0x21>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -11469,23 +11618,23 @@ _sk_gather_565_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,84,220,2,0 // vpbroadcastd 0x2dc54(%rip),%ymm0 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,88,5,56,227,2,0 // vpbroadcastd 0x2e338(%rip),%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,71,220,2,0 // vbroadcastss 0x2dc47(%rip),%ymm1 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,43,227,2,0 // vbroadcastss 0x2e32b(%rip),%ymm1 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,62,220,2,0 // vpbroadcastd 0x2dc3e(%rip),%ymm1 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,88,13,34,227,2,0 // vpbroadcastd 0x2e322(%rip),%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,49,220,2,0 // vbroadcastss 0x2dc31(%rip),%ymm3 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,21,227,2,0 // vbroadcastss 0x2e315(%rip),%ymm3 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,40,220,2,0 // vpbroadcastd 0x2dc28(%rip),%ymm3 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,88,29,12,227,2,0 // vpbroadcastd 0x2e30c(%rip),%ymm3 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,27,220,2,0 // vbroadcastss 0x2dc1b(%rip),%ymm3 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,255,226,2,0 // vbroadcastss 0x2e2ff(%rip),%ymm3 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,124,219,2,0 // vbroadcastss 0x2db7c(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,96,226,2,0 // vbroadcastss 0x2e260(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -11503,22 +11652,30 @@ _sk_store_565_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,68,220,2,0 // vbroadcastss 0x2dc44(%rip),%ymm8 # 398f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
- .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,21,47,226,2,0 // vbroadcastss 0x2e22f(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,98,125,24,29,17,227,2,0 // vbroadcastss 0x2e311(%rip),%ymm11 # 3a308 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
+ .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
- .byte 196,98,125,24,21,47,220,2,0 // vbroadcastss 0x2dc2f(%rip),%ymm10 # 398f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
- .byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,45,114,242,5 // vpslld $0x5,%ymm10,%ymm10
- .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9
- .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8
+ .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,98,125,24,45,243,226,2,0 // vbroadcastss 0x2e2f3(%rip),%ymm13 # 3a30c <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
+ .byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,29,114,244,5 // vpslld $0x5,%ymm12,%ymm12
+ .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
+ .byte 197,60,95,194 // vmaxps %ymm2,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne bd07 <_sk_store_565_hsw+0x76>
+ .byte 117,10 // jne c060 <_sk_store_565_hsw+0x9f>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11526,42 +11683,45 @@ _sk_store_565_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja bd03 <_sk_store_565_hsw+0x72>
+ .byte 119,236 // ja c05c <_sk_store_565_hsw+0x9b>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # bd64 <_sk_store_565_hsw+0xd3>
+ .byte 76,141,21,69,0,0,0 // lea 0x45(%rip),%r10 # c0c0 <_sk_store_565_hsw+0xff>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp bd03 <_sk_store_565_hsw+0x72>
+ .byte 235,207 // jmp c05c <_sk_store_565_hsw+0x9b>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp bd03 <_sk_store_565_hsw+0x72>
+ .byte 235,191 // jmp c05c <_sk_store_565_hsw+0x9b>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp bd03 <_sk_store_565_hsw+0x72>
- .byte 199 // (bad)
+ .byte 235,159 // jmp c05c <_sk_store_565_hsw+0x9b>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 196 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
+ .byte 255,213 // callq *%rbp
.byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
.byte 255 // (bad)
- .byte 255,208 // callq *%rax
+ .byte 255,205 // dec %ebp
.byte 255 // (bad)
.byte 255 // (bad)
+ .byte 255,245 // push %rbp
.byte 255 // (bad)
- .byte 248 // clc
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,240 // push %rax
+ .byte 237 // in (%dx),%eax
.byte 255 // (bad)
.byte 255 // (bad)
+ .byte 255,229 // jmpq *%rbp
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe100bd7c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fd2828>
.byte 255 // (bad)
.byte 255 // (bad)
+ .byte 221,255 // (bad)
+ .byte 255 // (bad)
.byte 255 // .byte 0xff
HIDDEN _sk_load_4444_hsw
@@ -11576,28 +11736,28 @@ _sk_load_4444_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne be29 <_sk_load_4444_hsw+0xa9>
+ .byte 15,133,138,0,0,0 // jne c185 <_sk_load_4444_hsw+0xa9>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,73,219,2,0 // vpbroadcastd 0x2db49(%rip),%ymm0 # 398fc <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,88,5,1,226,2,0 // vpbroadcastd 0x2e201(%rip),%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,60,219,2,0 // vbroadcastss 0x2db3c(%rip),%ymm1 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,244,225,2,0 // vbroadcastss 0x2e1f4(%rip),%ymm1 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,51,219,2,0 // vpbroadcastd 0x2db33(%rip),%ymm1 # 39904 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,88,13,235,225,2,0 // vpbroadcastd 0x2e1eb(%rip),%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,38,219,2,0 // vbroadcastss 0x2db26(%rip),%ymm2 # 39908 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,222,225,2,0 // vbroadcastss 0x2e1de(%rip),%ymm2 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,29,219,2,0 // vpbroadcastd 0x2db1d(%rip),%ymm2 # 3990c <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,88,21,213,225,2,0 // vpbroadcastd 0x2e1d5(%rip),%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,16,219,2,0 // vbroadcastss 0x2db10(%rip),%ymm8 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,200,225,2,0 // vbroadcastss 0x2e1c8(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,6,219,2,0 // vpbroadcastd 0x2db06(%rip),%ymm8 # 39914 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,88,5,190,225,2,0 // vpbroadcastd 0x2e1be(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,248,218,2,0 // vbroadcastss 0x2daf8(%rip),%ymm8 # 39918 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,176,225,2,0 // vbroadcastss 0x2e1b0(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11606,27 +11766,27 @@ _sk_load_4444_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,100,255,255,255 // ja bda5 <_sk_load_4444_hsw+0x25>
+ .byte 15,135,100,255,255,255 // ja c101 <_sk_load_4444_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # beb0 <_sk_load_4444_hsw+0x130>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # c20c <_sk_load_4444_hsw+0x130>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,66,255,255,255 // jmpq bda5 <_sk_load_4444_hsw+0x25>
+ .byte 233,66,255,255,255 // jmpq c101 <_sk_load_4444_hsw+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,37,255,255,255 // jmpq bda5 <_sk_load_4444_hsw+0x25>
+ .byte 233,37,255,255,255 // jmpq c101 <_sk_load_4444_hsw+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,248,254,255,255 // jmpq bda5 <_sk_load_4444_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq c101 <_sk_load_4444_hsw+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -11662,28 +11822,28 @@ _sk_load_4444_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne bf75 <_sk_load_4444_dst_hsw+0xa9>
+ .byte 15,133,138,0,0,0 // jne c2d1 <_sk_load_4444_dst_hsw+0xa9>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 196,226,125,88,37,253,217,2,0 // vpbroadcastd 0x2d9fd(%rip),%ymm4 # 398fc <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,88,37,181,224,2,0 // vpbroadcastd 0x2e0b5(%rip),%ymm4 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,197,219,228 // vpand %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,240,217,2,0 // vbroadcastss 0x2d9f0(%rip),%ymm5 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,45,168,224,2,0 // vbroadcastss 0x2e0a8(%rip),%ymm5 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,231,217,2,0 // vpbroadcastd 0x2d9e7(%rip),%ymm5 # 39904 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,88,45,159,224,2,0 // vpbroadcastd 0x2e09f(%rip),%ymm5 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,197,219,237 // vpand %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,218,217,2,0 // vbroadcastss 0x2d9da(%rip),%ymm6 # 39908 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,53,146,224,2,0 // vbroadcastss 0x2e092(%rip),%ymm6 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,88,53,209,217,2,0 // vpbroadcastd 0x2d9d1(%rip),%ymm6 # 3990c <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,88,53,137,224,2,0 // vpbroadcastd 0x2e089(%rip),%ymm6 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,197,219,246 // vpand %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,196,217,2,0 // vbroadcastss 0x2d9c4(%rip),%ymm8 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,124,224,2,0 // vbroadcastss 0x2e07c(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,88,5,186,217,2,0 // vpbroadcastd 0x2d9ba(%rip),%ymm8 # 39914 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,88,5,114,224,2,0 // vpbroadcastd 0x2e072(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,69,219,248 // vpand %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,172,217,2,0 // vbroadcastss 0x2d9ac(%rip),%ymm8 # 39918 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,100,224,2,0 // vbroadcastss 0x2e064(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11692,27 +11852,27 @@ _sk_load_4444_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,100,255,255,255 // ja bef1 <_sk_load_4444_dst_hsw+0x25>
+ .byte 15,135,100,255,255,255 // ja c24d <_sk_load_4444_dst_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # bffc <_sk_load_4444_dst_hsw+0x130>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # c358 <_sk_load_4444_dst_hsw+0x130>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,66,255,255,255 // jmpq bef1 <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,66,255,255,255 // jmpq c24d <_sk_load_4444_dst_hsw+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,37,255,255,255 // jmpq bef1 <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,37,255,255,255 // jmpq c24d <_sk_load_4444_dst_hsw+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,248,254,255,255 // jmpq bef1 <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq c24d <_sk_load_4444_dst_hsw+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -11791,25 +11951,25 @@ _sk_gather_4444_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,252,215,2,0 // vpbroadcastd 0x2d7fc(%rip),%ymm0 # 398fc <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,88,5,180,222,2,0 // vpbroadcastd 0x2deb4(%rip),%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,239,215,2,0 // vbroadcastss 0x2d7ef(%rip),%ymm1 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,167,222,2,0 // vbroadcastss 0x2dea7(%rip),%ymm1 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,230,215,2,0 // vpbroadcastd 0x2d7e6(%rip),%ymm1 # 39904 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,88,13,158,222,2,0 // vpbroadcastd 0x2de9e(%rip),%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,217,215,2,0 // vbroadcastss 0x2d7d9(%rip),%ymm2 # 39908 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,145,222,2,0 // vbroadcastss 0x2de91(%rip),%ymm2 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,208,215,2,0 // vpbroadcastd 0x2d7d0(%rip),%ymm2 # 3990c <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,88,21,136,222,2,0 // vpbroadcastd 0x2de88(%rip),%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,195,215,2,0 // vbroadcastss 0x2d7c3(%rip),%ymm8 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,123,222,2,0 // vbroadcastss 0x2de7b(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,185,215,2,0 // vpbroadcastd 0x2d7b9(%rip),%ymm8 # 39914 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,88,5,113,222,2,0 // vpbroadcastd 0x2de71(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,171,215,2,0 // vbroadcastss 0x2d7ab(%rip),%ymm8 # 39918 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,99,222,2,0 // vbroadcastss 0x2de63(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -11829,25 +11989,35 @@ _sk_store_4444_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,128,215,2,0 // vbroadcastss 0x2d780(%rip),%ymm8 # 3991c <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
- .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,21,23,221,2,0 // vbroadcastss 0x2dd17(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,98,125,24,29,33,222,2,0 // vbroadcastss 0x2de21(%rip),%ymm11 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
+ .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
- .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10
- .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9
- .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
+ .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12
+ .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
+ .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,29,114,244,4 // vpslld $0x4,%ymm12,%ymm12
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
+ .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne c1ff <_sk_store_4444_hsw+0x82>
+ .byte 117,10 // jne c58d <_sk_store_4444_hsw+0xb4>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11855,41 +12025,42 @@ _sk_store_4444_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja c1fb <_sk_store_4444_hsw+0x7e>
+ .byte 119,236 // ja c589 <_sk_store_4444_hsw+0xb0>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # c25c <_sk_store_4444_hsw+0xdf>
+ .byte 76,141,21,68,0,0,0 // lea 0x44(%rip),%r10 # c5ec <_sk_store_4444_hsw+0x113>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp c1fb <_sk_store_4444_hsw+0x7e>
+ .byte 235,207 // jmp c589 <_sk_store_4444_hsw+0xb0>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp c1fb <_sk_store_4444_hsw+0x7e>
+ .byte 235,191 // jmp c589 <_sk_store_4444_hsw+0xb0>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp c1fb <_sk_store_4444_hsw+0x7e>
- .byte 199 // (bad)
- .byte 255 // (bad)
+ .byte 235,159 // jmp c589 <_sk_store_4444_hsw+0xb0>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 197,255,255 // (bad)
+ .byte 255,214 // callq *%rsi
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
+ .byte 255,206 // dec %esi
.byte 255 // (bad)
- .byte 255,208 // callq *%rax
.byte 255 // (bad)
+ .byte 255,246 // push %rsi
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 248 // clc
.byte 255 // (bad)
+ .byte 238 // out %al,(%dx)
.byte 255 // (bad)
- .byte 255,240 // push %rax
.byte 255 // (bad)
+ .byte 255,230 // jmpq *%rsi
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe100c274 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fd2d20>
.byte 255 // (bad)
+ .byte 222,255 // fdivrp %st,%st(7)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -11905,16 +12076,16 @@ _sk_load_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne c2ea <_sk_load_8888_hsw+0x72>
+ .byte 117,86 // jne c67a <_sk_load_8888_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,94,216,2,0 // vpand 0x2d85e(%rip),%ymm3,%ymm0 # 39b00 <_sk_srcover_bgra_8888_sse2_lowp+0x5ac>
+ .byte 197,229,219,5,238,222,2,0 // vpand 0x2deee(%rip),%ymm3,%ymm0 # 3a520 <_sk_srcover_bgra_8888_sse2_lowp+0x5b8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,205,213,2,0 // vbroadcastss 0x2d5cd(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,81,220,2,0 // vbroadcastss 0x2dc51(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,101,0,13,99,216,2,0 // vpshufb 0x2d863(%rip),%ymm3,%ymm1 # 39b20 <_sk_srcover_bgra_8888_sse2_lowp+0x5cc>
+ .byte 196,226,101,0,13,243,222,2,0 // vpshufb 0x2def3(%rip),%ymm3,%ymm1 # 3a540 <_sk_srcover_bgra_8888_sse2_lowp+0x5d8>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,101,0,21,113,216,2,0 // vpshufb 0x2d871(%rip),%ymm3,%ymm2 # 39b40 <_sk_srcover_bgra_8888_sse2_lowp+0x5ec>
+ .byte 196,226,101,0,21,1,223,2,0 // vpshufb 0x2df01(%rip),%ymm3,%ymm2 # 3a560 <_sk_srcover_bgra_8888_sse2_lowp+0x5f8>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -11927,21 +12098,21 @@ _sk_load_8888_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja c29a <_sk_load_8888_hsw+0x22>
+ .byte 119,156 // ja c62a <_sk_load_8888_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c390 <_sk_load_8888_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c720 <_sk_load_8888_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 235,128 // jmp c29a <_sk_load_8888_hsw+0x22>
+ .byte 235,128 // jmp c62a <_sk_load_8888_hsw+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,129,122,126,4,152 // vmovq (%r8,%r11,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,89,255,255,255 // jmpq c29a <_sk_load_8888_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq c62a <_sk_load_8888_hsw+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -11954,7 +12125,7 @@ _sk_load_8888_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,10,255,255,255 // jmpq c29a <_sk_load_8888_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq c62a <_sk_load_8888_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -11988,16 +12159,16 @@ _sk_load_8888_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne c41e <_sk_load_8888_dst_hsw+0x72>
+ .byte 117,86 // jne c7ae <_sk_load_8888_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,138,215,2,0 // vpand 0x2d78a(%rip),%ymm7,%ymm4 # 39b60 <_sk_srcover_bgra_8888_sse2_lowp+0x60c>
+ .byte 197,197,219,37,26,222,2,0 // vpand 0x2de1a(%rip),%ymm7,%ymm4 # 3a580 <_sk_srcover_bgra_8888_sse2_lowp+0x618>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,153,212,2,0 // vbroadcastss 0x2d499(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,29,219,2,0 // vbroadcastss 0x2db1d(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 196,226,69,0,45,143,215,2,0 // vpshufb 0x2d78f(%rip),%ymm7,%ymm5 # 39b80 <_sk_srcover_bgra_8888_sse2_lowp+0x62c>
+ .byte 196,226,69,0,45,31,222,2,0 // vpshufb 0x2de1f(%rip),%ymm7,%ymm5 # 3a5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x638>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
.byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
- .byte 196,226,69,0,53,157,215,2,0 // vpshufb 0x2d79d(%rip),%ymm7,%ymm6 # 39ba0 <_sk_srcover_bgra_8888_sse2_lowp+0x64c>
+ .byte 196,226,69,0,53,45,222,2,0 // vpshufb 0x2de2d(%rip),%ymm7,%ymm6 # 3a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x658>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -12010,21 +12181,21 @@ _sk_load_8888_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja c3ce <_sk_load_8888_dst_hsw+0x22>
+ .byte 119,156 // ja c75e <_sk_load_8888_dst_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c4c4 <_sk_load_8888_dst_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c854 <_sk_load_8888_dst_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 235,128 // jmp c3ce <_sk_load_8888_dst_hsw+0x22>
+ .byte 235,128 // jmp c75e <_sk_load_8888_dst_hsw+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,89,255,255,255 // jmpq c3ce <_sk_load_8888_dst_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq c75e <_sk_load_8888_dst_hsw+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -12037,7 +12208,7 @@ _sk_load_8888_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,10,255,255,255 // jmpq c3ce <_sk_load_8888_dst_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq c75e <_sk_load_8888_dst_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -12081,14 +12252,14 @@ _sk_gather_8888_hsw:
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,137,214,2,0 // vpand 0x2d689(%rip),%ymm8,%ymm0 # 39bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x66c>
+ .byte 197,189,219,5,25,221,2,0 // vpand 0x2dd19(%rip),%ymm8,%ymm0 # 3a5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x678>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,56,211,2,0 // vbroadcastss 0x2d338(%rip),%ymm3 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,188,217,2,0 // vbroadcastss 0x2d9bc(%rip),%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,61,0,13,143,214,2,0 // vpshufb 0x2d68f(%rip),%ymm8,%ymm1 # 39be0 <_sk_srcover_bgra_8888_sse2_lowp+0x68c>
+ .byte 196,226,61,0,13,31,221,2,0 // vpshufb 0x2dd1f(%rip),%ymm8,%ymm1 # 3a600 <_sk_srcover_bgra_8888_sse2_lowp+0x698>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,61,0,21,158,214,2,0 // vpshufb 0x2d69e(%rip),%ymm8,%ymm2 # 39c00 <_sk_srcover_bgra_8888_sse2_lowp+0x6ac>
+ .byte 196,226,61,0,21,46,221,2,0 // vpshufb 0x2dd2e(%rip),%ymm8,%ymm2 # 3a620 <_sk_srcover_bgra_8888_sse2_lowp+0x6b8>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
@@ -12108,23 +12279,33 @@ _sk_store_8888_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,147,210,2,0 // vbroadcastss 0x2d293(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,21,226,216,2,0 // vbroadcastss 0x2d8e2(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,98,125,24,29,0,217,2,0 // vbroadcastss 0x2d900(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10
- .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9
- .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,45,114,242,16 // vpslld $0x10,%ymm10,%ymm10
- .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
+ .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12
+ .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
+ .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,29,114,244,16 // vpslld $0x10,%ymm12,%ymm12
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8
- .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
+ .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne c5f5 <_sk_store_8888_hsw+0x78>
+ .byte 117,10 // jne c9b7 <_sk_store_8888_hsw+0xaa>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12132,17 +12313,17 @@ _sk_store_8888_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja c5f1 <_sk_store_8888_hsw+0x74>
+ .byte 119,236 // ja c9b3 <_sk_store_8888_hsw+0xa6>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # c664 <_sk_store_8888_hsw+0xe7>
+ .byte 76,141,21,82,0,0,0 // lea 0x52(%rip),%r10 # ca24 <_sk_store_8888_hsw+0x117>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp c5f1 <_sk_store_8888_hsw+0x74>
+ .byte 235,208 // jmp c9b3 <_sk_store_8888_hsw+0xa6>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp c5f1 <_sk_store_8888_hsw+0x74>
+ .byte 235,192 // jmp c9b3 <_sk_store_8888_hsw+0xa6>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -12150,22 +12331,23 @@ _sk_store_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp c5f1 <_sk_store_8888_hsw+0x74>
- .byte 102,144 // xchg %ax,%ax
- .byte 181,255 // mov $0xff,%ch
+ .byte 235,143 // jmp c9b3 <_sk_store_8888_hsw+0xa6>
+ .byte 183,255 // mov $0xff,%bh
.byte 255 // (bad)
- .byte 255,197 // inc %ebp
+ .byte 255,199 // inc %edi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 189,255,255,255,246 // mov $0xf6ffffff,%ebp
+ .byte 191,255,255,255,248 // mov $0xf8ffffff,%edi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc00c678 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfd3124>
+ .byte 235,255 // jmp ca35 <_sk_store_8888_hsw+0x128>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,205 // dec %ebp
+ .byte 221,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,207 // dec %edi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -12182,16 +12364,16 @@ _sk_load_bgra_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne c6f2 <_sk_load_bgra_hsw+0x72>
+ .byte 117,86 // jne cab2 <_sk_load_bgra_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,118,213,2,0 // vpand 0x2d576(%rip),%ymm3,%ymm0 # 39c20 <_sk_srcover_bgra_8888_sse2_lowp+0x6cc>
+ .byte 197,229,219,5,214,219,2,0 // vpand 0x2dbd6(%rip),%ymm3,%ymm0 # 3a640 <_sk_srcover_bgra_8888_sse2_lowp+0x6d8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,197,209,2,0 // vbroadcastss 0x2d1c5(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,25,216,2,0 // vbroadcastss 0x2d819(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
- .byte 196,226,101,0,5,123,213,2,0 // vpshufb 0x2d57b(%rip),%ymm3,%ymm0 # 39c40 <_sk_srcover_bgra_8888_sse2_lowp+0x6ec>
+ .byte 196,226,101,0,5,219,219,2,0 // vpshufb 0x2dbdb(%rip),%ymm3,%ymm0 # 3a660 <_sk_srcover_bgra_8888_sse2_lowp+0x6f8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1
- .byte 196,226,101,0,5,137,213,2,0 // vpshufb 0x2d589(%rip),%ymm3,%ymm0 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0x70c>
+ .byte 196,226,101,0,5,233,219,2,0 // vpshufb 0x2dbe9(%rip),%ymm3,%ymm0 # 3a680 <_sk_srcover_bgra_8888_sse2_lowp+0x718>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -12204,21 +12386,21 @@ _sk_load_bgra_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja c6a2 <_sk_load_bgra_hsw+0x22>
+ .byte 119,156 // ja ca62 <_sk_load_bgra_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c798 <_sk_load_bgra_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # cb58 <_sk_load_bgra_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 235,128 // jmp c6a2 <_sk_load_bgra_hsw+0x22>
+ .byte 235,128 // jmp ca62 <_sk_load_bgra_hsw+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,129,122,126,4,152 // vmovq (%r8,%r11,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,89,255,255,255 // jmpq c6a2 <_sk_load_bgra_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq ca62 <_sk_load_bgra_hsw+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -12231,7 +12413,7 @@ _sk_load_bgra_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,10,255,255,255 // jmpq c6a2 <_sk_load_bgra_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq ca62 <_sk_load_bgra_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -12265,16 +12447,16 @@ _sk_load_bgra_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne c826 <_sk_load_bgra_dst_hsw+0x72>
+ .byte 117,86 // jne cbe6 <_sk_load_bgra_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,162,212,2,0 // vpand 0x2d4a2(%rip),%ymm7,%ymm4 # 39c80 <_sk_srcover_bgra_8888_sse2_lowp+0x72c>
+ .byte 197,197,219,37,2,219,2,0 // vpand 0x2db02(%rip),%ymm7,%ymm4 # 3a6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x738>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,145,208,2,0 // vbroadcastss 0x2d091(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,229,214,2,0 // vbroadcastss 0x2d6e5(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
- .byte 196,226,69,0,37,167,212,2,0 // vpshufb 0x2d4a7(%rip),%ymm7,%ymm4 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0x74c>
+ .byte 196,226,69,0,37,7,219,2,0 // vpshufb 0x2db07(%rip),%ymm7,%ymm4 # 3a6c0 <_sk_srcover_bgra_8888_sse2_lowp+0x758>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,232 // vmulps %ymm8,%ymm4,%ymm5
- .byte 196,226,69,0,37,181,212,2,0 // vpshufb 0x2d4b5(%rip),%ymm7,%ymm4 # 39cc0 <_sk_srcover_bgra_8888_sse2_lowp+0x76c>
+ .byte 196,226,69,0,37,21,219,2,0 // vpshufb 0x2db15(%rip),%ymm7,%ymm4 # 3a6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x778>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -12287,21 +12469,21 @@ _sk_load_bgra_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja c7d6 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 119,156 // ja cb96 <_sk_load_bgra_dst_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c8cc <_sk_load_bgra_dst_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # cc8c <_sk_load_bgra_dst_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 235,128 // jmp c7d6 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 235,128 // jmp cb96 <_sk_load_bgra_dst_hsw+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,89,255,255,255 // jmpq c7d6 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq cb96 <_sk_load_bgra_dst_hsw+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -12314,7 +12496,7 @@ _sk_load_bgra_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,10,255,255,255 // jmpq c7d6 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq cb96 <_sk_load_bgra_dst_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -12358,14 +12540,14 @@ _sk_gather_bgra_hsw:
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,161,211,2,0 // vpand 0x2d3a1(%rip),%ymm8,%ymm0 # 39ce0 <_sk_srcover_bgra_8888_sse2_lowp+0x78c>
+ .byte 197,189,219,5,1,218,2,0 // vpand 0x2da01(%rip),%ymm8,%ymm0 # 3a700 <_sk_srcover_bgra_8888_sse2_lowp+0x798>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,48,207,2,0 // vbroadcastss 0x2cf30(%rip),%ymm3 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,29,132,213,2,0 // vbroadcastss 0x2d584(%rip),%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
- .byte 196,226,61,0,5,167,211,2,0 // vpshufb 0x2d3a7(%rip),%ymm8,%ymm0 # 39d00 <_sk_srcover_bgra_8888_sse2_lowp+0x7ac>
+ .byte 196,226,61,0,5,7,218,2,0 // vpshufb 0x2da07(%rip),%ymm8,%ymm0 # 3a720 <_sk_srcover_bgra_8888_sse2_lowp+0x7b8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 197,252,89,203 // vmulps %ymm3,%ymm0,%ymm1
- .byte 196,226,61,0,5,182,211,2,0 // vpshufb 0x2d3b6(%rip),%ymm8,%ymm0 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0x7cc>
+ .byte 196,226,61,0,5,22,218,2,0 // vpshufb 0x2da16(%rip),%ymm8,%ymm0 # 3a740 <_sk_srcover_bgra_8888_sse2_lowp+0x7d8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
.byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
@@ -12385,23 +12567,33 @@ _sk_store_bgra_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,139,206,2,0 // vbroadcastss 0x2ce8b(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9
+ .byte 196,98,125,24,21,170,212,2,0 // vbroadcastss 0x2d4aa(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,98,125,24,29,200,212,2,0 // vbroadcastss 0x2d4c8(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10
- .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9
- .byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,45,114,242,16 // vpslld $0x10,%ymm10,%ymm10
- .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
+ .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12
+ .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
+ .byte 197,60,95,224 // vmaxps %ymm0,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,29,114,244,16 // vpslld $0x10,%ymm12,%ymm12
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8
- .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
+ .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne c9fd <_sk_store_bgra_hsw+0x78>
+ .byte 117,10 // jne cdef <_sk_store_bgra_hsw+0xaa>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12409,17 +12601,17 @@ _sk_store_bgra_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja c9f9 <_sk_store_bgra_hsw+0x74>
+ .byte 119,236 // ja cdeb <_sk_store_bgra_hsw+0xa6>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # ca6c <_sk_store_bgra_hsw+0xe7>
+ .byte 76,141,21,82,0,0,0 // lea 0x52(%rip),%r10 # ce5c <_sk_store_bgra_hsw+0x117>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp c9f9 <_sk_store_bgra_hsw+0x74>
+ .byte 235,208 // jmp cdeb <_sk_store_bgra_hsw+0xa6>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp c9f9 <_sk_store_bgra_hsw+0x74>
+ .byte 235,192 // jmp cdeb <_sk_store_bgra_hsw+0xa6>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -12427,22 +12619,23 @@ _sk_store_bgra_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp c9f9 <_sk_store_bgra_hsw+0x74>
- .byte 102,144 // xchg %ax,%ax
- .byte 181,255 // mov $0xff,%ch
+ .byte 235,143 // jmp cdeb <_sk_store_bgra_hsw+0xa6>
+ .byte 183,255 // mov $0xff,%bh
.byte 255 // (bad)
- .byte 255,197 // inc %ebp
+ .byte 255,199 // inc %edi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 189,255,255,255,246 // mov $0xf6ffffff,%ebp
+ .byte 191,255,255,255,248 // mov $0xf8ffffff,%edi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc00ca80 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfd352c>
+ .byte 235,255 // jmp ce6d <_sk_store_bgra_hsw+0x128>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,205 // dec %ebp
+ .byte 221,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,207 // dec %edi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -12459,7 +12652,7 @@ _sk_load_f16_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne cb09 <_sk_load_f16_hsw+0x81>
+ .byte 117,101 // jne cef9 <_sk_load_f16_hsw+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,92,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm3
@@ -12485,29 +12678,29 @@ _sk_load_f16_hsw:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je cb6f <_sk_load_f16_hsw+0xe7>
+ .byte 116,85 // je cf5f <_sk_load_f16_hsw+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb cb6f <_sk_load_f16_hsw+0xe7>
+ .byte 114,72 // jb cf5f <_sk_load_f16_hsw+0xe7>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je cb7c <_sk_load_f16_hsw+0xf4>
+ .byte 116,72 // je cf6c <_sk_load_f16_hsw+0xf4>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb cb7c <_sk_load_f16_hsw+0xf4>
+ .byte 114,59 // jb cf6c <_sk_load_f16_hsw+0xf4>
.byte 196,193,123,16,92,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je cabf <_sk_load_f16_hsw+0x37>
+ .byte 15,132,109,255,255,255 // je ceaf <_sk_load_f16_hsw+0x37>
.byte 196,193,97,22,92,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb cabf <_sk_load_f16_hsw+0x37>
+ .byte 15,130,92,255,255,255 // jb ceaf <_sk_load_f16_hsw+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq cabf <_sk_load_f16_hsw+0x37>
+ .byte 233,80,255,255,255 // jmpq ceaf <_sk_load_f16_hsw+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,67,255,255,255 // jmpq cabf <_sk_load_f16_hsw+0x37>
+ .byte 233,67,255,255,255 // jmpq ceaf <_sk_load_f16_hsw+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,58,255,255,255 // jmpq cabf <_sk_load_f16_hsw+0x37>
+ .byte 233,58,255,255,255 // jmpq ceaf <_sk_load_f16_hsw+0x37>
HIDDEN _sk_load_f16_dst_hsw
.globl _sk_load_f16_dst_hsw
@@ -12521,7 +12714,7 @@ _sk_load_f16_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne cc06 <_sk_load_f16_dst_hsw+0x81>
+ .byte 117,101 // jne cff6 <_sk_load_f16_dst_hsw+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,124,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm7
@@ -12547,29 +12740,29 @@ _sk_load_f16_dst_hsw:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je cc6c <_sk_load_f16_dst_hsw+0xe7>
+ .byte 116,85 // je d05c <_sk_load_f16_dst_hsw+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb cc6c <_sk_load_f16_dst_hsw+0xe7>
+ .byte 114,72 // jb d05c <_sk_load_f16_dst_hsw+0xe7>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je cc79 <_sk_load_f16_dst_hsw+0xf4>
+ .byte 116,72 // je d069 <_sk_load_f16_dst_hsw+0xf4>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb cc79 <_sk_load_f16_dst_hsw+0xf4>
+ .byte 114,59 // jb d069 <_sk_load_f16_dst_hsw+0xf4>
.byte 196,193,123,16,124,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm7
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je cbbc <_sk_load_f16_dst_hsw+0x37>
+ .byte 15,132,109,255,255,255 // je cfac <_sk_load_f16_dst_hsw+0x37>
.byte 196,193,65,22,124,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm7,%xmm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb cbbc <_sk_load_f16_dst_hsw+0x37>
+ .byte 15,130,92,255,255,255 // jb cfac <_sk_load_f16_dst_hsw+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq cbbc <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,80,255,255,255 // jmpq cfac <_sk_load_f16_dst_hsw+0x37>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,67,255,255,255 // jmpq cbbc <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,67,255,255,255 // jmpq cfac <_sk_load_f16_dst_hsw+0x37>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,58,255,255,255 // jmpq cbbc <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,58,255,255,255 // jmpq cfac <_sk_load_f16_dst_hsw+0x37>
HIDDEN _sk_gather_f16_hsw
.globl _sk_gather_f16_hsw
@@ -12642,7 +12835,7 @@ _sk_store_f16_hsw:
.byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
.byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne cdb6 <_sk_store_f16_hsw+0x7b>
+ .byte 117,31 // jne d1a6 <_sk_store_f16_hsw+0x7b>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -12651,22 +12844,22 @@ _sk_store_f16_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je cdb2 <_sk_store_f16_hsw+0x77>
+ .byte 116,240 // je d1a2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb cdb2 <_sk_store_f16_hsw+0x77>
+ .byte 114,227 // jb d1a2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,218 // je cdb2 <_sk_store_f16_hsw+0x77>
+ .byte 116,218 // je d1a2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb cdb2 <_sk_store_f16_hsw+0x77>
+ .byte 114,205 // jb d1a2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,196 // je cdb2 <_sk_store_f16_hsw+0x77>
+ .byte 116,196 // je d1a2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb cdb2 <_sk_store_f16_hsw+0x77>
+ .byte 114,183 // jb d1a2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,174 // jmp cdb2 <_sk_store_f16_hsw+0x77>
+ .byte 235,174 // jmp d1a2 <_sk_store_f16_hsw+0x77>
HIDDEN _sk_load_u16_be_hsw
.globl _sk_load_u16_be_hsw
@@ -12681,7 +12874,7 @@ _sk_load_u16_be_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,204,0,0,0 // jne cef7 <_sk_load_u16_be_hsw+0xf3>
+ .byte 15,133,204,0,0,0 // jne d2e7 <_sk_load_u16_be_hsw+0xf3>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -12700,7 +12893,7 @@ _sk_load_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,12,202,2,0 // vbroadcastss 0x2ca0c(%rip),%ymm10 # 39898 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,21,48,208,2,0 // vbroadcastss 0x2d030(%rip),%ymm10 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -12728,29 +12921,29 @@ _sk_load_u16_be_hsw:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je cf5d <_sk_load_u16_be_hsw+0x159>
+ .byte 116,85 // je d34d <_sk_load_u16_be_hsw+0x159>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb cf5d <_sk_load_u16_be_hsw+0x159>
+ .byte 114,72 // jb d34d <_sk_load_u16_be_hsw+0x159>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je cf6a <_sk_load_u16_be_hsw+0x166>
+ .byte 116,72 // je d35a <_sk_load_u16_be_hsw+0x166>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb cf6a <_sk_load_u16_be_hsw+0x166>
+ .byte 114,59 // jb d35a <_sk_load_u16_be_hsw+0x166>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,6,255,255,255 // je ce46 <_sk_load_u16_be_hsw+0x42>
+ .byte 15,132,6,255,255,255 // je d236 <_sk_load_u16_be_hsw+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,245,254,255,255 // jb ce46 <_sk_load_u16_be_hsw+0x42>
+ .byte 15,130,245,254,255,255 // jb d236 <_sk_load_u16_be_hsw+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,233,254,255,255 // jmpq ce46 <_sk_load_u16_be_hsw+0x42>
+ .byte 233,233,254,255,255 // jmpq d236 <_sk_load_u16_be_hsw+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,220,254,255,255 // jmpq ce46 <_sk_load_u16_be_hsw+0x42>
+ .byte 233,220,254,255,255 // jmpq d236 <_sk_load_u16_be_hsw+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,211,254,255,255 // jmpq ce46 <_sk_load_u16_be_hsw+0x42>
+ .byte 233,211,254,255,255 // jmpq d236 <_sk_load_u16_be_hsw+0x42>
HIDDEN _sk_load_rgb_u16_be_hsw
.globl _sk_load_rgb_u16_be_hsw
@@ -12767,7 +12960,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,205,0,0,0 // jne d06b <_sk_load_rgb_u16_be_hsw+0xf8>
+ .byte 15,133,205,0,0,0 // jne d45b <_sk_load_rgb_u16_be_hsw+0xf8>
.byte 196,65,122,111,28,64 // vmovdqu (%r8,%rax,2),%xmm11
.byte 196,193,122,111,92,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm3
.byte 196,193,122,111,84,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm2
@@ -12792,7 +12985,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,123,200,2,0 // vbroadcastss 0x2c87b(%rip),%ymm9 # 39898 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,159,206,2,0 // vbroadcastss 0x2ce9f(%rip),%ymm9 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -12808,69 +13001,69 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,155,199,2,0 // vbroadcastss 0x2c79b(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,191,205,2,0 // vbroadcastss 0x2cdbf(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne d0a3 <_sk_load_rgb_u16_be_hsw+0x130>
+ .byte 117,31 // jne d493 <_sk_load_rgb_u16_be_hsw+0x130>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,48,255,255,255 // jmpq cfd3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,48,255,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb d0ed <_sk_load_rgb_u16_be_hsw+0x17a>
+ .byte 114,48 // jb d4dd <_sk_load_rgb_u16_be_hsw+0x17a>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne d107 <_sk_load_rgb_u16_be_hsw+0x194>
+ .byte 117,48 // jne d4f7 <_sk_load_rgb_u16_be_hsw+0x194>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,230,254,255,255 // jmpq cfd3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,230,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,204,254,255,255 // jmpq cfd3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,204,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb d148 <_sk_load_rgb_u16_be_hsw+0x1d5>
+ .byte 114,39 // jb d538 <_sk_load_rgb_u16_be_hsw+0x1d5>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne d159 <_sk_load_rgb_u16_be_hsw+0x1e6>
+ .byte 117,30 // jne d549 <_sk_load_rgb_u16_be_hsw+0x1e6>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,139,254,255,255 // jmpq cfd3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,139,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,122,254,255,255 // jmpq cfd3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,122,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb d18c <_sk_load_rgb_u16_be_hsw+0x219>
+ .byte 114,25 // jb d57c <_sk_load_rgb_u16_be_hsw+0x219>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,71,254,255,255 // jmpq cfd3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,71,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,62,254,255,255 // jmpq cfd3 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,62,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60>
HIDDEN _sk_store_u16_be_hsw
.globl _sk_store_u16_be_hsw
@@ -12884,45 +13077,55 @@ _sk_store_u16_be_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,100,199,2,0 // vbroadcastss 0x2c764(%rip),%ymm8 # 39920 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
- .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,21,99,204,2,0 // vbroadcastss 0x2cc63(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,98,125,24,29,113,205,2,0 // vbroadcastss 0x2cd71(%rip),%ymm11 # 3a334 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
- .byte 196,66,49,43,202 // vpackusdw %xmm10,%xmm9,%xmm9
- .byte 196,193,41,113,241,8 // vpsllw $0x8,%xmm9,%xmm10
+ .byte 196,67,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm12
+ .byte 196,66,49,43,204 // vpackusdw %xmm12,%xmm9,%xmm9
+ .byte 196,193,25,113,241,8 // vpsllw $0x8,%xmm9,%xmm12
.byte 196,193,49,113,209,8 // vpsrlw $0x8,%xmm9,%xmm9
- .byte 196,65,41,235,201 // vpor %xmm9,%xmm10,%xmm9
- .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,67,125,25,211,1 // vextractf128 $0x1,%ymm10,%xmm11
- .byte 196,66,41,43,211 // vpackusdw %xmm11,%xmm10,%xmm10
- .byte 196,193,33,113,242,8 // vpsllw $0x8,%xmm10,%xmm11
- .byte 196,193,41,113,210,8 // vpsrlw $0x8,%xmm10,%xmm10
- .byte 196,65,33,235,210 // vpor %xmm10,%xmm11,%xmm10
- .byte 196,65,108,89,216 // vmulps %ymm8,%ymm2,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,67,125,25,220,1 // vextractf128 $0x1,%ymm11,%xmm12
- .byte 196,66,33,43,220 // vpackusdw %xmm12,%xmm11,%xmm11
- .byte 196,193,25,113,243,8 // vpsllw $0x8,%xmm11,%xmm12
- .byte 196,193,33,113,211,8 // vpsrlw $0x8,%xmm11,%xmm11
- .byte 196,65,25,235,219 // vpor %xmm11,%xmm12,%xmm11
- .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
+ .byte 196,65,25,235,201 // vpor %xmm9,%xmm12,%xmm9
+ .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13
+ .byte 196,66,25,43,229 // vpackusdw %xmm13,%xmm12,%xmm12
+ .byte 196,193,17,113,244,8 // vpsllw $0x8,%xmm12,%xmm13
+ .byte 196,193,25,113,212,8 // vpsrlw $0x8,%xmm12,%xmm12
+ .byte 196,65,17,235,228 // vpor %xmm12,%xmm13,%xmm12
+ .byte 197,60,95,234 // vmaxps %ymm2,%ymm8,%ymm13
+ .byte 196,65,20,93,234 // vminps %ymm10,%ymm13,%ymm13
+ .byte 196,65,20,89,235 // vmulps %ymm11,%ymm13,%ymm13
+ .byte 196,65,125,91,237 // vcvtps2dq %ymm13,%ymm13
+ .byte 196,67,125,25,238,1 // vextractf128 $0x1,%ymm13,%xmm14
+ .byte 196,66,17,43,238 // vpackusdw %xmm14,%xmm13,%xmm13
+ .byte 196,193,9,113,245,8 // vpsllw $0x8,%xmm13,%xmm14
+ .byte 196,193,17,113,213,8 // vpsrlw $0x8,%xmm13,%xmm13
+ .byte 196,65,9,235,237 // vpor %xmm13,%xmm14,%xmm13
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,67,125,25,196,1 // vextractf128 $0x1,%ymm8,%xmm12
- .byte 196,66,57,43,196 // vpackusdw %xmm12,%xmm8,%xmm8
- .byte 196,193,25,113,240,8 // vpsllw $0x8,%xmm8,%xmm12
+ .byte 196,67,125,25,194,1 // vextractf128 $0x1,%ymm8,%xmm10
+ .byte 196,66,57,43,194 // vpackusdw %xmm10,%xmm8,%xmm8
+ .byte 196,193,41,113,240,8 // vpsllw $0x8,%xmm8,%xmm10
.byte 196,193,57,113,208,8 // vpsrlw $0x8,%xmm8,%xmm8
- .byte 196,65,25,235,192 // vpor %xmm8,%xmm12,%xmm8
- .byte 196,65,49,97,226 // vpunpcklwd %xmm10,%xmm9,%xmm12
- .byte 196,65,49,105,234 // vpunpckhwd %xmm10,%xmm9,%xmm13
- .byte 196,65,33,97,200 // vpunpcklwd %xmm8,%xmm11,%xmm9
- .byte 196,65,33,105,192 // vpunpckhwd %xmm8,%xmm11,%xmm8
- .byte 196,65,25,98,217 // vpunpckldq %xmm9,%xmm12,%xmm11
- .byte 196,65,25,106,209 // vpunpckhdq %xmm9,%xmm12,%xmm10
- .byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
- .byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
+ .byte 196,65,41,235,192 // vpor %xmm8,%xmm10,%xmm8
+ .byte 196,65,49,97,212 // vpunpcklwd %xmm12,%xmm9,%xmm10
+ .byte 196,65,49,105,228 // vpunpckhwd %xmm12,%xmm9,%xmm12
+ .byte 196,65,17,97,200 // vpunpcklwd %xmm8,%xmm13,%xmm9
+ .byte 196,65,17,105,192 // vpunpckhwd %xmm8,%xmm13,%xmm8
+ .byte 196,65,41,98,217 // vpunpckldq %xmm9,%xmm10,%xmm11
+ .byte 196,65,41,106,209 // vpunpckhdq %xmm9,%xmm10,%xmm10
+ .byte 196,65,25,98,200 // vpunpckldq %xmm8,%xmm12,%xmm9
+ .byte 196,65,25,106,192 // vpunpckhdq %xmm8,%xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne d2a0 <_sk_store_u16_be_hsw+0x10b>
+ .byte 117,31 // jne d6c2 <_sk_store_u16_be_hsw+0x13d>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -12931,22 +13134,22 @@ _sk_store_u16_be_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je d29c <_sk_store_u16_be_hsw+0x107>
+ .byte 116,240 // je d6be <_sk_store_u16_be_hsw+0x139>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb d29c <_sk_store_u16_be_hsw+0x107>
+ .byte 114,227 // jb d6be <_sk_store_u16_be_hsw+0x139>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je d29c <_sk_store_u16_be_hsw+0x107>
+ .byte 116,218 // je d6be <_sk_store_u16_be_hsw+0x139>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb d29c <_sk_store_u16_be_hsw+0x107>
+ .byte 114,205 // jb d6be <_sk_store_u16_be_hsw+0x139>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je d29c <_sk_store_u16_be_hsw+0x107>
+ .byte 116,196 // je d6be <_sk_store_u16_be_hsw+0x139>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb d29c <_sk_store_u16_be_hsw+0x107>
+ .byte 114,183 // jb d6be <_sk_store_u16_be_hsw+0x139>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp d29c <_sk_store_u16_be_hsw+0x107>
+ .byte 235,174 // jmp d6be <_sk_store_u16_be_hsw+0x139>
HIDDEN _sk_load_f32_hsw
.globl _sk_load_f32_hsw
@@ -12955,7 +13158,7 @@ _sk_load_f32_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja d45f <_sk_load_f32_hsw+0x171>
+ .byte 15,135,97,1,0,0 // ja d881 <_sk_load_f32_hsw+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
.byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
@@ -12968,7 +13171,7 @@ _sk_load_f32_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # d470 <_sk_load_f32_hsw+0x182>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # d890 <_sk_load_f32_hsw+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
@@ -13031,19 +13234,21 @@ _sk_load_f32_hsw:
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp d439 <_sk_load_f32_hsw+0x14b>
- .byte 102,144 // xchg %ax,%ax
- .byte 27,255 // sbb %edi,%edi
+ .byte 235,203 // jmp d85b <_sk_load_f32_hsw+0x14b>
+ .byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
- .byte 255,161,255,255,255,140 // jmpq *-0x73000001(%rcx)
.byte 255 // (bad)
+ .byte 255,142,255,255,255,121 // decl 0x79ffffff(%rsi)
.byte 255 // (bad)
- .byte 255,119,255 // pushq -0x1(%rdi)
.byte 255 // (bad)
- .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
- .byte 255,70,255 // incl -0x1(%rsi)
+ .byte 255,94,255 // lcall *-0x1(%rsi)
+ .byte 255 // (bad)
+ .byte 255,72,255 // decl -0x1(%rax)
+ .byte 255 // (bad)
+ .byte 255,55 // pushq (%rdi)
.byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2900d48c <_sk_srcover_bgra_8888_sse2_lowp+0x28fd3f38>
+ .byte 255 // (bad)
+ .byte 255,42 // ljmp *(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -13055,7 +13260,7 @@ _sk_load_f32_dst_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja d601 <_sk_load_f32_dst_hsw+0x171>
+ .byte 15,135,97,1,0,0 // ja da21 <_sk_load_f32_dst_hsw+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
.byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
@@ -13068,7 +13273,7 @@ _sk_load_f32_dst_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # d610 <_sk_load_f32_dst_hsw+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # da30 <_sk_load_f32_dst_hsw+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
@@ -13131,7 +13336,7 @@ _sk_load_f32_dst_hsw:
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp d5db <_sk_load_f32_dst_hsw+0x14b>
+ .byte 235,203 // jmp d9fb <_sk_load_f32_dst_hsw+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -13171,7 +13376,7 @@ _sk_store_f32_hsw:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne d6af <_sk_store_f32_hsw+0x7f>
+ .byte 117,55 // jne dacf <_sk_store_f32_hsw+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -13184,22 +13389,22 @@ _sk_store_f32_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je d6ab <_sk_store_f32_hsw+0x7b>
+ .byte 116,240 // je dacb <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb d6ab <_sk_store_f32_hsw+0x7b>
+ .byte 114,227 // jb dacb <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je d6ab <_sk_store_f32_hsw+0x7b>
+ .byte 116,218 // je dacb <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb d6ab <_sk_store_f32_hsw+0x7b>
+ .byte 114,205 // jb dacb <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je d6ab <_sk_store_f32_hsw+0x7b>
+ .byte 116,195 // je dacb <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb d6ab <_sk_store_f32_hsw+0x7b>
+ .byte 114,181 // jb dacb <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp d6ab <_sk_store_f32_hsw+0x7b>
+ .byte 235,171 // jmp dacb <_sk_store_f32_hsw+0x7b>
HIDDEN _sk_repeat_x_hsw
.globl _sk_repeat_x_hsw
@@ -13238,7 +13443,7 @@ _sk_mirror_x_hsw:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,153,192,2,0 // vmulss 0x2c099(%rip),%xmm9,%xmm0 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,5,141,198,2,0 // vmulss 0x2c68d(%rip),%xmm9,%xmm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -13261,7 +13466,7 @@ _sk_mirror_y_hsw:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,72,192,2,0 // vmulss 0x2c048(%rip),%xmm9,%xmm1 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,13,60,198,2,0 // vmulss 0x2c63c(%rip),%xmm9,%xmm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -13279,7 +13484,7 @@ FUNCTION(_sk_clamp_x_1_hsw)
_sk_clamp_x_1_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,16,192,2,0 // vbroadcastss 0x2c010(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,4,198,2,0 // vbroadcastss 0x2c604(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13292,7 +13497,7 @@ _sk_repeat_x_1_hsw:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,234,191,2,0 // vbroadcastss 0x2bfea(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,222,197,2,0 // vbroadcastss 0x2c5de(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13301,9 +13506,9 @@ HIDDEN _sk_mirror_x_1_hsw
.globl _sk_mirror_x_1_hsw
FUNCTION(_sk_mirror_x_1_hsw)
_sk_mirror_x_1_hsw:
- .byte 196,98,125,24,5,240,191,2,0 // vbroadcastss 0x2bff0(%rip),%ymm8 # 3981c <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,228,197,2,0 // vbroadcastss 0x2c5e4(%rip),%ymm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,198,191,2,0 // vbroadcastss 0x2bfc6(%rip),%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,186,197,2,0 // vbroadcastss 0x2c5ba(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -13313,7 +13518,7 @@ _sk_mirror_x_1_hsw:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,150,191,2,0 // vbroadcastss 0x2bf96(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,138,197,2,0 // vbroadcastss 0x2c58a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13322,11 +13527,11 @@ HIDDEN _sk_luminance_to_alpha_hsw
.globl _sk_luminance_to_alpha_hsw
FUNCTION(_sk_luminance_to_alpha_hsw)
_sk_luminance_to_alpha_hsw:
- .byte 196,226,125,24,29,168,192,2,0 // vbroadcastss 0x2c0a8(%rip),%ymm3 # 39928 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
- .byte 196,98,125,24,5,155,192,2,0 // vbroadcastss 0x2c09b(%rip),%ymm8 # 39924 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 196,226,125,24,29,156,198,2,0 // vbroadcastss 0x2c69c(%rip),%ymm3 # 3a33c <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
+ .byte 196,98,125,24,5,143,198,2,0 // vbroadcastss 0x2c68f(%rip),%ymm8 # 3a338 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 196,226,125,184,203 // vfmadd231ps %ymm3,%ymm0,%ymm1
- .byte 196,226,125,24,29,144,192,2,0 // vbroadcastss 0x2c090(%rip),%ymm3 # 3992c <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
+ .byte 196,226,125,24,29,132,198,2,0 // vbroadcastss 0x2c684(%rip),%ymm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
.byte 196,226,109,168,217 // vfmadd213ps %ymm1,%ymm2,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -13525,9 +13730,9 @@ _sk_evenly_spaced_gradient_hsw:
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 77,137,202 // mov %r9,%r10
.byte 73,255,202 // dec %r10
- .byte 120,7 // js db94 <_sk_evenly_spaced_gradient_hsw+0x18>
+ .byte 120,7 // js dfb4 <_sk_evenly_spaced_gradient_hsw+0x18>
.byte 196,193,242,42,202 // vcvtsi2ss %r10,%xmm1,%xmm1
- .byte 235,22 // jmp dbaa <_sk_evenly_spaced_gradient_hsw+0x2e>
+ .byte 235,22 // jmp dfca <_sk_evenly_spaced_gradient_hsw+0x2e>
.byte 77,137,211 // mov %r10,%r11
.byte 73,209,235 // shr %r11
.byte 65,131,226,1 // and $0x1,%r10d
@@ -13538,7 +13743,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,126,91,225 // vcvttps2dq %ymm1,%ymm12
.byte 73,131,249,8 // cmp $0x8,%r9
- .byte 119,73 // ja dc06 <_sk_evenly_spaced_gradient_hsw+0x8a>
+ .byte 119,73 // ja e026 <_sk_evenly_spaced_gradient_hsw+0x8a>
.byte 196,66,29,22,0 // vpermps (%r8),%ymm12,%ymm8
.byte 76,139,64,40 // mov 0x28(%rax),%r8
.byte 196,66,29,22,8 // vpermps (%r8),%ymm12,%ymm9
@@ -13554,7 +13759,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 196,194,29,22,24 // vpermps (%r8),%ymm12,%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,98,29,22,16 // vpermps (%rax),%ymm12,%ymm10
- .byte 233,147,0,0,0 // jmpq dc99 <_sk_evenly_spaced_gradient_hsw+0x11d>
+ .byte 233,147,0,0,0 // jmpq e0b9 <_sk_evenly_spaced_gradient_hsw+0x11d>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
@@ -13601,11 +13806,11 @@ _sk_gradient_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 15,134,220,0,0,0 // jbe dda0 <_sk_gradient_hsw+0xeb>
+ .byte 15,134,220,0,0,0 // jbe e1c0 <_sk_gradient_hsw+0xeb>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,45,187,2,0 // vbroadcastss 0x2bb2d(%rip),%ymm2 # 39808 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,226,125,24,21,33,193,2,0 // vbroadcastss 0x2c121(%rip),%ymm2 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
.byte 197,228,194,216,2 // vcmpleps %ymm0,%ymm3,%ymm3
@@ -13613,10 +13818,10 @@ _sk_gradient_hsw:
.byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9
.byte 73,255,194 // inc %r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,227 // jne dce0 <_sk_gradient_hsw+0x2b>
+ .byte 117,227 // jne e100 <_sk_gradient_hsw+0x2b>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,134,158,0,0,0 // jbe dda9 <_sk_gradient_hsw+0xf4>
+ .byte 15,134,158,0,0,0 // jbe e1c9 <_sk_gradient_hsw+0xf4>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -13648,7 +13853,7 @@ _sk_gradient_hsw:
.byte 196,130,5,146,28,136 // vgatherdps %ymm15,(%r8,%ymm9,4),%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,34,13,146,28,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm11
- .byte 235,77 // jmp dded <_sk_gradient_hsw+0x138>
+ .byte 235,77 // jmp e20d <_sk_gradient_hsw+0x138>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8
@@ -13708,24 +13913,24 @@ _sk_xy_to_unit_angle_hsw:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,168,186,2,0 // vbroadcastss 0x2baa8(%rip),%ymm13 # 39930 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- .byte 196,98,125,24,53,163,186,2,0 // vbroadcastss 0x2baa3(%rip),%ymm14 # 39934 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 196,98,125,24,45,156,192,2,0 // vbroadcastss 0x2c09c(%rip),%ymm13 # 3a344 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
+ .byte 196,98,125,24,53,151,192,2,0 // vbroadcastss 0x2c097(%rip),%ymm14 # 3a348 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
- .byte 196,98,125,24,45,153,186,2,0 // vbroadcastss 0x2ba99(%rip),%ymm13 # 39938 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 196,98,125,24,45,141,192,2,0 // vbroadcastss 0x2c08d(%rip),%ymm13 # 3a34c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
.byte 196,66,29,184,238 // vfmadd231ps %ymm14,%ymm12,%ymm13
- .byte 196,98,125,24,53,143,186,2,0 // vbroadcastss 0x2ba8f(%rip),%ymm14 # 3993c <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,53,131,192,2,0 // vbroadcastss 0x2c083(%rip),%ymm14 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
.byte 196,65,36,89,222 // vmulps %ymm14,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,122,186,2,0 // vbroadcastss 0x2ba7a(%rip),%ymm10 # 39940 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,21,110,192,2,0 // vbroadcastss 0x2c06e(%rip),%ymm10 # 3a354 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,32,185,2,0 // vbroadcastss 0x2b920(%rip),%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,20,191,2,0 // vbroadcastss 0x2bf14(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,10,185,2,0 // vbroadcastss 0x2b90a(%rip),%ymm10 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,254,190,2,0 // vbroadcastss 0x2befe(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -13753,21 +13958,21 @@ _sk_xy_to_2pt_conical_quadratic_first_hsw:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,250,185,2,0 // vbroadcastss 0x2b9fa(%rip),%ymm11 # 39944 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,29,238,191,2,0 // vbroadcastss 0x2bfee(%rip),%ymm11 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,217,185,2,0 // vbroadcastss 0x2b9d9(%rip),%ymm9 # 39948 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,98,125,24,13,205,191,2,0 // vbroadcastss 0x2bfcd(%rip),%ymm9 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,13,107,184,2,0 // vbroadcastss 0x2b86b(%rip),%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,95,190,2,0 // vbroadcastss 0x2be5f(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -13783,23 +13988,23 @@ _sk_xy_to_2pt_conical_quadratic_second_hsw:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,125,185,2,0 // vbroadcastss 0x2b97d(%rip),%ymm11 # 39944 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,29,113,191,2,0 // vbroadcastss 0x2bf71(%rip),%ymm11 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,92,185,2,0 // vbroadcastss 0x2b95c(%rip),%ymm9 # 39948 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,98,125,24,13,80,191,2,0 // vbroadcastss 0x2bf50(%rip),%ymm9 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 196,98,125,24,13,63,185,2,0 // vbroadcastss 0x2b93f(%rip),%ymm9 # 3994c <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,13,51,191,2,0 // vbroadcastss 0x2bf33(%rip),%ymm9 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,13,225,183,2,0 // vbroadcastss 0x2b7e1(%rip),%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,213,189,2,0 // vbroadcastss 0x2bdd5(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -13814,14 +14019,14 @@ _sk_xy_to_2pt_conical_linear_hsw:
.byte 197,58,89,72,76 // vmulss 0x4c(%rax),%xmm8,%xmm9
.byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,249,184,2,0 // vbroadcastss 0x2b8f9(%rip),%ymm10 # 39944 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,21,237,190,2,0 // vbroadcastss 0x2beed(%rip),%ymm10 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
.byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10
.byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,220,184,2,0 // vbroadcastss 0x2b8dc(%rip),%ymm8 # 3994c <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,5,208,190,2,0 // vbroadcastss 0x2bed0(%rip),%ymm8 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -13864,7 +14069,7 @@ HIDDEN _sk_save_xy_hsw
FUNCTION(_sk_save_xy_hsw)
_sk_save_xy_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,27,183,2,0 // vbroadcastss 0x2b71b(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,15,189,2,0 // vbroadcastss 0x2bd0f(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -13898,9 +14103,9 @@ HIDDEN _sk_bilinear_nx_hsw
FUNCTION(_sk_bilinear_nx_hsw)
_sk_bilinear_nx_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,245,183,2,0 // vbroadcastss 0x2b7f5(%rip),%ymm0 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,5,233,189,2,0 // vbroadcastss 0x2bde9(%rip),%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,156,182,2,0 // vbroadcastss 0x2b69c(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,144,188,2,0 // vbroadcastss 0x2bc90(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -13911,7 +14116,7 @@ HIDDEN _sk_bilinear_px_hsw
FUNCTION(_sk_bilinear_px_hsw)
_sk_bilinear_px_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,121,182,2,0 // vbroadcastss 0x2b679(%rip),%ymm0 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,109,188,2,0 // vbroadcastss 0x2bc6d(%rip),%ymm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -13923,9 +14128,9 @@ HIDDEN _sk_bilinear_ny_hsw
FUNCTION(_sk_bilinear_ny_hsw)
_sk_bilinear_ny_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,166,183,2,0 // vbroadcastss 0x2b7a6(%rip),%ymm1 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,13,154,189,2,0 // vbroadcastss 0x2bd9a(%rip),%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,76,182,2,0 // vbroadcastss 0x2b64c(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,64,188,2,0 // vbroadcastss 0x2bc40(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -13936,7 +14141,7 @@ HIDDEN _sk_bilinear_py_hsw
FUNCTION(_sk_bilinear_py_hsw)
_sk_bilinear_py_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,41,182,2,0 // vbroadcastss 0x2b629(%rip),%ymm1 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,13,29,188,2,0 // vbroadcastss 0x2bc1d(%rip),%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -13948,13 +14153,13 @@ HIDDEN _sk_bicubic_n3x_hsw
FUNCTION(_sk_bicubic_n3x_hsw)
_sk_bicubic_n3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,89,183,2,0 // vbroadcastss 0x2b759(%rip),%ymm0 # 39954 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,226,125,24,5,77,189,2,0 // vbroadcastss 0x2bd4d(%rip),%ymm0 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,252,181,2,0 // vbroadcastss 0x2b5fc(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,240,187,2,0 // vbroadcastss 0x2bbf0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,90,182,2,0 // vbroadcastss 0x2b65a(%rip),%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,49,183,2,0 // vbroadcastss 0x2b731(%rip),%ymm11 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,78,188,2,0 // vbroadcastss 0x2bc4e(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,37,189,2,0 // vbroadcastss 0x2bd25(%rip),%ymm11 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -13966,16 +14171,16 @@ HIDDEN _sk_bicubic_n1x_hsw
FUNCTION(_sk_bicubic_n1x_hsw)
_sk_bicubic_n1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,8,183,2,0 // vbroadcastss 0x2b708(%rip),%ymm0 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,5,252,188,2,0 // vbroadcastss 0x2bcfc(%rip),%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,175,181,2,0 // vbroadcastss 0x2b5af(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,163,187,2,0 // vbroadcastss 0x2bba3(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,250,182,2,0 // vbroadcastss 0x2b6fa(%rip),%ymm9 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,98,125,24,21,237,182,2,0 // vbroadcastss 0x2b6ed(%rip),%ymm10 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,238,188,2,0 // vbroadcastss 0x2bcee(%rip),%ymm9 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,225,188,2,0 // vbroadcastss 0x2bce1(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,131,181,2,0 // vbroadcastss 0x2b583(%rip),%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,119,187,2,0 // vbroadcastss 0x2bb77(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,217,182,2,0 // vbroadcastss 0x2b6d9(%rip),%ymm10 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,21,205,188,2,0 // vbroadcastss 0x2bccd(%rip),%ymm10 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,0,1,0,0 // vmovups %ymm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -13986,14 +14191,14 @@ HIDDEN _sk_bicubic_p1x_hsw
FUNCTION(_sk_bicubic_p1x_hsw)
_sk_bicubic_p1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,89,181,2,0 // vbroadcastss 0x2b559(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,77,187,2,0 // vbroadcastss 0x2bb4d(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,164,182,2,0 // vbroadcastss 0x2b6a4(%rip),%ymm10 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,98,125,24,29,151,182,2,0 // vbroadcastss 0x2b697(%rip),%ymm11 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,21,152,188,2,0 // vbroadcastss 0x2bc98(%rip),%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,29,139,188,2,0 // vbroadcastss 0x2bc8b(%rip),%ymm11 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,140,182,2,0 // vbroadcastss 0x2b68c(%rip),%ymm8 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,5,128,188,2,0 // vbroadcastss 0x2bc80(%rip),%ymm8 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14004,12 +14209,12 @@ HIDDEN _sk_bicubic_p3x_hsw
FUNCTION(_sk_bicubic_p3x_hsw)
_sk_bicubic_p3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,108,182,2,0 // vbroadcastss 0x2b66c(%rip),%ymm0 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,5,96,188,2,0 // vbroadcastss 0x2bc60(%rip),%ymm0 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,106,181,2,0 // vbroadcastss 0x2b56a(%rip),%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,65,182,2,0 // vbroadcastss 0x2b641(%rip),%ymm11 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,94,187,2,0 // vbroadcastss 0x2bb5e(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,53,188,2,0 // vbroadcastss 0x2bc35(%rip),%ymm11 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -14021,13 +14226,13 @@ HIDDEN _sk_bicubic_n3y_hsw
FUNCTION(_sk_bicubic_n3y_hsw)
_sk_bicubic_n3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,28,182,2,0 // vbroadcastss 0x2b61c(%rip),%ymm1 # 39954 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,226,125,24,13,16,188,2,0 // vbroadcastss 0x2bc10(%rip),%ymm1 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,190,180,2,0 // vbroadcastss 0x2b4be(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,178,186,2,0 // vbroadcastss 0x2bab2(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,28,181,2,0 // vbroadcastss 0x2b51c(%rip),%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,243,181,2,0 // vbroadcastss 0x2b5f3(%rip),%ymm11 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,16,187,2,0 // vbroadcastss 0x2bb10(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,231,187,2,0 // vbroadcastss 0x2bbe7(%rip),%ymm11 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -14039,16 +14244,16 @@ HIDDEN _sk_bicubic_n1y_hsw
FUNCTION(_sk_bicubic_n1y_hsw)
_sk_bicubic_n1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,202,181,2,0 // vbroadcastss 0x2b5ca(%rip),%ymm1 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,13,190,187,2,0 // vbroadcastss 0x2bbbe(%rip),%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,112,180,2,0 // vbroadcastss 0x2b470(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,100,186,2,0 // vbroadcastss 0x2ba64(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,187,181,2,0 // vbroadcastss 0x2b5bb(%rip),%ymm9 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,98,125,24,21,174,181,2,0 // vbroadcastss 0x2b5ae(%rip),%ymm10 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,175,187,2,0 // vbroadcastss 0x2bbaf(%rip),%ymm9 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,162,187,2,0 // vbroadcastss 0x2bba2(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,68,180,2,0 // vbroadcastss 0x2b444(%rip),%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,56,186,2,0 // vbroadcastss 0x2ba38(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,154,181,2,0 // vbroadcastss 0x2b59a(%rip),%ymm10 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,21,142,187,2,0 // vbroadcastss 0x2bb8e(%rip),%ymm10 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,64,1,0,0 // vmovups %ymm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14059,14 +14264,14 @@ HIDDEN _sk_bicubic_p1y_hsw
FUNCTION(_sk_bicubic_p1y_hsw)
_sk_bicubic_p1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,26,180,2,0 // vbroadcastss 0x2b41a(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,14,186,2,0 // vbroadcastss 0x2ba0e(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
.byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,100,181,2,0 // vbroadcastss 0x2b564(%rip),%ymm10 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,98,125,24,29,87,181,2,0 // vbroadcastss 0x2b557(%rip),%ymm11 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,21,88,187,2,0 // vbroadcastss 0x2bb58(%rip),%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,29,75,187,2,0 // vbroadcastss 0x2bb4b(%rip),%ymm11 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,76,181,2,0 // vbroadcastss 0x2b54c(%rip),%ymm8 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,5,64,187,2,0 // vbroadcastss 0x2bb40(%rip),%ymm8 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -14077,12 +14282,12 @@ HIDDEN _sk_bicubic_p3y_hsw
FUNCTION(_sk_bicubic_p3y_hsw)
_sk_bicubic_p3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,44,181,2,0 // vbroadcastss 0x2b52c(%rip),%ymm1 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,13,32,187,2,0 // vbroadcastss 0x2bb20(%rip),%ymm1 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,41,180,2,0 // vbroadcastss 0x2b429(%rip),%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,0,181,2,0 // vbroadcastss 0x2b500(%rip),%ymm11 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,29,186,2,0 // vbroadcastss 0x2ba1d(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,244,186,2,0 // vbroadcastss 0x2baf4(%rip),%ymm11 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -14222,7 +14427,7 @@ _sk_clut_3D_hsw:
.byte 196,98,93,64,218 // vpmulld %ymm2,%ymm4,%ymm11
.byte 72,139,0 // mov (%rax),%rax
.byte 197,165,254,193 // vpaddd %ymm1,%ymm11,%ymm0
- .byte 196,98,125,88,61,194,178,2,0 // vpbroadcastd 0x2b2c2(%rip),%ymm15 # 3996c <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 196,98,125,88,61,182,184,2,0 // vpbroadcastd 0x2b8b6(%rip),%ymm15 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,194,125,64,199 // vpmulld %ymm15,%ymm0,%ymm0
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
@@ -14234,13 +14439,13 @@ _sk_clut_3D_hsw:
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,60,144 // vgatherdps %ymm5,(%rax,%ymm2,4),%ymm7
.byte 197,252,17,188,36,0,2,0,0 // vmovups %ymm7,0x200(%rsp)
- .byte 196,226,125,88,61,32,177,2,0 // vpbroadcastd 0x2b120(%rip),%ymm7 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,226,125,88,61,20,183,2,0 // vpbroadcastd 0x2b714(%rip),%ymm7 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 197,253,254,199 // vpaddd %ymm7,%ymm0,%ymm0
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,20,128 // vgatherdps %ymm5,(%rax,%ymm0,4),%ymm2
.byte 197,252,17,148,36,32,1,0,0 // vmovups %ymm2,0x120(%rsp)
- .byte 196,226,125,24,5,84,178,2,0 // vbroadcastss 0x2b254(%rip),%ymm0 # 39968 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,226,125,24,5,72,184,2,0 // vbroadcastss 0x2b848(%rip),%ymm0 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 197,172,88,232 // vaddps %ymm0,%ymm10,%ymm5
.byte 197,254,91,237 // vcvttps2dq %ymm5,%ymm5
.byte 196,226,93,64,213 // vpmulld %ymm5,%ymm4,%ymm2
@@ -14502,7 +14707,7 @@ _sk_clut_4D_hsw:
.byte 197,254,127,132,36,0,1,0,0 // vmovdqu %ymm0,0x100(%rsp)
.byte 196,98,109,64,200 // vpmulld %ymm0,%ymm2,%ymm9
.byte 197,181,254,199 // vpaddd %ymm7,%ymm9,%ymm0
- .byte 196,98,125,88,21,237,172,2,0 // vpbroadcastd 0x2aced(%rip),%ymm10 # 3996c <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 196,98,125,88,21,225,178,2,0 // vpbroadcastd 0x2b2e1(%rip),%ymm10 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -14514,13 +14719,13 @@ _sk_clut_4D_hsw:
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,98,61,146,28,168 // vgatherdps %ymm8,(%rax,%ymm5,4),%ymm11
.byte 197,124,17,156,36,192,0,0,0 // vmovups %ymm11,0xc0(%rsp)
- .byte 196,98,125,88,29,72,171,2,0 // vpbroadcastd 0x2ab48(%rip),%ymm11 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,88,29,60,177,2,0 // vpbroadcastd 0x2b13c(%rip),%ymm11 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,193,125,254,195 // vpaddd %ymm11,%ymm0,%ymm0
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,226,61,146,44,128 // vgatherdps %ymm8,(%rax,%ymm0,4),%ymm5
.byte 197,252,17,108,36,32 // vmovups %ymm5,0x20(%rsp)
- .byte 196,226,125,24,5,125,172,2,0 // vbroadcastss 0x2ac7d(%rip),%ymm0 # 39968 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,226,125,24,5,113,178,2,0 // vbroadcastss 0x2b271(%rip),%ymm0 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 197,116,88,192 // vaddps %ymm0,%ymm1,%ymm8
.byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
.byte 196,194,109,64,232 // vpmulld %ymm8,%ymm2,%ymm5
@@ -14953,7 +15158,7 @@ _sk_clut_4D_hsw:
.byte 196,193,100,92,210 // vsubps %ymm10,%ymm3,%ymm2
.byte 196,194,77,168,210 // vfmadd213ps %ymm10,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,107,161,2,0 // vbroadcastss 0x2a16b(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,95,167,2,0 // vbroadcastss 0x2a75f(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,16,164,36,96,6,0,0 // vmovups 0x660(%rsp),%ymm4
.byte 197,252,16,172,36,128,6,0,0 // vmovups 0x680(%rsp),%ymm5
.byte 197,252,16,180,36,160,6,0,0 // vmovups 0x6a0(%rsp),%ymm6
@@ -14965,14 +15170,14 @@ HIDDEN _sk_gauss_a_to_rgba_hsw
.globl _sk_gauss_a_to_rgba_hsw
FUNCTION(_sk_gauss_a_to_rgba_hsw)
_sk_gauss_a_to_rgba_hsw:
- .byte 196,226,125,24,5,165,162,2,0 // vbroadcastss 0x2a2a5(%rip),%ymm0 # 39974 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
- .byte 196,226,125,24,13,152,162,2,0 // vbroadcastss 0x2a298(%rip),%ymm1 # 39970 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
+ .byte 196,226,125,24,5,153,168,2,0 // vbroadcastss 0x2a899(%rip),%ymm0 # 3a388 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
+ .byte 196,226,125,24,13,140,168,2,0 // vbroadcastss 0x2a88c(%rip),%ymm1 # 3a384 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
.byte 196,226,101,168,200 // vfmadd213ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,146,162,2,0 // vbroadcastss 0x2a292(%rip),%ymm0 # 39978 <_sk_srcover_bgra_8888_sse2_lowp+0x424>
+ .byte 196,226,125,24,5,134,168,2,0 // vbroadcastss 0x2a886(%rip),%ymm0 # 3a38c <_sk_srcover_bgra_8888_sse2_lowp+0x424>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
- .byte 196,226,125,24,13,136,162,2,0 // vbroadcastss 0x2a288(%rip),%ymm1 # 3997c <_sk_srcover_bgra_8888_sse2_lowp+0x428>
+ .byte 196,226,125,24,13,124,168,2,0 // vbroadcastss 0x2a87c(%rip),%ymm1 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
.byte 196,226,101,184,200 // vfmadd231ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,126,162,2,0 // vbroadcastss 0x2a27e(%rip),%ymm0 # 39980 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
+ .byte 196,226,125,24,5,114,168,2,0 // vbroadcastss 0x2a872(%rip),%ymm0 # 3a394 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -15002,13 +15207,13 @@ _sk_start_pipeline_avx:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae f7e2 <_sk_start_pipeline_avx+0xca>
+ .byte 15,131,151,0,0,0 // jae fc02 <_sk_start_pipeline_avx+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja f7a4 <_sk_start_pipeline_avx+0x8c>
+ .byte 119,67 // ja fbc4 <_sk_start_pipeline_avx+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -15027,10 +15232,10 @@ _sk_start_pipeline_avx:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe f765 <_sk_start_pipeline_avx+0x4d>
+ .byte 118,193 // jbe fb85 <_sk_start_pipeline_avx+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je f7d5 <_sk_start_pipeline_avx+0xbd>
+ .byte 116,41 // je fbf5 <_sk_start_pipeline_avx+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -15044,7 +15249,7 @@ _sk_start_pipeline_avx:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne f757 <_sk_start_pipeline_avx+0x3f>
+ .byte 15,133,117,255,255,255 // jne fb77 <_sk_start_pipeline_avx+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -15075,10 +15280,10 @@ _sk_seed_shader_avx:
.byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,214,159,2,0 // vbroadcastss 0x29fd6(%rip),%ymm2 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,21,202,165,2,0 // vbroadcastss 0x2a5ca(%rip),%ymm2 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,203,159,2,0 // vbroadcastss 0x29fcb(%rip),%ymm2 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,21,191,165,2,0 // vbroadcastss 0x2a5bf(%rip),%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -15092,46 +15297,46 @@ FUNCTION(_sk_dither_avx)
_sk_dither_avx:
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
- .byte 197,57,254,13,159,168,2,0 // vpaddd 0x2a89f(%rip),%xmm8,%xmm9 # 3a100 <_sk_srcover_bgra_8888_sse2_lowp+0xbac>
- .byte 197,57,254,5,167,168,2,0 // vpaddd 0x2a8a7(%rip),%xmm8,%xmm8 # 3a110 <_sk_srcover_bgra_8888_sse2_lowp+0xbbc>
+ .byte 197,57,254,13,159,174,2,0 // vpaddd 0x2ae9f(%rip),%xmm8,%xmm9 # 3ab20 <_sk_srcover_bgra_8888_sse2_lowp+0xbb8>
+ .byte 197,57,254,5,167,174,2,0 // vpaddd 0x2aea7(%rip),%xmm8,%xmm8 # 3ab30 <_sk_srcover_bgra_8888_sse2_lowp+0xbc8>
.byte 196,67,53,24,208,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm10
.byte 197,121,110,217 // vmovd %ecx,%xmm11
.byte 196,65,121,112,219,0 // vpshufd $0x0,%xmm11,%xmm11
.byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
.byte 196,65,36,87,218 // vxorps %ymm10,%ymm11,%ymm11
- .byte 196,98,125,24,21,123,159,2,0 // vbroadcastss 0x29f7b(%rip),%ymm10 # 39808 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,24,21,111,165,2,0 // vbroadcastss 0x2a56f(%rip),%ymm10 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 196,65,36,84,210 // vandps %ymm10,%ymm11,%ymm10
.byte 196,193,25,114,242,5 // vpslld $0x5,%xmm10,%xmm12
.byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
.byte 196,193,41,114,242,5 // vpslld $0x5,%xmm10,%xmm10
.byte 196,67,29,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm12,%ymm10
- .byte 197,123,18,37,158,176,2,0 // vmovddup 0x2b09e(%rip),%xmm12 # 3a950 <_sk_srcover_bgra_8888_sse2_lowp+0x13fc>
+ .byte 197,123,18,37,158,182,2,0 // vmovddup 0x2b69e(%rip),%xmm12 # 3b370 <_sk_srcover_bgra_8888_sse2_lowp+0x1408>
.byte 196,65,49,219,236 // vpand %xmm12,%xmm9,%xmm13
.byte 196,193,17,114,245,4 // vpslld $0x4,%xmm13,%xmm13
.byte 196,65,57,219,228 // vpand %xmm12,%xmm8,%xmm12
.byte 196,193,25,114,244,4 // vpslld $0x4,%xmm12,%xmm12
.byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,57,159,2,0 // vbroadcastss 0x29f39(%rip),%ymm13 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,125,24,45,45,165,2,0 // vbroadcastss 0x2a52d(%rip),%ymm13 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,65,36,84,237 // vandps %ymm13,%ymm11,%ymm13
.byte 196,193,9,114,245,2 // vpslld $0x2,%xmm13,%xmm14
.byte 196,67,125,25,237,1 // vextractf128 $0x1,%ymm13,%xmm13
.byte 196,193,17,114,245,2 // vpslld $0x2,%xmm13,%xmm13
.byte 196,67,13,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm14,%ymm13
- .byte 197,123,18,53,92,176,2,0 // vmovddup 0x2b05c(%rip),%xmm14 # 3a958 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
+ .byte 197,123,18,53,92,182,2,0 // vmovddup 0x2b65c(%rip),%xmm14 # 3b378 <_sk_srcover_bgra_8888_sse2_lowp+0x1410>
.byte 196,65,49,219,254 // vpand %xmm14,%xmm9,%xmm15
.byte 196,65,1,254,255 // vpaddd %xmm15,%xmm15,%xmm15
.byte 196,65,57,219,246 // vpand %xmm14,%xmm8,%xmm14
.byte 196,65,9,254,246 // vpaddd %xmm14,%xmm14,%xmm14
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
.byte 196,65,12,86,228 // vorps %ymm12,%ymm14,%ymm12
- .byte 196,98,125,24,53,232,158,2,0 // vbroadcastss 0x29ee8(%rip),%ymm14 # 3980c <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
+ .byte 196,98,125,24,53,220,164,2,0 // vbroadcastss 0x2a4dc(%rip),%ymm14 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
.byte 196,193,9,114,211,1 // vpsrld $0x1,%xmm11,%xmm14
.byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
.byte 196,193,33,114,211,1 // vpsrld $0x1,%xmm11,%xmm11
.byte 196,67,13,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm14,%ymm11
.byte 196,65,20,86,219 // vorps %ymm11,%ymm13,%ymm11
- .byte 197,123,18,45,18,176,2,0 // vmovddup 0x2b012(%rip),%xmm13 # 3a960 <_sk_srcover_bgra_8888_sse2_lowp+0x140c>
+ .byte 197,123,18,45,18,182,2,0 // vmovddup 0x2b612(%rip),%xmm13 # 3b380 <_sk_srcover_bgra_8888_sse2_lowp+0x1418>
.byte 196,65,49,219,205 // vpand %xmm13,%xmm9,%xmm9
.byte 196,65,57,219,197 // vpand %xmm13,%xmm8,%xmm8
.byte 196,193,49,114,209,2 // vpsrld $0x2,%xmm9,%xmm9
@@ -15142,9 +15347,9 @@ _sk_dither_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,60,86,195 // vorps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,139,158,2,0 // vbroadcastss 0x29e8b(%rip),%ymm9 # 39814 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
+ .byte 196,98,125,24,13,127,164,2,0 // vbroadcastss 0x2a47f(%rip),%ymm9 # 3a228 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,129,158,2,0 // vbroadcastss 0x29e81(%rip),%ymm9 # 39818 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
+ .byte 196,98,125,24,13,117,164,2,0 // vbroadcastss 0x2a475(%rip),%ymm9 # 3a22c <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
@@ -15178,7 +15383,7 @@ HIDDEN _sk_black_color_avx
FUNCTION(_sk_black_color_avx)
_sk_black_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,9,158,2,0 // vbroadcastss 0x29e09(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,253,163,2,0 // vbroadcastss 0x2a3fd(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -15189,7 +15394,7 @@ HIDDEN _sk_white_color_avx
FUNCTION(_sk_white_color_avx)
_sk_white_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,240,157,2,0 // vbroadcastss 0x29df0(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,228,163,2,0 // vbroadcastss 0x2a3e4(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -15235,7 +15440,7 @@ HIDDEN _sk_srcatop_avx
FUNCTION(_sk_srcatop_avx)
_sk_srcatop_avx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,143,157,2,0 // vbroadcastss 0x29d8f(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,131,163,2,0 // vbroadcastss 0x2a383(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -15256,7 +15461,7 @@ HIDDEN _sk_dstatop_avx
FUNCTION(_sk_dstatop_avx)
_sk_dstatop_avx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
- .byte 196,98,125,24,13,77,157,2,0 // vbroadcastss 0x29d4d(%rip),%ymm9 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,65,163,2,0 // vbroadcastss 0x2a341(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,207 // vsubps %ymm7,%ymm9,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -15298,7 +15503,7 @@ HIDDEN _sk_srcout_avx
.globl _sk_srcout_avx
FUNCTION(_sk_srcout_avx)
_sk_srcout_avx:
- .byte 196,98,125,24,5,232,156,2,0 // vbroadcastss 0x29ce8(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,220,162,2,0 // vbroadcastss 0x2a2dc(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -15311,7 +15516,7 @@ HIDDEN _sk_dstout_avx
.globl _sk_dstout_avx
FUNCTION(_sk_dstout_avx)
_sk_dstout_avx:
- .byte 196,226,125,24,5,199,156,2,0 // vbroadcastss 0x29cc7(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,187,162,2,0 // vbroadcastss 0x2a2bb(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -15324,7 +15529,7 @@ HIDDEN _sk_srcover_avx
.globl _sk_srcover_avx
FUNCTION(_sk_srcover_avx)
_sk_srcover_avx:
- .byte 196,98,125,24,5,166,156,2,0 // vbroadcastss 0x29ca6(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,154,162,2,0 // vbroadcastss 0x2a29a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -15341,7 +15546,7 @@ HIDDEN _sk_dstover_avx
.globl _sk_dstover_avx
FUNCTION(_sk_dstover_avx)
_sk_dstover_avx:
- .byte 196,98,125,24,5,117,156,2,0 // vbroadcastss 0x29c75(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,105,162,2,0 // vbroadcastss 0x2a269(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
@@ -15369,7 +15574,7 @@ HIDDEN _sk_multiply_avx
.globl _sk_multiply_avx
FUNCTION(_sk_multiply_avx)
_sk_multiply_avx:
- .byte 196,98,125,24,5,48,156,2,0 // vbroadcastss 0x29c30(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,36,162,2,0 // vbroadcastss 0x2a224(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -15400,7 +15605,7 @@ HIDDEN _sk_plus__avx
FUNCTION(_sk_plus__avx)
_sk_plus__avx:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,191,155,2,0 // vbroadcastss 0x29bbf(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,179,161,2,0 // vbroadcastss 0x2a1b3(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -15434,7 +15639,7 @@ HIDDEN _sk_xor__avx
.globl _sk_xor__avx
FUNCTION(_sk_xor__avx)
_sk_xor__avx:
- .byte 196,98,125,24,5,94,155,2,0 // vbroadcastss 0x29b5e(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,82,161,2,0 // vbroadcastss 0x2a152(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -15471,7 +15676,7 @@ _sk_darken_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,218,154,2,0 // vbroadcastss 0x29ada(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,206,160,2,0 // vbroadcastss 0x2a0ce(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15497,7 +15702,7 @@ _sk_lighten_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,130,154,2,0 // vbroadcastss 0x29a82(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,118,160,2,0 // vbroadcastss 0x2a076(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15526,7 +15731,7 @@ _sk_difference_avx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,30,154,2,0 // vbroadcastss 0x29a1e(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,18,160,2,0 // vbroadcastss 0x2a012(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15549,7 +15754,7 @@ _sk_exclusion_avx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,213,153,2,0 // vbroadcastss 0x299d5(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,201,159,2,0 // vbroadcastss 0x29fc9(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -15560,7 +15765,7 @@ HIDDEN _sk_colorburn_avx
.globl _sk_colorburn_avx
FUNCTION(_sk_colorburn_avx)
_sk_colorburn_avx:
- .byte 196,98,125,24,5,188,153,2,0 // vbroadcastss 0x299bc(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,176,159,2,0 // vbroadcastss 0x29fb0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -15622,7 +15827,7 @@ HIDDEN _sk_colordodge_avx
FUNCTION(_sk_colordodge_avx)
_sk_colordodge_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,192,152,2,0 // vbroadcastss 0x298c0(%rip),%ymm9 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,13,180,158,2,0 // vbroadcastss 0x29eb4(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -15679,7 +15884,7 @@ HIDDEN _sk_hardlight_avx
.globl _sk_hardlight_avx
FUNCTION(_sk_hardlight_avx)
_sk_hardlight_avx:
- .byte 196,98,125,24,5,203,151,2,0 // vbroadcastss 0x297cb(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,191,157,2,0 // vbroadcastss 0x29dbf(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -15734,7 +15939,7 @@ HIDDEN _sk_overlay_avx
.globl _sk_overlay_avx
FUNCTION(_sk_overlay_avx)
_sk_overlay_avx:
- .byte 196,98,125,24,5,240,150,2,0 // vbroadcastss 0x296f0(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,228,156,2,0 // vbroadcastss 0x29ce4(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -15800,10 +16005,10 @@ _sk_softlight_avx:
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,65,60,89,216 // vmulps %ymm8,%ymm8,%ymm11
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,29,247,149,2,0 // vbroadcastss 0x295f7(%rip),%ymm11 # 3981c <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,29,235,155,2,0 // vbroadcastss 0x29beb(%rip),%ymm11 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,65,28,88,235 // vaddps %ymm11,%ymm12,%ymm13
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,232,149,2,0 // vbroadcastss 0x295e8(%rip),%ymm13 # 39820 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
+ .byte 196,98,125,24,45,220,155,2,0 // vbroadcastss 0x29bdc(%rip),%ymm13 # 3a234 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
.byte 196,65,28,89,245 // vmulps %ymm13,%ymm12,%ymm14
.byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8
.byte 196,65,124,82,244 // vrsqrtps %ymm12,%ymm14
@@ -15814,7 +16019,7 @@ _sk_softlight_avx:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,146,149,2,0 // vbroadcastss 0x29592(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,134,155,2,0 // vbroadcastss 0x29b86(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,60,92,228 // vsubps %ymm12,%ymm8,%ymm12
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
@@ -15941,12 +16146,12 @@ _sk_hue_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,117,147,2,0 // vbroadcastss 0x29375(%rip),%ymm14 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,105,153,2,0 // vbroadcastss 0x29969(%rip),%ymm14 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,107,147,2,0 // vbroadcastss 0x2936b(%rip),%ymm15 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,61,95,153,2,0 // vbroadcastss 0x2995f(%rip),%ymm15 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,92,147,2,0 // vbroadcastss 0x2935c(%rip),%ymm0 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,80,153,2,0 // vbroadcastss 0x29950(%rip),%ymm0 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -16007,7 +16212,7 @@ _sk_hue_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,9,146,2,0 // vbroadcastss 0x29209(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,253,151,2,0 // vbroadcastss 0x297fd(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16064,12 +16269,12 @@ _sk_saturation_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,51,145,2,0 // vbroadcastss 0x29133(%rip),%ymm14 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,39,151,2,0 // vbroadcastss 0x29727(%rip),%ymm14 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,41,145,2,0 // vbroadcastss 0x29129(%rip),%ymm15 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,61,29,151,2,0 // vbroadcastss 0x2971d(%rip),%ymm15 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,26,145,2,0 // vbroadcastss 0x2911a(%rip),%ymm0 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,226,125,24,5,14,151,2,0 // vbroadcastss 0x2970e(%rip),%ymm0 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -16130,7 +16335,7 @@ _sk_saturation_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,199,143,2,0 // vbroadcastss 0x28fc7(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,187,149,2,0 // vbroadcastss 0x295bb(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16159,12 +16364,12 @@ _sk_color_avx:
.byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp)
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
- .byte 196,98,125,24,45,121,143,2,0 // vbroadcastss 0x28f79(%rip),%ymm13 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,109,149,2,0 // vbroadcastss 0x2956d(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,213 // vmulps %ymm13,%ymm4,%ymm10
- .byte 196,98,125,24,53,111,143,2,0 // vbroadcastss 0x28f6f(%rip),%ymm14 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,99,149,2,0 // vbroadcastss 0x29563(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,222 // vmulps %ymm14,%ymm5,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,96,143,2,0 // vbroadcastss 0x28f60(%rip),%ymm15 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,84,149,2,0 // vbroadcastss 0x29554(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,65,76,89,223 // vmulps %ymm15,%ymm6,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -16227,7 +16432,7 @@ _sk_color_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,251,141,2,0 // vbroadcastss 0x28dfb(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,239,147,2,0 // vbroadcastss 0x293ef(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,84,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -16257,12 +16462,12 @@ _sk_luminosity_avx:
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,98,125,24,45,169,141,2,0 // vbroadcastss 0x28da9(%rip),%ymm13 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,157,147,2,0 // vbroadcastss 0x2939d(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,108,89,213 // vmulps %ymm13,%ymm2,%ymm10
- .byte 196,98,125,24,53,159,141,2,0 // vbroadcastss 0x28d9f(%rip),%ymm14 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
+ .byte 196,98,125,24,53,147,147,2,0 // vbroadcastss 0x29393(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
.byte 196,65,116,89,222 // vmulps %ymm14,%ymm1,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,144,141,2,0 // vbroadcastss 0x28d90(%rip),%ymm15 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
+ .byte 196,98,125,24,61,132,147,2,0 // vbroadcastss 0x29384(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
.byte 196,65,28,89,223 // vmulps %ymm15,%ymm12,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -16325,7 +16530,7 @@ _sk_luminosity_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,43,140,2,0 // vbroadcastss 0x28c2b(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,5,31,146,2,0 // vbroadcastss 0x2921f(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -16357,152 +16562,161 @@ _sk_srcover_rgba_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,42,1,0,0 // jne 10d6e <_sk_srcover_rgba_8888_avx+0x14a>
- .byte 196,1,125,16,4,152 // vmovupd (%r8,%r11,4),%ymm8
- .byte 197,125,40,13,238,144,2,0 // vmovapd 0x290ee(%rip),%ymm9 # 39d40 <_sk_srcover_bgra_8888_sse2_lowp+0x7ec>
- .byte 196,193,61,84,225 // vandpd %ymm9,%ymm8,%ymm4
+ .byte 15,133,87,1,0,0 // jne 111bb <_sk_srcover_rgba_8888_avx+0x177>
+ .byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
+ .byte 197,125,40,5,238,150,2,0 // vmovapd 0x296ee(%rip),%ymm8 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x7f8>
+ .byte 196,193,53,84,224 // vandpd %ymm8,%ymm9,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,193,81,114,208,8 // vpsrld $0x8,%xmm8,%xmm5
- .byte 196,99,125,25,199,1 // vextractf128 $0x1,%ymm8,%xmm7
+ .byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
+ .byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
.byte 197,201,114,215,8 // vpsrld $0x8,%xmm7,%xmm6
.byte 196,227,85,24,238,1 // vinsertf128 $0x1,%xmm6,%ymm5,%ymm5
- .byte 196,193,85,84,233 // vandpd %ymm9,%ymm5,%ymm5
+ .byte 196,193,85,84,232 // vandpd %ymm8,%ymm5,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,193,41,114,208,16 // vpsrld $0x10,%xmm8,%xmm10
+ .byte 196,193,41,114,209,16 // vpsrld $0x10,%xmm9,%xmm10
.byte 197,201,114,215,16 // vpsrld $0x10,%xmm7,%xmm6
.byte 196,227,45,24,246,1 // vinsertf128 $0x1,%xmm6,%ymm10,%ymm6
- .byte 196,193,77,84,241 // vandpd %ymm9,%ymm6,%ymm6
+ .byte 196,193,77,84,240 // vandpd %ymm8,%ymm6,%ymm6
+ .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,193,57,114,208,24 // vpsrld $0x18,%xmm8,%xmm8
+ .byte 196,193,49,114,209,24 // vpsrld $0x18,%xmm9,%xmm9
.byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
- .byte 196,227,61,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm8,%ymm7
+ .byte 196,227,53,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm9,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,81,139,2,0 // vbroadcastss 0x28b51(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,112,139,2,0 // vbroadcastss 0x28b70(%rip),%ymm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,64,145,2,0 // vbroadcastss 0x29140(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 197,52,92,211 // vsubps %ymm3,%ymm9,%ymm10
+ .byte 196,98,125,24,13,95,145,2,0 // vbroadcastss 0x2915f(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 197,60,89,212 // vmulps %ymm4,%ymm8,%ymm10
- .byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
+ .byte 197,44,89,220 // vmulps %ymm4,%ymm10,%ymm11
+ .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 197,60,89,213 // vmulps %ymm5,%ymm8,%ymm10
- .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
+ .byte 197,44,89,221 // vmulps %ymm5,%ymm10,%ymm11
+ .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
- .byte 197,60,89,214 // vmulps %ymm6,%ymm8,%ymm10
- .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
+ .byte 197,44,89,222 // vmulps %ymm6,%ymm10,%ymm11
+ .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
- .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
- .byte 196,193,100,88,216 // vaddps %ymm8,%ymm3,%ymm3
- .byte 197,125,91,192 // vcvtps2dq %ymm0,%ymm8
- .byte 197,125,91,201 // vcvtps2dq %ymm1,%ymm9
- .byte 196,193,41,114,241,8 // vpslld $0x8,%xmm9,%xmm10
- .byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9
- .byte 196,193,49,114,241,8 // vpslld $0x8,%xmm9,%xmm9
- .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
- .byte 197,125,91,202 // vcvtps2dq %ymm2,%ymm9
- .byte 196,193,41,114,241,16 // vpslld $0x10,%xmm9,%xmm10
- .byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9
- .byte 196,193,49,114,241,16 // vpslld $0x10,%xmm9,%xmm9
- .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 197,125,91,211 // vcvtps2dq %ymm3,%ymm10
- .byte 196,193,33,114,242,24 // vpslld $0x18,%xmm10,%xmm11
- .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
- .byte 196,193,41,114,242,24 // vpslld $0x18,%xmm10,%xmm10
- .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10
- .byte 196,65,53,86,202 // vorpd %ymm10,%ymm9,%ymm9
- .byte 196,65,61,86,193 // vorpd %ymm9,%ymm8,%ymm8
+ .byte 197,44,89,215 // vmulps %ymm7,%ymm10,%ymm10
+ .byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
+ .byte 197,60,95,208 // vmaxps %ymm0,%ymm8,%ymm10
+ .byte 196,65,44,93,209 // vminps %ymm9,%ymm10,%ymm10
+ .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
+ .byte 197,60,95,217 // vmaxps %ymm1,%ymm8,%ymm11
+ .byte 196,65,36,93,217 // vminps %ymm9,%ymm11,%ymm11
+ .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
+ .byte 196,193,25,114,243,8 // vpslld $0x8,%xmm11,%xmm12
+ .byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
+ .byte 196,193,33,114,243,8 // vpslld $0x8,%xmm11,%xmm11
+ .byte 196,67,29,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm12,%ymm11
+ .byte 196,65,37,86,210 // vorpd %ymm10,%ymm11,%ymm10
+ .byte 197,60,95,218 // vmaxps %ymm2,%ymm8,%ymm11
+ .byte 196,65,36,93,217 // vminps %ymm9,%ymm11,%ymm11
+ .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
+ .byte 196,193,25,114,243,16 // vpslld $0x10,%xmm11,%xmm12
+ .byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
+ .byte 196,193,33,114,243,16 // vpslld $0x10,%xmm11,%xmm11
+ .byte 196,67,29,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm12,%ymm11
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8
+ .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
+ .byte 196,193,49,114,240,24 // vpslld $0x18,%xmm8,%xmm9
+ .byte 196,67,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm8
+ .byte 196,193,57,114,240,24 // vpslld $0x18,%xmm8,%xmm8
+ .byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
+ .byte 196,65,37,86,192 // vorpd %ymm8,%ymm11,%ymm8
+ .byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 10da6 <_sk_srcover_rgba_8888_avx+0x182>
+ .byte 117,66 // jne 111f3 <_sk_srcover_rgba_8888_avx+0x1af>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,195,254,255,255 // ja 10c4a <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 15,135,150,254,255,255 // ja 1106a <_sk_srcover_rgba_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,6,1,0,0 // lea 0x106(%rip),%r10 # 10e98 <_sk_srcover_rgba_8888_avx+0x274>
+ .byte 76,141,21,5,1,0,0 // lea 0x105(%rip),%r10 # 112e4 <_sk_srcover_rgba_8888_avx+0x2a0>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
- .byte 196,1,122,16,4,152 // vmovss (%r8,%r11,4),%xmm8
- .byte 233,164,254,255,255 // jmpq 10c4a <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
+ .byte 233,119,254,255,255 // jmpq 1106a <_sk_srcover_rgba_8888_avx+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,180 // ja 10d6a <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 119,180 // ja 111b7 <_sk_srcover_rgba_8888_avx+0x173>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,243,0,0,0 // lea 0xf3(%rip),%r9 # 10eb4 <_sk_srcover_rgba_8888_avx+0x290>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 11300 <_sk_srcover_rgba_8888_avx+0x2bc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,152 // jmp 10d6a <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 235,152 // jmp 111b7 <_sk_srcover_rgba_8888_avx+0x173>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 196,99,85,12,196,4 // vblendps $0x4,%ymm4,%ymm5,%ymm8
+ .byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
- .byte 196,99,61,13,196,1 // vblendpd $0x1,%ymm4,%ymm8,%ymm8
- .byte 233,81,254,255,255 // jmpq 10c4a <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
+ .byte 233,36,254,255,255 // jmpq 1106a <_sk_srcover_rgba_8888_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 196,99,85,12,196,64 // vblendps $0x40,%ymm4,%ymm5,%ymm8
- .byte 196,99,125,25,196,1 // vextractf128 $0x1,%ymm8,%xmm4
+ .byte 196,99,85,12,204,64 // vblendps $0x40,%ymm4,%ymm5,%ymm9
+ .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4
.byte 196,131,89,34,100,152,20,1 // vpinsrd $0x1,0x14(%r8,%r11,4),%xmm4,%xmm4
- .byte 196,99,61,24,196,1 // vinsertf128 $0x1,%xmm4,%ymm8,%ymm8
- .byte 196,99,125,25,196,1 // vextractf128 $0x1,%ymm8,%xmm4
+ .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
+ .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4
.byte 196,131,89,34,100,152,16,0 // vpinsrd $0x0,0x10(%r8,%r11,4),%xmm4,%xmm4
- .byte 196,99,61,24,196,1 // vinsertf128 $0x1,%xmm4,%ymm8,%ymm8
+ .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
- .byte 196,67,93,13,192,12 // vblendpd $0xc,%ymm8,%ymm4,%ymm8
- .byte 233,252,253,255,255 // jmpq 10c4a <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
+ .byte 233,207,253,255,255 // jmpq 1106a <_sk_srcover_rgba_8888_avx+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,9,255,255,255 // jmpq 10d6a <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 233,9,255,255,255 // jmpq 111b7 <_sk_srcover_rgba_8888_avx+0x173>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
+ .byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 233,213,254,255,255 // jmpq 10d6a <_sk_srcover_rgba_8888_avx+0x146>
- .byte 15,31,0 // nopl (%rax)
- .byte 3,255 // add %edi,%edi
+ .byte 233,213,254,255,255 // jmpq 111b7 <_sk_srcover_rgba_8888_avx+0x173>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 4,255 // add $0xff,%al
.byte 255 // (bad)
- .byte 255,80,255 // callq *-0x1(%rax)
+ .byte 255,81,255 // callq *-0x1(%rcx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 58,255 // cmp %bh,%bh
+ .byte 59,255 // cmp %edi,%edi
.byte 255 // (bad)
- .byte 255,165,255,255,255,145 // jmpq *-0x6e000001(%rbp)
+ .byte 255,166,255,255,255,146 // jmpq *-0x6d000001(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 10ead <_sk_srcover_rgba_8888_avx+0x289>
+ .byte 126,255 // jle 112f9 <_sk_srcover_rgba_8888_avx+0x2b5>
.byte 255 // (bad)
- .byte 255,97,255 // jmpq *-0x1(%rcx)
+ .byte 255,98,255 // jmpq *-0x1(%rdx)
.byte 255 // (bad)
- .byte 255,22 // callq *(%rsi)
+ .byte 255,23 // callq *(%rdi)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,162,255,255,255,154 // jmpq *-0x65000001(%rdx)
+ .byte 255,163,255,255,255,155 // jmpq *-0x64000001(%rbx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,214 // callq *%rsi
+ .byte 255,215 // callq *%rdi
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,201 // dec %ecx
+ .byte 255,202 // dec %edx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 187,255,255,255,173 // mov $0xadffffff,%ebx
+ .byte 188,255,255,255,174 // mov $0xaeffffff,%esp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -16519,152 +16733,161 @@ _sk_srcover_bgra_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,42,1,0,0 // jne 1101a <_sk_srcover_bgra_8888_avx+0x14a>
- .byte 196,1,125,16,4,152 // vmovupd (%r8,%r11,4),%ymm8
- .byte 197,125,40,13,98,142,2,0 // vmovapd 0x28e62(%rip),%ymm9 # 39d60 <_sk_srcover_bgra_8888_sse2_lowp+0x80c>
- .byte 196,193,61,84,233 // vandpd %ymm9,%ymm8,%ymm5
+ .byte 15,133,87,1,0,0 // jne 11493 <_sk_srcover_bgra_8888_avx+0x177>
+ .byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
+ .byte 197,125,40,5,54,148,2,0 // vmovapd 0x29436(%rip),%ymm8 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x818>
+ .byte 196,193,53,84,232 // vandpd %ymm8,%ymm9,%ymm5
.byte 197,252,91,245 // vcvtdq2ps %ymm5,%ymm6
- .byte 196,193,81,114,208,8 // vpsrld $0x8,%xmm8,%xmm5
- .byte 196,99,125,25,199,1 // vextractf128 $0x1,%ymm8,%xmm7
+ .byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
+ .byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
.byte 197,217,114,215,8 // vpsrld $0x8,%xmm7,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
- .byte 196,193,93,84,225 // vandpd %ymm9,%ymm4,%ymm4
+ .byte 196,193,93,84,224 // vandpd %ymm8,%ymm4,%ymm4
.byte 197,252,91,236 // vcvtdq2ps %ymm4,%ymm5
- .byte 196,193,41,114,208,16 // vpsrld $0x10,%xmm8,%xmm10
+ .byte 196,193,41,114,209,16 // vpsrld $0x10,%xmm9,%xmm10
.byte 197,217,114,215,16 // vpsrld $0x10,%xmm7,%xmm4
.byte 196,227,45,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm10,%ymm4
- .byte 196,193,93,84,225 // vandpd %ymm9,%ymm4,%ymm4
+ .byte 196,193,93,84,224 // vandpd %ymm8,%ymm4,%ymm4
+ .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,193,57,114,208,24 // vpsrld $0x18,%xmm8,%xmm8
+ .byte 196,193,49,114,209,24 // vpsrld $0x18,%xmm9,%xmm9
.byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
- .byte 196,227,61,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm8,%ymm7
+ .byte 196,227,53,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm9,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,165,136,2,0 // vbroadcastss 0x288a5(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,196,136,2,0 // vbroadcastss 0x288c4(%rip),%ymm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,13,104,142,2,0 // vbroadcastss 0x28e68(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 197,52,92,211 // vsubps %ymm3,%ymm9,%ymm10
+ .byte 196,98,125,24,13,135,142,2,0 // vbroadcastss 0x28e87(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 197,60,89,212 // vmulps %ymm4,%ymm8,%ymm10
- .byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
+ .byte 197,44,89,220 // vmulps %ymm4,%ymm10,%ymm11
+ .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 197,60,89,213 // vmulps %ymm5,%ymm8,%ymm10
- .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
+ .byte 197,44,89,221 // vmulps %ymm5,%ymm10,%ymm11
+ .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
- .byte 197,60,89,214 // vmulps %ymm6,%ymm8,%ymm10
- .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
+ .byte 197,44,89,222 // vmulps %ymm6,%ymm10,%ymm11
+ .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
- .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
- .byte 196,193,100,88,216 // vaddps %ymm8,%ymm3,%ymm3
- .byte 197,125,91,194 // vcvtps2dq %ymm2,%ymm8
- .byte 197,125,91,201 // vcvtps2dq %ymm1,%ymm9
- .byte 196,193,41,114,241,8 // vpslld $0x8,%xmm9,%xmm10
- .byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9
- .byte 196,193,49,114,241,8 // vpslld $0x8,%xmm9,%xmm9
- .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
- .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
- .byte 196,193,41,114,241,16 // vpslld $0x10,%xmm9,%xmm10
- .byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9
- .byte 196,193,49,114,241,16 // vpslld $0x10,%xmm9,%xmm9
- .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 197,125,91,211 // vcvtps2dq %ymm3,%ymm10
- .byte 196,193,33,114,242,24 // vpslld $0x18,%xmm10,%xmm11
- .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
- .byte 196,193,41,114,242,24 // vpslld $0x18,%xmm10,%xmm10
- .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10
- .byte 196,65,53,86,202 // vorpd %ymm10,%ymm9,%ymm9
- .byte 196,65,61,86,193 // vorpd %ymm9,%ymm8,%ymm8
+ .byte 197,44,89,215 // vmulps %ymm7,%ymm10,%ymm10
+ .byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
+ .byte 197,60,95,210 // vmaxps %ymm2,%ymm8,%ymm10
+ .byte 196,65,44,93,209 // vminps %ymm9,%ymm10,%ymm10
+ .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
+ .byte 197,60,95,217 // vmaxps %ymm1,%ymm8,%ymm11
+ .byte 196,65,36,93,217 // vminps %ymm9,%ymm11,%ymm11
+ .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
+ .byte 196,193,25,114,243,8 // vpslld $0x8,%xmm11,%xmm12
+ .byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
+ .byte 196,193,33,114,243,8 // vpslld $0x8,%xmm11,%xmm11
+ .byte 196,67,29,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm12,%ymm11
+ .byte 196,65,37,86,210 // vorpd %ymm10,%ymm11,%ymm10
+ .byte 197,60,95,216 // vmaxps %ymm0,%ymm8,%ymm11
+ .byte 196,65,36,93,217 // vminps %ymm9,%ymm11,%ymm11
+ .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
+ .byte 196,193,25,114,243,16 // vpslld $0x10,%xmm11,%xmm12
+ .byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
+ .byte 196,193,33,114,243,16 // vpslld $0x10,%xmm11,%xmm11
+ .byte 196,67,29,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm12,%ymm11
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8
+ .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
+ .byte 196,193,49,114,240,24 // vpslld $0x18,%xmm8,%xmm9
+ .byte 196,67,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm8
+ .byte 196,193,57,114,240,24 // vpslld $0x18,%xmm8,%xmm8
+ .byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
+ .byte 196,65,37,86,192 // vorpd %ymm8,%ymm11,%ymm8
+ .byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 11052 <_sk_srcover_bgra_8888_avx+0x182>
+ .byte 117,66 // jne 114cb <_sk_srcover_bgra_8888_avx+0x1af>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,195,254,255,255 // ja 10ef6 <_sk_srcover_bgra_8888_avx+0x26>
+ .byte 15,135,150,254,255,255 // ja 11342 <_sk_srcover_bgra_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,6,1,0,0 // lea 0x106(%rip),%r10 # 11144 <_sk_srcover_bgra_8888_avx+0x274>
+ .byte 76,141,21,5,1,0,0 // lea 0x105(%rip),%r10 # 115bc <_sk_srcover_bgra_8888_avx+0x2a0>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
- .byte 196,1,122,16,4,152 // vmovss (%r8,%r11,4),%xmm8
- .byte 233,164,254,255,255 // jmpq 10ef6 <_sk_srcover_bgra_8888_avx+0x26>
+ .byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
+ .byte 233,119,254,255,255 // jmpq 11342 <_sk_srcover_bgra_8888_avx+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,180 // ja 11016 <_sk_srcover_bgra_8888_avx+0x146>
+ .byte 119,180 // ja 1148f <_sk_srcover_bgra_8888_avx+0x173>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,243,0,0,0 // lea 0xf3(%rip),%r9 # 11160 <_sk_srcover_bgra_8888_avx+0x290>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 115d8 <_sk_srcover_bgra_8888_avx+0x2bc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,152 // jmp 11016 <_sk_srcover_bgra_8888_avx+0x146>
+ .byte 235,152 // jmp 1148f <_sk_srcover_bgra_8888_avx+0x173>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 196,99,85,12,196,4 // vblendps $0x4,%ymm4,%ymm5,%ymm8
+ .byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
- .byte 196,99,61,13,196,1 // vblendpd $0x1,%ymm4,%ymm8,%ymm8
- .byte 233,81,254,255,255 // jmpq 10ef6 <_sk_srcover_bgra_8888_avx+0x26>
+ .byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
+ .byte 233,36,254,255,255 // jmpq 11342 <_sk_srcover_bgra_8888_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 196,99,85,12,196,64 // vblendps $0x40,%ymm4,%ymm5,%ymm8
- .byte 196,99,125,25,196,1 // vextractf128 $0x1,%ymm8,%xmm4
+ .byte 196,99,85,12,204,64 // vblendps $0x40,%ymm4,%ymm5,%ymm9
+ .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4
.byte 196,131,89,34,100,152,20,1 // vpinsrd $0x1,0x14(%r8,%r11,4),%xmm4,%xmm4
- .byte 196,99,61,24,196,1 // vinsertf128 $0x1,%xmm4,%ymm8,%ymm8
- .byte 196,99,125,25,196,1 // vextractf128 $0x1,%ymm8,%xmm4
+ .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
+ .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4
.byte 196,131,89,34,100,152,16,0 // vpinsrd $0x0,0x10(%r8,%r11,4),%xmm4,%xmm4
- .byte 196,99,61,24,196,1 // vinsertf128 $0x1,%xmm4,%ymm8,%ymm8
+ .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
- .byte 196,67,93,13,192,12 // vblendpd $0xc,%ymm8,%ymm4,%ymm8
- .byte 233,252,253,255,255 // jmpq 10ef6 <_sk_srcover_bgra_8888_avx+0x26>
+ .byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
+ .byte 233,207,253,255,255 // jmpq 11342 <_sk_srcover_bgra_8888_avx+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,9,255,255,255 // jmpq 11016 <_sk_srcover_bgra_8888_avx+0x146>
+ .byte 233,9,255,255,255 // jmpq 1148f <_sk_srcover_bgra_8888_avx+0x173>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
+ .byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 233,213,254,255,255 // jmpq 11016 <_sk_srcover_bgra_8888_avx+0x146>
- .byte 15,31,0 // nopl (%rax)
- .byte 3,255 // add %edi,%edi
+ .byte 233,213,254,255,255 // jmpq 1148f <_sk_srcover_bgra_8888_avx+0x173>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 4,255 // add $0xff,%al
.byte 255 // (bad)
- .byte 255,80,255 // callq *-0x1(%rax)
+ .byte 255,81,255 // callq *-0x1(%rcx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 58,255 // cmp %bh,%bh
+ .byte 59,255 // cmp %edi,%edi
.byte 255 // (bad)
- .byte 255,165,255,255,255,145 // jmpq *-0x6e000001(%rbp)
+ .byte 255,166,255,255,255,146 // jmpq *-0x6d000001(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 11159 <_sk_srcover_bgra_8888_avx+0x289>
+ .byte 126,255 // jle 115d1 <_sk_srcover_bgra_8888_avx+0x2b5>
.byte 255 // (bad)
- .byte 255,97,255 // jmpq *-0x1(%rcx)
+ .byte 255,98,255 // jmpq *-0x1(%rdx)
.byte 255 // (bad)
- .byte 255,22 // callq *(%rsi)
+ .byte 255,23 // callq *(%rdi)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,162,255,255,255,154 // jmpq *-0x65000001(%rdx)
+ .byte 255,163,255,255,255,155 // jmpq *-0x64000001(%rbx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,214 // callq *%rsi
+ .byte 255,215 // callq *%rdi
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,201 // dec %ecx
+ .byte 255,202 // dec %edx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 187,255,255,255,173 // mov $0xadffffff,%ebx
+ .byte 188,255,255,255,174 // mov $0xaeffffff,%esp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -16685,7 +16908,7 @@ HIDDEN _sk_clamp_1_avx
.globl _sk_clamp_1_avx
FUNCTION(_sk_clamp_1_avx)
_sk_clamp_1_avx:
- .byte 196,98,125,24,5,98,134,2,0 // vbroadcastss 0x28662(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,254,139,2,0 // vbroadcastss 0x28bfe(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -16697,7 +16920,7 @@ HIDDEN _sk_clamp_a_avx
.globl _sk_clamp_a_avx
FUNCTION(_sk_clamp_a_avx)
_sk_clamp_a_avx:
- .byte 196,98,125,24,5,65,134,2,0 // vbroadcastss 0x28641(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,221,139,2,0 // vbroadcastss 0x28bdd(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -16709,7 +16932,7 @@ HIDDEN _sk_clamp_a_dst_avx
.globl _sk_clamp_a_dst_avx
FUNCTION(_sk_clamp_a_dst_avx)
_sk_clamp_a_dst_avx:
- .byte 196,98,125,24,5,35,134,2,0 // vbroadcastss 0x28623(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,191,139,2,0 // vbroadcastss 0x28bbf(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -16742,7 +16965,7 @@ HIDDEN _sk_invert_avx
.globl _sk_invert_avx
FUNCTION(_sk_invert_avx)
_sk_invert_avx:
- .byte 196,98,125,24,5,222,133,2,0 // vbroadcastss 0x285de(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,122,139,2,0 // vbroadcastss 0x28b7a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -16796,9 +17019,9 @@ HIDDEN _sk_unpremul_avx
.globl _sk_unpremul_avx
FUNCTION(_sk_unpremul_avx)
_sk_unpremul_avx:
- .byte 196,98,125,24,5,121,133,2,0 // vbroadcastss 0x28579(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,21,139,2,0 // vbroadcastss 0x28b15(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,156,133,2,0 // vbroadcastss 0x2859c(%rip),%ymm9 # 39834 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
+ .byte 196,98,125,24,13,56,139,2,0 // vbroadcastss 0x28b38(%rip),%ymm9 # 3a248 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
.byte 196,65,60,194,201,1 // vcmpltps %ymm9,%ymm8,%ymm9
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
@@ -16812,17 +17035,17 @@ HIDDEN _sk_from_srgb_avx
.globl _sk_from_srgb_avx
FUNCTION(_sk_from_srgb_avx)
_sk_from_srgb_avx:
- .byte 196,98,125,24,5,118,133,2,0 // vbroadcastss 0x28576(%rip),%ymm8 # 39838 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,18,139,2,0 // vbroadcastss 0x28b12(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,80,133,2,0 // vbroadcastss 0x28550(%rip),%ymm11 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,236,138,2,0 // vbroadcastss 0x28aec(%rip),%ymm11 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,124,89,227 // vmulps %ymm11,%ymm0,%ymm12
- .byte 196,98,125,24,45,90,133,2,0 // vbroadcastss 0x2855a(%rip),%ymm13 # 3983c <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,45,246,138,2,0 // vbroadcastss 0x28af6(%rip),%ymm13 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,75,133,2,0 // vbroadcastss 0x2854b(%rip),%ymm12 # 39840 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,37,231,138,2,0 // vbroadcastss 0x28ae7(%rip),%ymm12 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,65,133,2,0 // vbroadcastss 0x28541(%rip),%ymm14 # 39844 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,53,221,138,2,0 // vbroadcastss 0x28add(%rip),%ymm14 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,124,194,198,1 // vcmpltps %ymm14,%ymm0,%ymm0
.byte 196,195,45,74,193,0 // vblendvps %ymm0,%ymm9,%ymm10,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -16848,17 +17071,17 @@ HIDDEN _sk_from_srgb_dst_avx
.globl _sk_from_srgb_dst_avx
FUNCTION(_sk_from_srgb_dst_avx)
_sk_from_srgb_dst_avx:
- .byte 196,98,125,24,5,202,132,2,0 // vbroadcastss 0x284ca(%rip),%ymm8 # 39838 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
+ .byte 196,98,125,24,5,102,138,2,0 // vbroadcastss 0x28a66(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,164,132,2,0 // vbroadcastss 0x284a4(%rip),%ymm11 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,29,64,138,2,0 // vbroadcastss 0x28a40(%rip),%ymm11 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,227 // vmulps %ymm11,%ymm4,%ymm12
- .byte 196,98,125,24,45,174,132,2,0 // vbroadcastss 0x284ae(%rip),%ymm13 # 3983c <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,45,74,138,2,0 // vbroadcastss 0x28a4a(%rip),%ymm13 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,159,132,2,0 // vbroadcastss 0x2849f(%rip),%ymm12 # 39840 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
+ .byte 196,98,125,24,37,59,138,2,0 // vbroadcastss 0x28a3b(%rip),%ymm12 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,149,132,2,0 // vbroadcastss 0x28495(%rip),%ymm14 # 39844 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
+ .byte 196,98,125,24,53,49,138,2,0 // vbroadcastss 0x28a31(%rip),%ymm14 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
.byte 196,193,92,194,230,1 // vcmpltps %ymm14,%ymm4,%ymm4
.byte 196,195,45,74,225,64 // vblendvps %ymm4,%ymm9,%ymm10,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -16885,20 +17108,20 @@ HIDDEN _sk_to_srgb_avx
FUNCTION(_sk_to_srgb_avx)
_sk_to_srgb_avx:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,42,132,2,0 // vbroadcastss 0x2842a(%rip),%ymm8 # 39848 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
+ .byte 196,98,125,24,5,198,137,2,0 // vbroadcastss 0x289c6(%rip),%ymm8 # 3a25c <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,36,132,2,0 // vbroadcastss 0x28424(%rip),%ymm11 # 39850 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
+ .byte 196,98,125,24,29,192,137,2,0 // vbroadcastss 0x289c0(%rip),%ymm11 # 3a264 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
.byte 196,65,52,89,227 // vmulps %ymm11,%ymm9,%ymm12
- .byte 196,98,125,24,45,18,132,2,0 // vbroadcastss 0x28412(%rip),%ymm13 # 3984c <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
+ .byte 196,98,125,24,45,174,137,2,0 // vbroadcastss 0x289ae(%rip),%ymm13 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,52,89,228 // vmulps %ymm12,%ymm9,%ymm12
- .byte 196,98,125,24,53,55,133,2,0 // vbroadcastss 0x28537(%rip),%ymm14 # 39984 <_sk_srcover_bgra_8888_sse2_lowp+0x430>
+ .byte 196,98,125,24,53,211,138,2,0 // vbroadcastss 0x28ad3(%rip),%ymm14 # 3a398 <_sk_srcover_bgra_8888_sse2_lowp+0x430>
.byte 196,65,28,88,230 // vaddps %ymm14,%ymm12,%ymm12
- .byte 196,98,125,24,61,45,133,2,0 // vbroadcastss 0x2852d(%rip),%ymm15 # 39988 <_sk_srcover_bgra_8888_sse2_lowp+0x434>
+ .byte 196,98,125,24,61,201,138,2,0 // vbroadcastss 0x28ac9(%rip),%ymm15 # 3a39c <_sk_srcover_bgra_8888_sse2_lowp+0x434>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
- .byte 196,98,125,24,37,233,131,2,0 // vbroadcastss 0x283e9(%rip),%ymm12 # 3985c <_sk_srcover_bgra_8888_sse2_lowp+0x308>
+ .byte 196,98,125,24,37,133,137,2,0 // vbroadcastss 0x28985(%rip),%ymm12 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
.byte 196,193,124,194,196,1 // vcmpltps %ymm12,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -16935,7 +17158,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,241,130,2,0 // vbroadcastss 0x282f1(%rip),%ymm11 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,29,141,136,2,0 // vbroadcastss 0x2888d(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
@@ -16945,19 +17168,19 @@ _sk_rgb_to_hsl_avx:
.byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
.byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,34,131,2,0 // vbroadcastss 0x28322(%rip),%ymm11 # 39868 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,29,190,136,2,0 // vbroadcastss 0x288be(%rip),%ymm11 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,16,131,2,0 // vbroadcastss 0x28310(%rip),%ymm11 # 39864 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
+ .byte 196,98,125,24,29,172,136,2,0 // vbroadcastss 0x288ac(%rip),%ymm11 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,227,117,74,202,224 // vblendvps %ymm14,%ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,248,130,2,0 // vbroadcastss 0x282f8(%rip),%ymm2 # 39860 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,226,125,24,21,148,136,2,0 // vbroadcastss 0x28894(%rip),%ymm2 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
.byte 196,227,13,74,210,208 // vblendvps %ymm13,%ymm2,%ymm14,%ymm2
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
.byte 196,227,117,74,194,0 // vblendvps %ymm0,%ymm2,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,37,111,130,2,0 // vbroadcastss 0x2826f(%rip),%ymm12 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,37,11,136,2,0 // vbroadcastss 0x2880b(%rip),%ymm12 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2
.byte 197,28,194,226,1 // vcmpltps %ymm2,%ymm12,%ymm12
.byte 196,65,36,92,216 // vsubps %ymm8,%ymm11,%ymm11
@@ -16967,7 +17190,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,198,128 // vblendvps %ymm8,%ymm14,%ymm0,%ymm0
.byte 196,195,117,74,206,128 // vblendvps %ymm8,%ymm14,%ymm1,%ymm1
- .byte 196,98,125,24,5,162,130,2,0 // vbroadcastss 0x282a2(%rip),%ymm8 # 3986c <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,5,62,136,2,0 // vbroadcastss 0x2883e(%rip),%ymm8 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -16984,7 +17207,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 196,98,125,24,5,251,129,2,0 // vbroadcastss 0x281fb(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,151,135,2,0 // vbroadcastss 0x28797(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,92,89,210 // vmulps %ymm2,%ymm4,%ymm10
.byte 196,65,92,92,218 // vsubps %ymm10,%ymm4,%ymm11
@@ -16992,23 +17215,23 @@ _sk_hsl_to_rgb_avx:
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
.byte 197,108,88,202 // vaddps %ymm2,%ymm2,%ymm9
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,65,130,2,0 // vbroadcastss 0x28241(%rip),%ymm11 # 39870 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
+ .byte 196,98,125,24,29,221,135,2,0 // vbroadcastss 0x287dd(%rip),%ymm11 # 3a284 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
.byte 196,65,100,88,219 // vaddps %ymm11,%ymm3,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,37,19,130,2,0 // vbroadcastss 0x28213(%rip),%ymm12 # 39860 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
+ .byte 196,98,125,24,37,175,135,2,0 // vbroadcastss 0x287af(%rip),%ymm12 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
.byte 196,193,4,89,196 // vmulps %ymm12,%ymm15,%ymm0
- .byte 196,98,125,24,45,13,130,2,0 // vbroadcastss 0x2820d(%rip),%ymm13 # 39868 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
+ .byte 196,98,125,24,45,169,135,2,0 // vbroadcastss 0x287a9(%rip),%ymm13 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
.byte 197,20,92,240 // vsubps %ymm0,%ymm13,%ymm14
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14
- .byte 196,226,125,24,13,2,130,2,0 // vbroadcastss 0x28202(%rip),%ymm1 # 39874 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
+ .byte 196,226,125,24,13,158,135,2,0 // vbroadcastss 0x2879e(%rip),%ymm1 # 3a288 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
.byte 196,193,116,194,255,2 // vcmpleps %ymm15,%ymm1,%ymm7
.byte 196,195,13,74,249,112 // vblendvps %ymm7,%ymm9,%ymm14,%ymm7
.byte 196,65,60,194,247,2 // vcmpleps %ymm15,%ymm8,%ymm14
.byte 196,227,45,74,255,224 // vblendvps %ymm14,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,53,217,129,2,0 // vbroadcastss 0x281d9(%rip),%ymm14 # 3986c <_sk_srcover_bgra_8888_sse2_lowp+0x318>
+ .byte 196,98,125,24,53,117,135,2,0 // vbroadcastss 0x28775(%rip),%ymm14 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
.byte 196,65,12,194,255,2 // vcmpleps %ymm15,%ymm14,%ymm15
.byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -17027,7 +17250,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,164,89,247 // vmulps %ymm7,%ymm11,%ymm6
.byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6
.byte 196,227,77,74,237,0 // vblendvps %ymm0,%ymm5,%ymm6,%ymm5
- .byte 196,226,125,24,5,131,129,2,0 // vbroadcastss 0x28183(%rip),%ymm0 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,226,125,24,5,31,135,2,0 // vbroadcastss 0x2871f(%rip),%ymm0 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 197,228,88,192 // vaddps %ymm0,%ymm3,%ymm0
.byte 196,227,125,8,216,1 // vroundps $0x1,%ymm0,%ymm3
.byte 197,252,92,195 // vsubps %ymm3,%ymm0,%ymm0
@@ -17081,15 +17304,15 @@ _sk_scale_u8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,75 // jne 117fb <_sk_scale_u8_avx+0x63>
+ .byte 117,75 // jne 11c73 <_sk_scale_u8_avx+0x63>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,18,137,2,0 // vpand 0x28912(%rip),%xmm8,%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,57,219,5,186,142,2,0 // vpand 0x28eba(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,154,128,2,0 // vbroadcastss 0x2809a(%rip),%ymm9 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,54,134,2,0 // vbroadcastss 0x28636(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -17102,15 +17325,15 @@ _sk_scale_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,166 // ja 117b6 <_sk_scale_u8_avx+0x1e>
+ .byte 119,166 // ja 11c2e <_sk_scale_u8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 11894 <_sk_scale_u8_avx+0xfc>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 11d0c <_sk_scale_u8_avx+0xfc>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,135 // jmp 117b6 <_sk_scale_u8_avx+0x1e>
+ .byte 235,135 // jmp 11c2e <_sk_scale_u8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -17118,7 +17341,7 @@ _sk_scale_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,94,255,255,255 // jmpq 117b6 <_sk_scale_u8_avx+0x1e>
+ .byte 233,94,255,255,255 // jmpq 11c2e <_sk_scale_u8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -17129,7 +17352,7 @@ _sk_scale_u8_avx:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,34,255,255,255 // jmpq 117b6 <_sk_scale_u8_avx+0x1e>
+ .byte 233,34,255,255,255 // jmpq 11c2e <_sk_scale_u8_avx+0x1e>
.byte 144 // nop
.byte 255 // (bad)
.byte 255 // (bad)
@@ -17163,26 +17386,26 @@ _sk_scale_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,178,0,0,0 // jne 11981 <_sk_scale_565_avx+0xd1>
+ .byte 15,133,178,0,0,0 // jne 11df9 <_sk_scale_565_avx+0xd1>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,140,127,2,0 // vbroadcastss 0x27f8c(%rip),%ymm9 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,24,13,40,133,2,0 // vbroadcastss 0x28528(%rip),%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,125,127,2,0 // vbroadcastss 0x27f7d(%rip),%ymm10 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,25,133,2,0 // vbroadcastss 0x28519(%rip),%ymm10 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,115,127,2,0 // vbroadcastss 0x27f73(%rip),%ymm10 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,24,21,15,133,2,0 // vbroadcastss 0x2850f(%rip),%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,100,127,2,0 // vbroadcastss 0x27f64(%rip),%ymm11 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,0,133,2,0 // vbroadcastss 0x28500(%rip),%ymm11 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,90,127,2,0 // vbroadcastss 0x27f5a(%rip),%ymm11 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,24,29,246,132,2,0 // vbroadcastss 0x284f6(%rip),%ymm11 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,75,127,2,0 // vbroadcastss 0x27f4b(%rip),%ymm11 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,231,132,2,0 // vbroadcastss 0x284e7(%rip),%ymm11 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -17201,27 +17424,27 @@ _sk_scale_565_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,59,255,255,255 // ja 118d5 <_sk_scale_565_avx+0x25>
+ .byte 15,135,59,255,255,255 // ja 11d4d <_sk_scale_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 11a08 <_sk_scale_565_avx+0x158>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 11e80 <_sk_scale_565_avx+0x158>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,25,255,255,255 // jmpq 118d5 <_sk_scale_565_avx+0x25>
+ .byte 233,25,255,255,255 // jmpq 11d4d <_sk_scale_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,251,254,255,255 // jmpq 118d5 <_sk_scale_565_avx+0x25>
+ .byte 233,251,254,255,255 // jmpq 11d4d <_sk_scale_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,205,254,255,255 // jmpq 118d5 <_sk_scale_565_avx+0x25>
+ .byte 233,205,254,255,255 // jmpq 11d4d <_sk_scale_565_avx+0x25>
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -17273,15 +17496,15 @@ _sk_lerp_u8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 11aea <_sk_lerp_u8_avx+0x87>
+ .byte 117,111 // jne 11f62 <_sk_lerp_u8_avx+0x87>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,71,134,2,0 // vpand 0x28647(%rip),%xmm8,%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,57,219,5,239,139,2,0 // vpand 0x28bef(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,207,125,2,0 // vbroadcastss 0x27dcf(%rip),%ymm9 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,107,131,2,0 // vbroadcastss 0x2836b(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
@@ -17302,15 +17525,15 @@ _sk_lerp_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,130 // ja 11a81 <_sk_lerp_u8_avx+0x1e>
+ .byte 119,130 // ja 11ef9 <_sk_lerp_u8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 11b88 <_sk_lerp_u8_avx+0x125>
+ .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 12000 <_sk_lerp_u8_avx+0x125>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,96,255,255,255 // jmpq 11a81 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,96,255,255,255 // jmpq 11ef9 <_sk_lerp_u8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -17318,7 +17541,7 @@ _sk_lerp_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,55,255,255,255 // jmpq 11a81 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,55,255,255,255 // jmpq 11ef9 <_sk_lerp_u8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -17329,7 +17552,7 @@ _sk_lerp_u8_avx:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,251,254,255,255 // jmpq 11a81 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,251,254,255,255 // jmpq 11ef9 <_sk_lerp_u8_avx+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 139,255 // mov %edi,%edi
.byte 255 // (bad)
@@ -17337,7 +17560,7 @@ _sk_lerp_u8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde011b98 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd8644>
+ .byte 232,255,255,255,221 // callq ffffffffde012010 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd80a8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -17360,26 +17583,26 @@ _sk_lerp_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,214,0,0,0 // jne 11c99 <_sk_lerp_565_avx+0xf5>
+ .byte 15,133,214,0,0,0 // jne 12111 <_sk_lerp_565_avx+0xf5>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,152,124,2,0 // vbroadcastss 0x27c98(%rip),%ymm9 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,98,125,24,13,52,130,2,0 // vbroadcastss 0x28234(%rip),%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,137,124,2,0 // vbroadcastss 0x27c89(%rip),%ymm10 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,98,125,24,21,37,130,2,0 // vbroadcastss 0x28225(%rip),%ymm10 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,127,124,2,0 // vbroadcastss 0x27c7f(%rip),%ymm10 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,98,125,24,21,27,130,2,0 // vbroadcastss 0x2821b(%rip),%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,112,124,2,0 // vbroadcastss 0x27c70(%rip),%ymm11 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,98,125,24,29,12,130,2,0 // vbroadcastss 0x2820c(%rip),%ymm11 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,102,124,2,0 // vbroadcastss 0x27c66(%rip),%ymm11 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,98,125,24,29,2,130,2,0 // vbroadcastss 0x28202(%rip),%ymm11 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,87,124,2,0 // vbroadcastss 0x27c57(%rip),%ymm11 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,98,125,24,29,243,129,2,0 // vbroadcastss 0x281f3(%rip),%ymm11 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -17406,27 +17629,27 @@ _sk_lerp_565_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,23,255,255,255 // ja 11bc9 <_sk_lerp_565_avx+0x25>
+ .byte 15,135,23,255,255,255 // ja 12041 <_sk_lerp_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 11d20 <_sk_lerp_565_avx+0x17c>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 12198 <_sk_lerp_565_avx+0x17c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,245,254,255,255 // jmpq 11bc9 <_sk_lerp_565_avx+0x25>
+ .byte 233,245,254,255,255 // jmpq 12041 <_sk_lerp_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,215,254,255,255 // jmpq 11bc9 <_sk_lerp_565_avx+0x25>
+ .byte 233,215,254,255,255 // jmpq 12041 <_sk_lerp_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,169,254,255,255 // jmpq 11bc9 <_sk_lerp_565_avx+0x25>
+ .byte 233,169,254,255,255 // jmpq 12041 <_sk_lerp_565_avx+0x25>
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -17454,9 +17677,9 @@ _sk_load_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,4,2,0,0 // jne 11f54 <_sk_load_tables_avx+0x218>
+ .byte 15,133,4,2,0,0 // jne 123cc <_sk_load_tables_avx+0x218>
.byte 196,65,125,16,20,144 // vmovupd (%r8,%rdx,4),%ymm10
- .byte 197,125,40,13,34,128,2,0 // vmovapd 0x28022(%rip),%ymm9 # 39d80 <_sk_srcover_bgra_8888_sse2_lowp+0x82c>
+ .byte 197,125,40,13,202,133,2,0 // vmovapd 0x285ca(%rip),%ymm9 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x838>
.byte 196,193,45,84,201 // vandpd %ymm9,%ymm10,%ymm1
.byte 196,227,125,25,200,1 // vextractf128 $0x1,%ymm1,%xmm0
.byte 196,193,249,126,192 // vmovq %xmm0,%r8
@@ -17548,7 +17771,7 @@ _sk_load_tables_avx:
.byte 196,193,65,114,213,24 // vpsrld $0x18,%xmm13,%xmm7
.byte 196,227,101,24,223,1 // vinsertf128 $0x1,%xmm7,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,61,54,121,2,0 // vbroadcastss 0x27936(%rip),%ymm7 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,61,210,126,2,0 // vbroadcastss 0x27ed2(%rip),%ymm7 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
@@ -17558,21 +17781,21 @@ _sk_load_tables_avx:
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,233,253,255,255 // ja 11d56 <_sk_load_tables_avx+0x1a>
+ .byte 15,135,233,253,255,255 // ja 121ce <_sk_load_tables_avx+0x1a>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 1200c <_sk_load_tables_avx+0x2d0>
+ .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 12484 <_sk_load_tables_avx+0x2d0>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,65,122,16,20,144 // vmovss (%r8,%rdx,4),%xmm10
- .byte 233,201,253,255,255 // jmpq 11d56 <_sk_load_tables_avx+0x1a>
+ .byte 233,201,253,255,255 // jmpq 121ce <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,208,4 // vblendps $0x4,%ymm0,%ymm1,%ymm10
.byte 196,193,123,16,4,144 // vmovsd (%r8,%rdx,4),%xmm0
.byte 196,99,45,13,208,1 // vblendpd $0x1,%ymm0,%ymm10,%ymm10
- .byte 233,162,253,255,255 // jmpq 11d56 <_sk_load_tables_avx+0x1a>
+ .byte 233,162,253,255,255 // jmpq 121ce <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -17586,9 +17809,9 @@ _sk_load_tables_avx:
.byte 196,99,45,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm10,%ymm10
.byte 196,193,121,16,4,144 // vmovupd (%r8,%rdx,4),%xmm0
.byte 196,67,125,13,210,12 // vblendpd $0xc,%ymm10,%ymm0,%ymm10
- .byte 233,77,253,255,255 // jmpq 11d56 <_sk_load_tables_avx+0x1a>
+ .byte 233,77,253,255,255 // jmpq 121ce <_sk_load_tables_avx+0x1a>
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 1200d <_sk_load_tables_avx+0x2d1>
+ .byte 118,255 // jbe 12485 <_sk_load_tables_avx+0x2d1>
.byte 255 // (bad)
.byte 255,151,255,255,255,129 // callq *-0x7e000001(%rdi)
.byte 255 // (bad)
@@ -17618,7 +17841,7 @@ _sk_load_tables_u16_be_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
.byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,75,2,0,0 // jne 12295 <_sk_load_tables_u16_be_avx+0x26d>
+ .byte 15,133,75,2,0,0 // jne 1270d <_sk_load_tables_u16_be_avx+0x26d>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -17634,7 +17857,7 @@ _sk_load_tables_u16_be_avx:
.byte 197,177,108,208 // vpunpcklqdq %xmm0,%xmm9,%xmm2
.byte 197,49,109,232 // vpunpckhqdq %xmm0,%xmm9,%xmm13
.byte 196,65,57,108,212 // vpunpcklqdq %xmm12,%xmm8,%xmm10
- .byte 197,121,111,29,52,128,2,0 // vmovdqa 0x28034(%rip),%xmm11 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,121,111,29,220,133,2,0 // vmovdqa 0x285dc(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,193,105,219,195 // vpand %xmm11,%xmm2,%xmm0
.byte 197,249,112,208,78 // vpshufd $0x4e,%xmm0,%xmm2
.byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
@@ -17728,7 +17951,7 @@ _sk_load_tables_u16_be_avx:
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
.byte 196,227,77,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm6,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,53,23,118,2,0 // vbroadcastss 0x27617(%rip),%ymm6 # 39898 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,226,125,24,53,179,123,2,0 // vbroadcastss 0x27bb3(%rip),%ymm6 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 197,228,89,222 // vmulps %ymm6,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
@@ -17737,29 +17960,29 @@ _sk_load_tables_u16_be_avx:
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 122fb <_sk_load_tables_u16_be_avx+0x2d3>
+ .byte 116,85 // je 12773 <_sk_load_tables_u16_be_avx+0x2d3>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 122fb <_sk_load_tables_u16_be_avx+0x2d3>
+ .byte 114,72 // jb 12773 <_sk_load_tables_u16_be_avx+0x2d3>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 12308 <_sk_load_tables_u16_be_avx+0x2e0>
+ .byte 116,72 // je 12780 <_sk_load_tables_u16_be_avx+0x2e0>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 12308 <_sk_load_tables_u16_be_avx+0x2e0>
+ .byte 114,59 // jb 12780 <_sk_load_tables_u16_be_avx+0x2e0>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,135,253,255,255 // je 12065 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 15,132,135,253,255,255 // je 124dd <_sk_load_tables_u16_be_avx+0x3d>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,118,253,255,255 // jb 12065 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 15,130,118,253,255,255 // jb 124dd <_sk_load_tables_u16_be_avx+0x3d>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,106,253,255,255 // jmpq 12065 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,106,253,255,255 // jmpq 124dd <_sk_load_tables_u16_be_avx+0x3d>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,93,253,255,255 // jmpq 12065 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,93,253,255,255 // jmpq 124dd <_sk_load_tables_u16_be_avx+0x3d>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,84,253,255,255 // jmpq 12065 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,84,253,255,255 // jmpq 124dd <_sk_load_tables_u16_be_avx+0x3d>
HIDDEN _sk_load_tables_rgb_u16_be_avx
.globl _sk_load_tables_rgb_u16_be_avx
@@ -17771,7 +17994,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
.byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,54,2,0,0 // jne 12565 <_sk_load_tables_rgb_u16_be_avx+0x254>
+ .byte 15,133,54,2,0,0 // jne 129dd <_sk_load_tables_rgb_u16_be_avx+0x254>
.byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
.byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
.byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
@@ -17792,7 +18015,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 197,105,108,216 // vpunpcklqdq %xmm0,%xmm2,%xmm11
.byte 197,241,108,211 // vpunpcklqdq %xmm3,%xmm1,%xmm2
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,121,111,53,52,125,2,0 // vmovdqa 0x27d34(%rip),%xmm14 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,121,111,53,220,130,2,0 // vmovdqa 0x282dc(%rip),%xmm14 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,193,105,219,214 // vpand %xmm14,%xmm2,%xmm2
.byte 197,249,112,218,78 // vpshufd $0x4e,%xmm2,%xmm3
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
@@ -17878,7 +18101,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,173,114,2,0 // vbroadcastss 0x272ad(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,73,120,2,0 // vbroadcastss 0x27849(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
.byte 255,224 // jmpq *%rax
@@ -17886,220 +18109,238 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 1259d <_sk_load_tables_rgb_u16_be_avx+0x28c>
+ .byte 117,31 // jne 12a15 <_sk_load_tables_rgb_u16_be_avx+0x28c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,199,253,255,255 // jmpq 12364 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,199,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 125e7 <_sk_load_tables_rgb_u16_be_avx+0x2d6>
+ .byte 114,48 // jb 12a5f <_sk_load_tables_rgb_u16_be_avx+0x2d6>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 12601 <_sk_load_tables_rgb_u16_be_avx+0x2f0>
+ .byte 117,48 // jne 12a79 <_sk_load_tables_rgb_u16_be_avx+0x2f0>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,125,253,255,255 // jmpq 12364 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,125,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,99,253,255,255 // jmpq 12364 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,99,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 12642 <_sk_load_tables_rgb_u16_be_avx+0x331>
+ .byte 114,39 // jb 12aba <_sk_load_tables_rgb_u16_be_avx+0x331>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 12653 <_sk_load_tables_rgb_u16_be_avx+0x342>
+ .byte 117,30 // jne 12acb <_sk_load_tables_rgb_u16_be_avx+0x342>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,34,253,255,255 // jmpq 12364 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,34,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,17,253,255,255 // jmpq 12364 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,17,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 12686 <_sk_load_tables_rgb_u16_be_avx+0x375>
+ .byte 114,25 // jb 12afe <_sk_load_tables_rgb_u16_be_avx+0x375>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,222,252,255,255 // jmpq 12364 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,222,252,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,213,252,255,255 // jmpq 12364 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,213,252,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53>
HIDDEN _sk_byte_tables_avx
.globl _sk_byte_tables_avx
FUNCTION(_sk_byte_tables_avx)
_sk_byte_tables_avx:
+ .byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
+ .byte 197,252,40,254 // vmovaps %ymm6,%ymm7
+ .byte 197,252,40,245 // vmovaps %ymm5,%ymm6
+ .byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,150,113,2,0 // vbroadcastss 0x27196(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
- .byte 196,65,249,126,200 // vmovq %xmm9,%r8
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
+ .byte 196,98,125,24,5,235,118,2,0 // vbroadcastss 0x276eb(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
+ .byte 196,98,125,24,21,9,119,2,0 // vbroadcastss 0x27709(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
+ .byte 197,125,91,216 // vcvtps2dq %ymm0,%ymm11
+ .byte 196,65,249,126,216 // vmovq %xmm11,%r8
.byte 69,137,193 // mov %r8d,%r9d
.byte 76,139,16 // mov (%rax),%r10
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
.byte 196,193,121,110,193 // vmovd %r9d,%xmm0
- .byte 196,67,249,22,201,1 // vpextrq $0x1,%xmm9,%r9
+ .byte 196,67,249,22,217,1 // vpextrq $0x1,%xmm11,%r9
.byte 73,193,232,32 // shr $0x20,%r8
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,121,32,208,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm10
+ .byte 196,67,121,32,224,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm12
.byte 69,137,200 // mov %r9d,%r8d
.byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,99,125,25,200,1 // vextractf128 $0x1,%ymm9,%xmm0
+ .byte 196,99,125,25,216,1 // vextractf128 $0x1,%ymm11,%xmm0
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,41,32,200,2 // vpinsrb $0x2,%r8d,%xmm10,%xmm9
+ .byte 196,67,25,32,216,2 // vpinsrb $0x2,%r8d,%xmm12,%xmm11
.byte 196,193,249,126,192 // vmovq %xmm0,%r8
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,49,32,201,3 // vpinsrb $0x3,%r9d,%xmm9,%xmm9
+ .byte 196,67,33,32,217,3 // vpinsrb $0x3,%r9d,%xmm11,%xmm11
.byte 69,137,193 // mov %r8d,%r9d
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,65,121,110,209 // vmovd %r9d,%xmm10
+ .byte 196,65,121,110,225 // vmovd %r9d,%xmm12
.byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9
.byte 73,193,232,32 // shr $0x20,%r8
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,195,41,32,192,1 // vpinsrb $0x1,%r8d,%xmm10,%xmm0
+ .byte 196,195,25,32,192,1 // vpinsrb $0x1,%r8d,%xmm12,%xmm0
.byte 69,137,200 // mov %r9d,%r8d
.byte 73,193,233,32 // shr $0x20,%r9
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
.byte 196,195,121,32,192,2 // vpinsrb $0x2,%r8d,%xmm0,%xmm0
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,121,32,209,3 // vpinsrb $0x3,%r9d,%xmm0,%xmm10
- .byte 196,193,116,89,192 // vmulps %ymm8,%ymm1,%ymm0
- .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
+ .byte 196,67,121,32,233,3 // vpinsrb $0x3,%r9d,%xmm0,%xmm13
+ .byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1
+ .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
+ .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
+ .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
+ .byte 196,193,249,126,201 // vmovq %xmm1,%r9
.byte 69,137,202 // mov %r9d,%r10d
.byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,193,121,110,202 // vmovd %r10d,%xmm1
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
+ .byte 196,193,121,110,194 // vmovd %r10d,%xmm0
+ .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
.byte 73,193,233,32 // shr $0x20,%r9
.byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,113,32,201,1 // vpinsrb $0x1,%r9d,%xmm1,%xmm1
+ .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0
.byte 69,137,209 // mov %r10d,%r9d
.byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,25,192,1 // vextractf128 $0x1,%ymm0,%xmm0
+ .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1
.byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,113,32,201,2 // vpinsrb $0x2,%r9d,%xmm1,%xmm1
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
+ .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
+ .byte 196,193,249,126,201 // vmovq %xmm1,%r9
.byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,67,113,32,226,3 // vpinsrb $0x3,%r10d,%xmm1,%xmm12
+ .byte 196,67,121,32,226,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm12
.byte 69,137,202 // mov %r9d,%r10d
.byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,193,121,110,202 // vmovd %r10d,%xmm1
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
+ .byte 196,193,121,110,194 // vmovd %r10d,%xmm0
+ .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
.byte 73,193,233,32 // shr $0x20,%r9
.byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,113,32,193,1 // vpinsrb $0x1,%r9d,%xmm1,%xmm0
+ .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0
.byte 69,137,209 // mov %r10d,%r9d
.byte 73,193,234,32 // shr $0x20,%r10
.byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
.byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
.byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
- .byte 196,67,121,32,232,3 // vpinsrb $0x3,%r8d,%xmm0,%xmm13
+ .byte 196,67,121,32,240,3 // vpinsrb $0x3,%r8d,%xmm0,%xmm14
.byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 196,193,108,89,200 // vmulps %ymm8,%ymm2,%ymm1
- .byte 197,253,91,209 // vcvtps2dq %ymm1,%ymm2
+ .byte 197,180,95,194 // vmaxps %ymm2,%ymm9,%ymm0
+ .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
+ .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
+ .byte 197,253,91,208 // vcvtps2dq %ymm0,%ymm2
.byte 196,193,249,126,209 // vmovq %xmm2,%r9
.byte 69,137,202 // mov %r9d,%r10d
.byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,193,121,110,202 // vmovd %r10d,%xmm1
+ .byte 196,193,121,110,194 // vmovd %r10d,%xmm0
.byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
.byte 73,193,233,32 // shr $0x20,%r9
.byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,113,32,201,1 // vpinsrb $0x1,%r9d,%xmm1,%xmm1
+ .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0
.byte 69,137,209 // mov %r10d,%r9d
.byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,25,210,1 // vextractf128 $0x1,%ymm2,%xmm2
+ .byte 196,227,125,25,209,1 // vextractf128 $0x1,%ymm2,%xmm1
.byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,113,32,201,2 // vpinsrb $0x2,%r9d,%xmm1,%xmm1
- .byte 196,193,249,126,209 // vmovq %xmm2,%r9
+ .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
+ .byte 196,193,249,126,201 // vmovq %xmm1,%r9
.byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,67,113,32,218,3 // vpinsrb $0x3,%r10d,%xmm1,%xmm11
+ .byte 196,67,121,32,250,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm15
.byte 69,137,202 // mov %r9d,%r10d
.byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,193,121,110,202 // vmovd %r10d,%xmm1
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
+ .byte 196,193,121,110,194 // vmovd %r10d,%xmm0
+ .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
.byte 73,193,233,32 // shr $0x20,%r9
.byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,113,32,201,1 // vpinsrb $0x1,%r9d,%xmm1,%xmm1
+ .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0
.byte 69,137,209 // mov %r10d,%r9d
.byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,113,32,201,2 // vpinsrb $0x2,%r9d,%xmm1,%xmm1
+ .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
+ .byte 197,180,95,203 // vmaxps %ymm3,%ymm9,%ymm1
.byte 73,193,234,32 // shr $0x20,%r10
.byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
- .byte 196,67,113,32,240,3 // vpinsrb $0x3,%r8d,%xmm1,%xmm14
+ .byte 196,195,121,32,224,3 // vpinsrb $0x3,%r8d,%xmm0,%xmm4
.byte 76,139,72,24 // mov 0x18(%rax),%r9
- .byte 196,193,100,89,200 // vmulps %ymm8,%ymm3,%ymm1
- .byte 197,253,91,217 // vcvtps2dq %ymm1,%ymm3
- .byte 196,193,249,126,216 // vmovq %xmm3,%r8
+ .byte 196,193,116,93,192 // vminps %ymm8,%ymm1,%ymm0
+ .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
+ .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
+ .byte 196,193,249,126,192 // vmovq %xmm0,%r8
.byte 68,137,192 // mov %r8d,%eax
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,195,249,22,218,1 // vpextrq $0x1,%xmm3,%r10
+ .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
.byte 73,193,232,32 // shr $0x20,%r8
.byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
.byte 196,227,113,32,200,1 // vpinsrb $0x1,%eax,%xmm1,%xmm1
.byte 68,137,208 // mov %r10d,%eax
.byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,25,219,1 // vextractf128 $0x1,%ymm3,%xmm3
+ .byte 196,227,125,25,192,1 // vextractf128 $0x1,%ymm0,%xmm0
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
.byte 196,227,113,32,200,2 // vpinsrb $0x2,%eax,%xmm1,%xmm1
- .byte 196,193,249,126,216 // vmovq %xmm3,%r8
+ .byte 196,193,249,126,192 // vmovq %xmm0,%r8
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,99,113,32,192,3 // vpinsrb $0x3,%eax,%xmm1,%xmm8
.byte 68,137,192 // mov %r8d,%eax
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,195,249,22,218,1 // vpextrq $0x1,%xmm3,%r10
+ .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
.byte 73,193,232,32 // shr $0x20,%r8
.byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,113,32,200,1 // vpinsrb $0x1,%eax,%xmm1,%xmm1
+ .byte 196,227,113,32,192,1 // vpinsrb $0x1,%eax,%xmm1,%xmm0
.byte 68,137,208 // mov %r10d,%eax
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,99,113,32,248,2 // vpinsrb $0x2,%eax,%xmm1,%xmm15
+ .byte 196,227,121,32,216,2 // vpinsrb $0x2,%eax,%xmm0,%xmm3
.byte 73,193,234,32 // shr $0x20,%r10
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,194,121,49,201 // vpmovzxbd %xmm9,%xmm1
- .byte 196,194,121,49,194 // vpmovzxbd %xmm10,%xmm0
- .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
+ .byte 196,194,121,49,195 // vpmovzxbd %xmm11,%xmm0
+ .byte 196,194,121,49,205 // vpmovzxbd %xmm13,%xmm1
+ .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,98,125,24,13,186,116,2,0 // vbroadcastss 0x274ba(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1
- .byte 196,194,121,49,213 // vpmovzxbd %xmm13,%xmm2
+ .byte 196,194,121,49,214 // vpmovzxbd %xmm14,%xmm2
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 196,98,125,24,13,82,111,2,0 // vbroadcastss 0x26f52(%rip),%ymm9 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 196,194,121,49,211 // vpmovzxbd %xmm11,%xmm2
- .byte 196,194,121,49,222 // vpmovzxbd %xmm14,%xmm3
- .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
+ .byte 196,194,121,49,215 // vpmovzxbd %xmm15,%xmm2
+ .byte 196,226,121,49,228 // vpmovzxbd %xmm4,%xmm4
+ .byte 196,227,109,24,212,1 // vinsertf128 $0x1,%xmm4,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
- .byte 196,66,121,49,192 // vpmovzxbd %xmm8,%xmm8
- .byte 196,227,1,32,216,3 // vpinsrb $0x3,%eax,%xmm15,%xmm3
+ .byte 196,194,121,49,224 // vpmovzxbd %xmm8,%xmm4
+ .byte 196,227,97,32,216,3 // vpinsrb $0x3,%eax,%xmm3,%xmm3
.byte 196,226,121,49,219 // vpmovzxbd %xmm3,%xmm3
- .byte 196,227,61,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm3
+ .byte 196,227,93,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm4,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
.byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,40,229 // vmovaps %ymm5,%ymm4
+ .byte 197,252,40,238 // vmovaps %ymm6,%ymm5
+ .byte 197,252,40,247 // vmovaps %ymm7,%ymm6
+ .byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
.byte 255,224 // jmpq *%rax
HIDDEN _sk_byte_tables_rgb_avx
@@ -18113,39 +18354,45 @@ _sk_byte_tables_rgb_avx:
.byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
.byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
- .byte 196,65,249,126,200 // vmovq %xmm9,%r8
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
+ .byte 196,98,125,24,21,165,115,2,0 // vbroadcastss 0x273a5(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,193,124,93,194 // vminps %ymm10,%ymm0,%ymm0
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
+ .byte 197,125,91,216 // vcvtps2dq %ymm0,%ymm11
+ .byte 196,65,249,126,216 // vmovq %xmm11,%r8
.byte 69,137,193 // mov %r8d,%r9d
.byte 76,139,16 // mov (%rax),%r10
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
.byte 196,193,121,110,193 // vmovd %r9d,%xmm0
- .byte 196,67,249,22,201,1 // vpextrq $0x1,%xmm9,%r9
+ .byte 196,67,249,22,217,1 // vpextrq $0x1,%xmm11,%r9
.byte 73,193,232,32 // shr $0x20,%r8
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,121,32,208,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm10
+ .byte 196,67,121,32,224,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm12
.byte 69,137,200 // mov %r9d,%r8d
.byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,99,125,25,200,1 // vextractf128 $0x1,%ymm9,%xmm0
+ .byte 196,99,125,25,216,1 // vextractf128 $0x1,%ymm11,%xmm0
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,41,32,200,2 // vpinsrb $0x2,%r8d,%xmm10,%xmm9
+ .byte 196,67,25,32,216,2 // vpinsrb $0x2,%r8d,%xmm12,%xmm11
.byte 196,193,249,126,192 // vmovq %xmm0,%r8
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,49,32,201,3 // vpinsrb $0x3,%r9d,%xmm9,%xmm9
+ .byte 196,67,33,32,217,3 // vpinsrb $0x3,%r9d,%xmm11,%xmm11
.byte 69,137,193 // mov %r8d,%r9d
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,65,121,110,209 // vmovd %r9d,%xmm10
+ .byte 196,65,121,110,225 // vmovd %r9d,%xmm12
.byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9
.byte 73,193,232,32 // shr $0x20,%r8
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,195,41,32,192,1 // vpinsrb $0x1,%r8d,%xmm10,%xmm0
+ .byte 196,195,25,32,192,1 // vpinsrb $0x1,%r8d,%xmm12,%xmm0
.byte 69,137,200 // mov %r9d,%r8d
.byte 73,193,233,32 // shr $0x20,%r9
.byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
.byte 196,195,121,32,192,2 // vpinsrb $0x2,%r8d,%xmm0,%xmm0
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,121,32,217,3 // vpinsrb $0x3,%r9d,%xmm0,%xmm11
+ .byte 196,67,121,32,233,3 // vpinsrb $0x3,%r9d,%xmm0,%xmm13
+ .byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1
+ .byte 196,193,116,93,202 // vminps %ymm10,%ymm1,%ymm1
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,193,249,126,201 // vmovq %xmm1,%r9
@@ -18163,7 +18410,7 @@ _sk_byte_tables_rgb_avx:
.byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
.byte 196,193,249,126,201 // vmovq %xmm1,%r9
.byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,67,121,32,210,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm10
+ .byte 196,67,121,32,226,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm12
.byte 69,137,202 // mov %r9d,%r10d
.byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
.byte 196,193,121,110,194 // vmovd %r10d,%xmm0
@@ -18176,9 +18423,11 @@ _sk_byte_tables_rgb_avx:
.byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
.byte 73,193,234,32 // shr $0x20,%r10
.byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
- .byte 196,67,121,32,224,3 // vpinsrb $0x3,%r8d,%xmm0,%xmm12
+ .byte 196,67,121,32,240,3 // vpinsrb $0x3,%r8d,%xmm0,%xmm14
.byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 197,188,89,194 // vmulps %ymm2,%ymm8,%ymm0
+ .byte 197,180,95,194 // vmaxps %ymm2,%ymm9,%ymm0
+ .byte 196,193,124,93,194 // vminps %ymm10,%ymm0,%ymm0
+ .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,253,91,208 // vcvtps2dq %ymm0,%ymm2
.byte 196,193,249,126,208 // vmovq %xmm2,%r8
.byte 68,137,192 // mov %r8d,%eax
@@ -18205,22 +18454,22 @@ _sk_byte_tables_rgb_avx:
.byte 196,227,121,32,192,1 // vpinsrb $0x1,%eax,%xmm0,%xmm0
.byte 68,137,208 // mov %r10d,%eax
.byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,99,121,32,232,2 // vpinsrb $0x2,%eax,%xmm0,%xmm13
+ .byte 196,99,121,32,208,2 // vpinsrb $0x2,%eax,%xmm0,%xmm10
.byte 73,193,234,32 // shr $0x20,%r10
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,194,121,49,193 // vpmovzxbd %xmm9,%xmm0
- .byte 196,194,121,49,203 // vpmovzxbd %xmm11,%xmm1
+ .byte 196,194,121,49,195 // vpmovzxbd %xmm11,%xmm0
+ .byte 196,194,121,49,205 // vpmovzxbd %xmm13,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,7,109,2,0 // vbroadcastss 0x26d07(%rip),%ymm9 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,35,114,2,0 // vbroadcastss 0x27223(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 196,194,121,49,202 // vpmovzxbd %xmm10,%xmm1
- .byte 196,194,121,49,212 // vpmovzxbd %xmm12,%xmm2
+ .byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1
+ .byte 196,194,121,49,214 // vpmovzxbd %xmm14,%xmm2
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
.byte 196,66,121,49,192 // vpmovzxbd %xmm8,%xmm8
- .byte 196,227,17,32,208,3 // vpinsrb $0x3,%eax,%xmm13,%xmm2
+ .byte 196,227,41,32,208,3 // vpinsrb $0x3,%eax,%xmm10,%xmm2
.byte 196,226,121,49,210 // vpmovzxbd %xmm2,%xmm2
.byte 196,227,61,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm8,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
@@ -18244,7 +18493,11 @@ _sk_table_r_avx:
.byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
.byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
+ .byte 196,98,125,24,13,50,113,2,0 // vbroadcastss 0x27132(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,193,124,93,193 // vminps %ymm9,%ymm0,%ymm0
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax
.byte 65,137,193 // mov %eax,%r9d
@@ -18295,7 +18548,11 @@ _sk_table_g_avx:
.byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
.byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1
+ .byte 196,98,125,24,13,89,112,2,0 // vbroadcastss 0x27059(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,193,116,93,201 // vminps %ymm9,%ymm1,%ymm1
+ .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,227,249,22,200,1 // vpextrq $0x1,%xmm1,%rax
.byte 65,137,193 // mov %eax,%r9d
@@ -18346,7 +18603,11 @@ _sk_table_b_avx:
.byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
.byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 197,180,95,210 // vmaxps %ymm2,%ymm9,%ymm2
+ .byte 196,98,125,24,13,128,111,2,0 // vbroadcastss 0x26f80(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
+ .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,227,249,22,208,1 // vpextrq $0x1,%xmm2,%rax
.byte 65,137,193 // mov %eax,%r9d
@@ -18397,7 +18658,11 @@ _sk_table_a_avx:
.byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
.byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 197,180,95,219 // vmaxps %ymm3,%ymm9,%ymm3
+ .byte 196,98,125,24,13,167,110,2,0 // vbroadcastss 0x26ea7(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,193,100,93,217 // vminps %ymm9,%ymm3,%ymm3
+ .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,227,249,22,216,1 // vpextrq $0x1,%xmm3,%rax
.byte 65,137,193 // mov %eax,%r9d
@@ -18451,36 +18716,36 @@ _sk_parametric_r_avx:
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,36,194,208,0 // vcmpeqps %ymm0,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,142,105,2,0 // vbroadcastss 0x2698e(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,53,74,110,2,0 // vbroadcastss 0x26e4a(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,132,105,2,0 // vbroadcastss 0x26984(%rip),%ymm14 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,64,110,2,0 // vbroadcastss 0x26e40(%rip),%ymm14 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,214,104,2,0 // vbroadcastss 0x268d6(%rip),%ymm14 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,53,146,109,2,0 // vbroadcastss 0x26d92(%rip),%ymm14 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,108,105,2,0 // vbroadcastss 0x2696c(%rip),%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,40,110,2,0 // vbroadcastss 0x26e28(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,98,105,2,0 // vbroadcastss 0x26962(%rip),%ymm14 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,53,30,110,2,0 // vbroadcastss 0x26e1e(%rip),%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,83,105,2,0 // vbroadcastss 0x26953(%rip),%ymm14 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,15,110,2,0 // vbroadcastss 0x26e0f(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,73,105,2,0 // vbroadcastss 0x26949(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,5,110,2,0 // vbroadcastss 0x26e05(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,42,105,2,0 // vbroadcastss 0x2692a(%rip),%ymm13 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,230,109,2,0 // vbroadcastss 0x26de6(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,32,105,2,0 // vbroadcastss 0x26920(%rip),%ymm13 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,220,109,2,0 // vbroadcastss 0x26ddc(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
.byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,17,105,2,0 // vbroadcastss 0x26911(%rip),%ymm13 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,45,205,109,2,0 // vbroadcastss 0x26dcd(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,7,105,2,0 // vbroadcastss 0x26907(%rip),%ymm13 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,195,109,2,0 // vbroadcastss 0x26dc3(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,248,104,2,0 // vbroadcastss 0x268f8(%rip),%ymm12 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,180,109,2,0 // vbroadcastss 0x26db4(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,208,160 // vblendvps %ymm10,%ymm0,%ymm11,%ymm10
@@ -18488,7 +18753,7 @@ _sk_parametric_r_avx:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,10,104,2,0 // vbroadcastss 0x2680a(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,198,108,2,0 // vbroadcastss 0x26cc6(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18512,36 +18777,36 @@ _sk_parametric_g_avx:
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,36,194,209,0 // vcmpeqps %ymm1,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,69,104,2,0 // vbroadcastss 0x26845(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,53,1,109,2,0 // vbroadcastss 0x26d01(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,59,104,2,0 // vbroadcastss 0x2683b(%rip),%ymm14 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,247,108,2,0 // vbroadcastss 0x26cf7(%rip),%ymm14 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,141,103,2,0 // vbroadcastss 0x2678d(%rip),%ymm14 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,53,73,108,2,0 // vbroadcastss 0x26c49(%rip),%ymm14 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,35,104,2,0 // vbroadcastss 0x26823(%rip),%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,223,108,2,0 // vbroadcastss 0x26cdf(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,25,104,2,0 // vbroadcastss 0x26819(%rip),%ymm14 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,53,213,108,2,0 // vbroadcastss 0x26cd5(%rip),%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,10,104,2,0 // vbroadcastss 0x2680a(%rip),%ymm14 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,198,108,2,0 // vbroadcastss 0x26cc6(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,0,104,2,0 // vbroadcastss 0x26800(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,188,108,2,0 // vbroadcastss 0x26cbc(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,225,103,2,0 // vbroadcastss 0x267e1(%rip),%ymm13 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,157,108,2,0 // vbroadcastss 0x26c9d(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,215,103,2,0 // vbroadcastss 0x267d7(%rip),%ymm13 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,147,108,2,0 // vbroadcastss 0x26c93(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
.byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,200,103,2,0 // vbroadcastss 0x267c8(%rip),%ymm13 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,45,132,108,2,0 // vbroadcastss 0x26c84(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,190,103,2,0 // vbroadcastss 0x267be(%rip),%ymm13 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,122,108,2,0 // vbroadcastss 0x26c7a(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,175,103,2,0 // vbroadcastss 0x267af(%rip),%ymm12 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,107,108,2,0 // vbroadcastss 0x26c6b(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,209,160 // vblendvps %ymm10,%ymm1,%ymm11,%ymm10
@@ -18549,7 +18814,7 @@ _sk_parametric_g_avx:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 196,98,125,24,5,193,102,2,0 // vbroadcastss 0x266c1(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,125,107,2,0 // vbroadcastss 0x26b7d(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18573,36 +18838,36 @@ _sk_parametric_b_avx:
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,36,194,210,0 // vcmpeqps %ymm2,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,252,102,2,0 // vbroadcastss 0x266fc(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,53,184,107,2,0 // vbroadcastss 0x26bb8(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,242,102,2,0 // vbroadcastss 0x266f2(%rip),%ymm14 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,174,107,2,0 // vbroadcastss 0x26bae(%rip),%ymm14 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,68,102,2,0 // vbroadcastss 0x26644(%rip),%ymm14 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,53,0,107,2,0 // vbroadcastss 0x26b00(%rip),%ymm14 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,218,102,2,0 // vbroadcastss 0x266da(%rip),%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,150,107,2,0 // vbroadcastss 0x26b96(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,208,102,2,0 // vbroadcastss 0x266d0(%rip),%ymm14 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,53,140,107,2,0 // vbroadcastss 0x26b8c(%rip),%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,193,102,2,0 // vbroadcastss 0x266c1(%rip),%ymm14 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,125,107,2,0 // vbroadcastss 0x26b7d(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,183,102,2,0 // vbroadcastss 0x266b7(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,115,107,2,0 // vbroadcastss 0x26b73(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,152,102,2,0 // vbroadcastss 0x26698(%rip),%ymm13 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,84,107,2,0 // vbroadcastss 0x26b54(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,142,102,2,0 // vbroadcastss 0x2668e(%rip),%ymm13 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,74,107,2,0 // vbroadcastss 0x26b4a(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
.byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,127,102,2,0 // vbroadcastss 0x2667f(%rip),%ymm13 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,45,59,107,2,0 // vbroadcastss 0x26b3b(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,117,102,2,0 // vbroadcastss 0x26675(%rip),%ymm13 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,49,107,2,0 // vbroadcastss 0x26b31(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,102,102,2,0 // vbroadcastss 0x26666(%rip),%ymm12 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,34,107,2,0 // vbroadcastss 0x26b22(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,210,160 // vblendvps %ymm10,%ymm2,%ymm11,%ymm10
@@ -18610,7 +18875,7 @@ _sk_parametric_b_avx:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,120,101,2,0 // vbroadcastss 0x26578(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,52,106,2,0 // vbroadcastss 0x26a34(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18634,36 +18899,36 @@ _sk_parametric_a_avx:
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,36,194,211,0 // vcmpeqps %ymm3,%ymm11,%ymm10
.byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,179,101,2,0 // vbroadcastss 0x265b3(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,53,111,106,2,0 // vbroadcastss 0x26a6f(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,169,101,2,0 // vbroadcastss 0x265a9(%rip),%ymm14 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,53,101,106,2,0 // vbroadcastss 0x26a65(%rip),%ymm14 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,251,100,2,0 // vbroadcastss 0x264fb(%rip),%ymm14 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,53,183,105,2,0 // vbroadcastss 0x269b7(%rip),%ymm14 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,145,101,2,0 // vbroadcastss 0x26591(%rip),%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,53,77,106,2,0 // vbroadcastss 0x26a4d(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,135,101,2,0 // vbroadcastss 0x26587(%rip),%ymm14 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,53,67,106,2,0 // vbroadcastss 0x26a43(%rip),%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,120,101,2,0 // vbroadcastss 0x26578(%rip),%ymm14 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,53,52,106,2,0 // vbroadcastss 0x26a34(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,110,101,2,0 // vbroadcastss 0x2656e(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,42,106,2,0 // vbroadcastss 0x26a2a(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
.byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,79,101,2,0 // vbroadcastss 0x2654f(%rip),%ymm13 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,45,11,106,2,0 // vbroadcastss 0x26a0b(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,69,101,2,0 // vbroadcastss 0x26545(%rip),%ymm13 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,45,1,106,2,0 // vbroadcastss 0x26a01(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
.byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,54,101,2,0 // vbroadcastss 0x26536(%rip),%ymm13 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,45,242,105,2,0 // vbroadcastss 0x269f2(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,44,101,2,0 // vbroadcastss 0x2652c(%rip),%ymm13 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,45,232,105,2,0 // vbroadcastss 0x269e8(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,29,101,2,0 // vbroadcastss 0x2651d(%rip),%ymm12 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,98,125,24,37,217,105,2,0 // vbroadcastss 0x269d9(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
.byte 196,99,37,74,211,160 // vblendvps %ymm10,%ymm3,%ymm11,%ymm10
@@ -18671,7 +18936,7 @@ _sk_parametric_a_avx:
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
- .byte 196,98,125,24,5,47,100,2,0 // vbroadcastss 0x2642f(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,235,104,2,0 // vbroadcastss 0x268eb(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18690,22 +18955,22 @@ _sk_gamma_avx:
.byte 197,252,17,76,36,128 // vmovups %ymm1,-0x80(%rsp)
.byte 197,252,40,224 // vmovaps %ymm0,%ymm4
.byte 197,252,91,204 // vcvtdq2ps %ymm4,%ymm1
- .byte 196,226,125,24,5,122,100,2,0 // vbroadcastss 0x2647a(%rip),%ymm0 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,226,125,24,5,54,105,2,0 // vbroadcastss 0x26936(%rip),%ymm0 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,124,40,192 // vmovaps %ymm0,%ymm8
.byte 197,124,17,68,36,160 // vmovups %ymm8,-0x60(%rsp)
- .byte 196,98,125,24,13,103,100,2,0 // vbroadcastss 0x26467(%rip),%ymm9 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,98,125,24,13,35,105,2,0 // vbroadcastss 0x26923(%rip),%ymm9 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 196,193,92,84,209 // vandps %ymm9,%ymm4,%ymm2
- .byte 196,98,125,24,21,185,99,2,0 // vbroadcastss 0x263b9(%rip),%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,117,104,2,0 // vbroadcastss 0x26875(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,108,86,210 // vorps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,29,79,100,2,0 // vbroadcastss 0x2644f(%rip),%ymm11 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,98,125,24,29,11,105,2,0 // vbroadcastss 0x2690b(%rip),%ymm11 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,69,100,2,0 // vbroadcastss 0x26445(%rip),%ymm12 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,37,1,105,2,0 // vbroadcastss 0x26901(%rip),%ymm12 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,193,108,89,220 // vmulps %ymm12,%ymm2,%ymm3
.byte 197,244,92,203 // vsubps %ymm3,%ymm1,%ymm1
- .byte 196,98,125,24,45,55,100,2,0 // vbroadcastss 0x26437(%rip),%ymm13 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,243,104,2,0 // vbroadcastss 0x268f3(%rip),%ymm13 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,193,108,88,213 // vaddps %ymm13,%ymm2,%ymm2
- .byte 196,98,125,24,53,45,100,2,0 // vbroadcastss 0x2642d(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,233,104,2,0 // vbroadcastss 0x268e9(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 197,140,94,210 // vdivps %ymm2,%ymm14,%ymm2
.byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -18713,19 +18978,19 @@ _sk_gamma_avx:
.byte 197,244,89,206 // vmulps %ymm6,%ymm1,%ymm1
.byte 196,227,125,8,209,1 // vroundps $0x1,%ymm1,%ymm2
.byte 197,244,92,234 // vsubps %ymm2,%ymm1,%ymm5
- .byte 196,98,125,24,61,11,100,2,0 // vbroadcastss 0x2640b(%rip),%ymm15 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,61,199,104,2,0 // vbroadcastss 0x268c7(%rip),%ymm15 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,193,116,88,207 // vaddps %ymm15,%ymm1,%ymm1
- .byte 196,226,125,24,61,1,100,2,0 // vbroadcastss 0x26401(%rip),%ymm7 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,226,125,24,61,189,104,2,0 // vbroadcastss 0x268bd(%rip),%ymm7 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 197,212,89,215 // vmulps %ymm7,%ymm5,%ymm2
.byte 197,244,92,194 // vsubps %ymm2,%ymm1,%ymm0
- .byte 196,226,125,24,29,244,99,2,0 // vbroadcastss 0x263f4(%rip),%ymm3 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,226,125,24,29,176,104,2,0 // vbroadcastss 0x268b0(%rip),%ymm3 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 197,228,92,237 // vsubps %ymm5,%ymm3,%ymm5
- .byte 196,226,125,24,21,235,99,2,0 // vbroadcastss 0x263eb(%rip),%ymm2 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,226,125,24,21,167,104,2,0 // vbroadcastss 0x268a7(%rip),%ymm2 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,236,94,237 // vdivps %ymm5,%ymm2,%ymm5
.byte 197,252,88,197 // vaddps %ymm5,%ymm0,%ymm0
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 197,220,194,205,0 // vcmpeqps %ymm5,%ymm4,%ymm1
- .byte 196,226,125,24,37,213,99,2,0 // vbroadcastss 0x263d5(%rip),%ymm4 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,226,125,24,37,145,104,2,0 // vbroadcastss 0x26891(%rip),%ymm4 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,227,125,74,197,16 // vblendvps %ymm1,%ymm5,%ymm0,%ymm0
@@ -18807,23 +19072,23 @@ _sk_gamma_dst_avx:
.byte 197,252,17,76,36,96 // vmovups %ymm1,0x60(%rsp)
.byte 197,252,17,68,36,64 // vmovups %ymm0,0x40(%rsp)
.byte 197,252,91,196 // vcvtdq2ps %ymm4,%ymm0
- .byte 196,226,125,24,29,42,98,2,0 // vbroadcastss 0x2622a(%rip),%ymm3 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348>
+ .byte 196,226,125,24,29,230,102,2,0 // vbroadcastss 0x266e6(%rip),%ymm3 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,33,98,2,0 // vbroadcastss 0x26221(%rip),%ymm1 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
+ .byte 196,226,125,24,13,221,102,2,0 // vbroadcastss 0x266dd(%rip),%ymm1 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
.byte 197,252,17,12,36 // vmovups %ymm1,(%rsp)
.byte 197,220,84,201 // vandps %ymm1,%ymm4,%ymm1
- .byte 196,226,125,24,21,111,97,2,0 // vbroadcastss 0x2616f(%rip),%ymm2 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,21,43,102,2,0 // vbroadcastss 0x2662b(%rip),%ymm2 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,17,84,36,224 // vmovups %ymm2,-0x20(%rsp)
.byte 197,244,86,202 // vorps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,0,98,2,0 // vbroadcastss 0x26200(%rip),%ymm2 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
+ .byte 196,226,125,24,21,188,102,2,0 // vbroadcastss 0x266bc(%rip),%ymm2 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
.byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp)
.byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0
- .byte 196,98,125,24,37,241,97,2,0 // vbroadcastss 0x261f1(%rip),%ymm12 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
+ .byte 196,98,125,24,37,173,102,2,0 // vbroadcastss 0x266ad(%rip),%ymm12 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354>
.byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2
.byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0
- .byte 196,98,125,24,45,227,97,2,0 // vbroadcastss 0x261e3(%rip),%ymm13 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,45,159,102,2,0 // vbroadcastss 0x2669f(%rip),%ymm13 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
.byte 196,193,116,88,205 // vaddps %ymm13,%ymm1,%ymm1
- .byte 196,98,125,24,53,217,97,2,0 // vbroadcastss 0x261d9(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
+ .byte 196,98,125,24,53,149,102,2,0 // vbroadcastss 0x26695(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
.byte 197,140,94,201 // vdivps %ymm1,%ymm14,%ymm1
.byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -18831,19 +19096,19 @@ _sk_gamma_dst_avx:
.byte 197,252,89,197 // vmulps %ymm5,%ymm0,%ymm0
.byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 196,98,125,24,61,183,97,2,0 // vbroadcastss 0x261b7(%rip),%ymm15 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
+ .byte 196,98,125,24,61,115,102,2,0 // vbroadcastss 0x26673(%rip),%ymm15 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
.byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 196,98,125,24,29,173,97,2,0 // vbroadcastss 0x261ad(%rip),%ymm11 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,105,102,2,0 // vbroadcastss 0x26669(%rip),%ymm11 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0
- .byte 196,98,125,24,21,159,97,2,0 // vbroadcastss 0x2619f(%rip),%ymm10 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368>
+ .byte 196,98,125,24,21,91,102,2,0 // vbroadcastss 0x2665b(%rip),%ymm10 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
.byte 197,172,92,241 // vsubps %ymm1,%ymm10,%ymm6
- .byte 196,98,125,24,13,150,97,2,0 // vbroadcastss 0x26196(%rip),%ymm9 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
+ .byte 196,98,125,24,13,82,102,2,0 // vbroadcastss 0x26652(%rip),%ymm9 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
.byte 197,180,94,246 // vdivps %ymm6,%ymm9,%ymm6
.byte 197,252,88,198 // vaddps %ymm6,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,220,194,225,0 // vcmpeqps %ymm1,%ymm4,%ymm4
- .byte 196,226,125,24,61,128,97,2,0 // vbroadcastss 0x26180(%rip),%ymm7 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
+ .byte 196,226,125,24,61,60,102,2,0 // vbroadcastss 0x2663c(%rip),%ymm7 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,227,125,74,193,64 // vblendvps %ymm4,%ymm1,%ymm0,%ymm0
@@ -18917,31 +19182,31 @@ HIDDEN _sk_lab_to_xyz_avx
.globl _sk_lab_to_xyz_avx
FUNCTION(_sk_lab_to_xyz_avx)
_sk_lab_to_xyz_avx:
- .byte 196,98,125,24,5,43,96,2,0 // vbroadcastss 0x2602b(%rip),%ymm8 # 398c8 <_sk_srcover_bgra_8888_sse2_lowp+0x374>
+ .byte 196,98,125,24,5,231,100,2,0 // vbroadcastss 0x264e7(%rip),%ymm8 # 3a2dc <_sk_srcover_bgra_8888_sse2_lowp+0x374>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,133,95,2,0 // vbroadcastss 0x25f85(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,5,65,100,2,0 // vbroadcastss 0x26441(%rip),%ymm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,19,96,2,0 // vbroadcastss 0x26013(%rip),%ymm9 # 398cc <_sk_srcover_bgra_8888_sse2_lowp+0x378>
+ .byte 196,98,125,24,13,207,100,2,0 // vbroadcastss 0x264cf(%rip),%ymm9 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
.byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2
- .byte 196,98,125,24,5,255,95,2,0 // vbroadcastss 0x25fff(%rip),%ymm8 # 398d0 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
+ .byte 196,98,125,24,5,187,100,2,0 // vbroadcastss 0x264bb(%rip),%ymm8 # 3a2e4 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,245,95,2,0 // vbroadcastss 0x25ff5(%rip),%ymm8 # 398d4 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
+ .byte 196,98,125,24,5,177,100,2,0 // vbroadcastss 0x264b1(%rip),%ymm8 # 3a2e8 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,235,95,2,0 // vbroadcastss 0x25feb(%rip),%ymm8 # 398d8 <_sk_srcover_bgra_8888_sse2_lowp+0x384>
+ .byte 196,98,125,24,5,167,100,2,0 // vbroadcastss 0x264a7(%rip),%ymm8 # 3a2ec <_sk_srcover_bgra_8888_sse2_lowp+0x384>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 197,252,88,201 // vaddps %ymm1,%ymm0,%ymm1
- .byte 196,98,125,24,5,221,95,2,0 // vbroadcastss 0x25fdd(%rip),%ymm8 # 398dc <_sk_srcover_bgra_8888_sse2_lowp+0x388>
+ .byte 196,98,125,24,5,153,100,2,0 // vbroadcastss 0x26499(%rip),%ymm8 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,252,92,210 // vsubps %ymm2,%ymm0,%ymm2
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,198,95,2,0 // vbroadcastss 0x25fc6(%rip),%ymm9 # 398e0 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
+ .byte 196,98,125,24,13,130,100,2,0 // vbroadcastss 0x26482(%rip),%ymm9 # 3a2f4 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
.byte 196,65,52,194,208,1 // vcmpltps %ymm8,%ymm9,%ymm10
- .byte 196,98,125,24,29,187,95,2,0 // vbroadcastss 0x25fbb(%rip),%ymm11 # 398e4 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
+ .byte 196,98,125,24,29,119,100,2,0 // vbroadcastss 0x26477(%rip),%ymm11 # 3a2f8 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,177,95,2,0 // vbroadcastss 0x25fb1(%rip),%ymm12 # 398e8 <_sk_srcover_bgra_8888_sse2_lowp+0x394>
+ .byte 196,98,125,24,37,109,100,2,0 // vbroadcastss 0x2646d(%rip),%ymm12 # 3a2fc <_sk_srcover_bgra_8888_sse2_lowp+0x394>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -18956,9 +19221,9 @@ _sk_lab_to_xyz_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 196,226,125,24,5,103,95,2,0 // vbroadcastss 0x25f67(%rip),%ymm0 # 398ec <_sk_srcover_bgra_8888_sse2_lowp+0x398>
+ .byte 196,226,125,24,5,35,100,2,0 // vbroadcastss 0x26423(%rip),%ymm0 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,94,95,2,0 // vbroadcastss 0x25f5e(%rip),%ymm8 # 398f0 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
+ .byte 196,98,125,24,5,26,100,2,0 // vbroadcastss 0x2641a(%rip),%ymm8 # 3a304 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18974,15 +19239,15 @@ _sk_load_a8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 139f7 <_sk_load_a8_avx+0x5c>
+ .byte 117,68 // jne 13f4f <_sk_load_a8_avx+0x5c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,15,103,2,0 // vpand 0x2670f(%rip),%xmm0,%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,249,219,5,215,107,2,0 // vpand 0x26bd7(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,153,94,2,0 // vbroadcastss 0x25e99(%rip),%ymm1 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,85,99,2,0 // vbroadcastss 0x26355(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -18994,15 +19259,15 @@ _sk_load_a8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,174 // ja 139b9 <_sk_load_a8_avx+0x1e>
+ .byte 119,174 // ja 13f11 <_sk_load_a8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 13a90 <_sk_load_a8_avx+0xf5>
+ .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 13fe8 <_sk_load_a8_avx+0xf5>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,143 // jmp 139b9 <_sk_load_a8_avx+0x1e>
+ .byte 235,143 // jmp 13f11 <_sk_load_a8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -19010,7 +19275,7 @@ _sk_load_a8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,103,255,255,255 // jmpq 139b9 <_sk_load_a8_avx+0x1e>
+ .byte 233,103,255,255,255 // jmpq 13f11 <_sk_load_a8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -19021,7 +19286,7 @@ _sk_load_a8_avx:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,44,255,255,255 // jmpq 139b9 <_sk_load_a8_avx+0x1e>
+ .byte 233,44,255,255,255 // jmpq 13f11 <_sk_load_a8_avx+0x1e>
.byte 15,31,0 // nopl (%rax)
.byte 143 // (bad)
.byte 255 // (bad)
@@ -19054,15 +19319,15 @@ _sk_load_a8_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 13b08 <_sk_load_a8_dst_avx+0x5c>
+ .byte 117,68 // jne 14060 <_sk_load_a8_dst_avx+0x5c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,254,101,2,0 // vpand 0x265fe(%rip),%xmm4,%xmm4 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,217,219,37,198,106,2,0 // vpand 0x26ac6(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,136,93,2,0 // vbroadcastss 0x25d88(%rip),%ymm5 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,68,98,2,0 // vbroadcastss 0x26244(%rip),%ymm5 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -19074,15 +19339,15 @@ _sk_load_a8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,174 // ja 13aca <_sk_load_a8_dst_avx+0x1e>
+ .byte 119,174 // ja 14022 <_sk_load_a8_dst_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 13ba0 <_sk_load_a8_dst_avx+0xf4>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 140f8 <_sk_load_a8_dst_avx+0xf4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,143 // jmp 13aca <_sk_load_a8_dst_avx+0x1e>
+ .byte 235,143 // jmp 14022 <_sk_load_a8_dst_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -19090,7 +19355,7 @@ _sk_load_a8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,103,255,255,255 // jmpq 13aca <_sk_load_a8_dst_avx+0x1e>
+ .byte 233,103,255,255,255 // jmpq 14022 <_sk_load_a8_dst_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -19101,7 +19366,7 @@ _sk_load_a8_dst_avx:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,44,255,255,255 // jmpq 13aca <_sk_load_a8_dst_avx+0x1e>
+ .byte 233,44,255,255,255 // jmpq 14022 <_sk_load_a8_dst_avx+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -19110,7 +19375,7 @@ _sk_load_a8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde013bb0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfda65c>
+ .byte 232,255,255,255,221 // callq ffffffffde014108 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfda1a0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -19190,7 +19455,7 @@ _sk_gather_a8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,142,91,2,0 // vbroadcastss 0x25b8e(%rip),%ymm1 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,74,96,2,0 // vbroadcastss 0x2604a(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -19213,14 +19478,18 @@ _sk_store_a8_avx:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,10,91,2,0 // vbroadcastss 0x25b0a(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,98,125,24,13,145,95,2,0 // vbroadcastss 0x25f91(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8
+ .byte 196,98,125,24,13,175,95,2,0 // vbroadcastss 0x25faf(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 13d4e <_sk_store_a8_avx+0x44>
+ .byte 117,10 // jne 142bd <_sk_store_a8_avx+0x5b>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19228,42 +19497,42 @@ _sk_store_a8_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 13d4a <_sk_store_a8_avx+0x40>
+ .byte 119,236 // ja 142b9 <_sk_store_a8_avx+0x57>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,86,0,0,0 // lea 0x56(%rip),%r10 # 13dc4 <_sk_store_a8_avx+0xba>
+ .byte 76,141,21,87,0,0,0 // lea 0x57(%rip),%r10 # 14334 <_sk_store_a8_avx+0xd2>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,202 // jmp 13d4a <_sk_store_a8_avx+0x40>
+ .byte 235,202 // jmp 142b9 <_sk_store_a8_avx+0x57>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,79,99,2,0 // vpshufb 0x2634f(%rip),%xmm8,%xmm8 # 3a0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xb8c>
+ .byte 196,98,57,0,5,0,104,2,0 // vpshufb 0x26800(%rip),%xmm8,%xmm8 # 3ab00 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,176 // jmp 13d4a <_sk_store_a8_avx+0x40>
+ .byte 235,176 // jmp 142b9 <_sk_store_a8_avx+0x57>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,53,99,2,0 // vpshufb 0x26335(%rip),%xmm8,%xmm8 # 3a0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xb9c>
+ .byte 196,98,57,0,5,230,103,2,0 // vpshufb 0x267e6(%rip),%xmm8,%xmm8 # 3ab10 <_sk_srcover_bgra_8888_sse2_lowp+0xba8>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
- .byte 235,135 // jmp 13d4a <_sk_store_a8_avx+0x40>
- .byte 144 // nop
- .byte 179,255 // mov $0xff,%bl
+ .byte 235,135 // jmp 142b9 <_sk_store_a8_avx+0x57>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 178,255 // mov $0xff,%dl
.byte 255 // (bad)
- .byte 255,196 // inc %esp
+ .byte 255,195 // inc %ebx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 188,255,255,255,238 // mov $0xeeffffff,%esp
+ .byte 187,255,255,255,237 // mov $0xedffffff,%ebx
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,230 // jmpq *%rsi
+ .byte 255,229 // jmpq *%rbp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 222,255 // fdivrp %st,%st(7)
+ .byte 221,255 // (bad)
.byte 255 // (bad)
- .byte 255,214 // callq *%rsi
+ .byte 255,213 // callq *%rbp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -19279,18 +19548,18 @@ _sk_load_g8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne 13e41 <_sk_load_g8_avx+0x61>
+ .byte 117,73 // jne 143b1 <_sk_load_g8_avx+0x61>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,202,98,2,0 // vpand 0x262ca(%rip),%xmm0,%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,249,219,5,122,103,2,0 // vpand 0x2677a(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,84,90,2,0 // vbroadcastss 0x25a54(%rip),%ymm1 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,248,94,2,0 // vbroadcastss 0x25ef8(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,205,89,2,0 // vbroadcastss 0x259cd(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,113,94,2,0 // vbroadcastss 0x25e71(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -19299,15 +19568,15 @@ _sk_load_g8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,169 // ja 13dfe <_sk_load_g8_avx+0x1e>
+ .byte 119,169 // ja 1436e <_sk_load_g8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 13ed8 <_sk_load_g8_avx+0xf8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 14448 <_sk_load_g8_avx+0xf8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,138 // jmp 13dfe <_sk_load_g8_avx+0x1e>
+ .byte 235,138 // jmp 1436e <_sk_load_g8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -19315,7 +19584,7 @@ _sk_load_g8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,98,255,255,255 // jmpq 13dfe <_sk_load_g8_avx+0x1e>
+ .byte 233,98,255,255,255 // jmpq 1436e <_sk_load_g8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -19326,7 +19595,7 @@ _sk_load_g8_avx:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,39,255,255,255 // jmpq 13dfe <_sk_load_g8_avx+0x1e>
+ .byte 233,39,255,255,255 // jmpq 1436e <_sk_load_g8_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -19335,7 +19604,7 @@ _sk_load_g8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf013ee8 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefda994>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf014458 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefda4f0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -19357,18 +19626,18 @@ _sk_load_g8_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne 13f55 <_sk_load_g8_dst_avx+0x61>
+ .byte 117,73 // jne 144c5 <_sk_load_g8_dst_avx+0x61>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,182,97,2,0 // vpand 0x261b6(%rip),%xmm4,%xmm4 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 197,217,219,37,102,102,2,0 // vpand 0x26666(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,64,89,2,0 // vbroadcastss 0x25940(%rip),%ymm5 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,45,228,93,2,0 // vbroadcastss 0x25de4(%rip),%ymm5 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,185,88,2,0 // vbroadcastss 0x258b9(%rip),%ymm7 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,93,93,2,0 // vbroadcastss 0x25d5d(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -19377,15 +19646,15 @@ _sk_load_g8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,169 // ja 13f12 <_sk_load_g8_dst_avx+0x1e>
+ .byte 119,169 // ja 14482 <_sk_load_g8_dst_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 13fec <_sk_load_g8_dst_avx+0xf8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 1455c <_sk_load_g8_dst_avx+0xf8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,138 // jmp 13f12 <_sk_load_g8_dst_avx+0x1e>
+ .byte 235,138 // jmp 14482 <_sk_load_g8_dst_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -19393,7 +19662,7 @@ _sk_load_g8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,98,255,255,255 // jmpq 13f12 <_sk_load_g8_dst_avx+0x1e>
+ .byte 233,98,255,255,255 // jmpq 14482 <_sk_load_g8_dst_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -19404,7 +19673,7 @@ _sk_load_g8_dst_avx:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,39,255,255,255 // jmpq 13f12 <_sk_load_g8_dst_avx+0x1e>
+ .byte 233,39,255,255,255 // jmpq 14482 <_sk_load_g8_dst_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -19413,7 +19682,7 @@ _sk_load_g8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf013ffc <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefdaaa8>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf01456c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefda604>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -19493,10 +19762,10 @@ _sk_gather_g8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,66,87,2,0 // vbroadcastss 0x25742(%rip),%ymm1 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,226,125,24,13,230,91,2,0 // vbroadcastss 0x25be6(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,187,86,2,0 // vbroadcastss 0x256bb(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,95,91,2,0 // vbroadcastss 0x25b5f(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -19518,56 +19787,56 @@ _sk_load_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne 141fc <_sk_load_565_avx+0xa1>
+ .byte 15,133,130,0,0,0 // jne 1476c <_sk_load_565_avx+0xa1>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,226,86,2,0 // vbroadcastss 0x256e2(%rip),%ymm0 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,24,5,134,91,2,0 // vbroadcastss 0x25b86(%rip),%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,213,86,2,0 // vbroadcastss 0x256d5(%rip),%ymm1 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,121,91,2,0 // vbroadcastss 0x25b79(%rip),%ymm1 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,204,86,2,0 // vbroadcastss 0x256cc(%rip),%ymm1 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,24,13,112,91,2,0 // vbroadcastss 0x25b70(%rip),%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,191,86,2,0 // vbroadcastss 0x256bf(%rip),%ymm3 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,99,91,2,0 // vbroadcastss 0x25b63(%rip),%ymm3 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,182,86,2,0 // vbroadcastss 0x256b6(%rip),%ymm3 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,24,29,90,91,2,0 // vbroadcastss 0x25b5a(%rip),%ymm3 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,169,86,2,0 // vbroadcastss 0x256a9(%rip),%ymm3 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,77,91,2,0 // vbroadcastss 0x25b4d(%rip),%ymm3 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,10,86,2,0 // vbroadcastss 0x2560a(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,174,90,2,0 // vbroadcastss 0x25aae(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,108,255,255,255 // ja 14180 <_sk_load_565_avx+0x25>
+ .byte 15,135,108,255,255,255 // ja 146f0 <_sk_load_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 14280 <_sk_load_565_avx+0x125>
+ .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 147f0 <_sk_load_565_avx+0x125>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,74,255,255,255 // jmpq 14180 <_sk_load_565_avx+0x25>
+ .byte 233,74,255,255,255 // jmpq 146f0 <_sk_load_565_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,45,255,255,255 // jmpq 14180 <_sk_load_565_avx+0x25>
+ .byte 233,45,255,255,255 // jmpq 146f0 <_sk_load_565_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,0,255,255,255 // jmpq 14180 <_sk_load_565_avx+0x25>
+ .byte 233,0,255,255,255 // jmpq 146f0 <_sk_load_565_avx+0x25>
.byte 168,255 // test $0xff,%al
.byte 255 // (bad)
.byte 255,194 // inc %edx
@@ -19599,56 +19868,56 @@ _sk_load_565_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne 1433d <_sk_load_565_dst_avx+0xa1>
+ .byte 15,133,130,0,0,0 // jne 148ad <_sk_load_565_dst_avx+0xa1>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,244,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm6
- .byte 196,226,125,24,37,161,85,2,0 // vbroadcastss 0x255a1(%rip),%ymm4 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,24,37,69,90,2,0 // vbroadcastss 0x25a45(%rip),%ymm4 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,204,84,228 // vandps %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,148,85,2,0 // vbroadcastss 0x25594(%rip),%ymm5 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,45,56,90,2,0 // vbroadcastss 0x25a38(%rip),%ymm5 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,139,85,2,0 // vbroadcastss 0x2558b(%rip),%ymm5 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,24,45,47,90,2,0 // vbroadcastss 0x25a2f(%rip),%ymm5 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,204,84,237 // vandps %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,126,85,2,0 // vbroadcastss 0x2557e(%rip),%ymm7 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,61,34,90,2,0 // vbroadcastss 0x25a22(%rip),%ymm7 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,24,61,117,85,2,0 // vbroadcastss 0x25575(%rip),%ymm7 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,24,61,25,90,2,0 // vbroadcastss 0x25a19(%rip),%ymm7 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,204,84,247 // vandps %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,104,85,2,0 // vbroadcastss 0x25568(%rip),%ymm7 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,61,12,90,2,0 // vbroadcastss 0x25a0c(%rip),%ymm7 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,201,84,2,0 // vbroadcastss 0x254c9(%rip),%ymm7 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,61,109,89,2,0 // vbroadcastss 0x2596d(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,108,255,255,255 // ja 142c1 <_sk_load_565_dst_avx+0x25>
+ .byte 15,135,108,255,255,255 // ja 14831 <_sk_load_565_dst_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 143c4 <_sk_load_565_dst_avx+0x128>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 14934 <_sk_load_565_dst_avx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,74,255,255,255 // jmpq 142c1 <_sk_load_565_dst_avx+0x25>
+ .byte 233,74,255,255,255 // jmpq 14831 <_sk_load_565_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,45,255,255,255 // jmpq 142c1 <_sk_load_565_dst_avx+0x25>
+ .byte 233,45,255,255,255 // jmpq 14831 <_sk_load_565_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,0,255,255,255 // jmpq 142c1 <_sk_load_565_dst_avx+0x25>
+ .byte 233,0,255,255,255 // jmpq 14831 <_sk_load_565_dst_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -19741,23 +20010,23 @@ _sk_gather_565_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,113,83,2,0 // vbroadcastss 0x25371(%rip),%ymm0 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
+ .byte 196,226,125,24,5,21,88,2,0 // vbroadcastss 0x25815(%rip),%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,100,83,2,0 // vbroadcastss 0x25364(%rip),%ymm1 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
+ .byte 196,226,125,24,13,8,88,2,0 // vbroadcastss 0x25808(%rip),%ymm1 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,91,83,2,0 // vbroadcastss 0x2535b(%rip),%ymm1 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
+ .byte 196,226,125,24,13,255,87,2,0 // vbroadcastss 0x257ff(%rip),%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,78,83,2,0 // vbroadcastss 0x2534e(%rip),%ymm3 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338>
+ .byte 196,226,125,24,29,242,87,2,0 // vbroadcastss 0x257f2(%rip),%ymm3 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,69,83,2,0 // vbroadcastss 0x25345(%rip),%ymm3 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
+ .byte 196,226,125,24,29,233,87,2,0 // vbroadcastss 0x257e9(%rip),%ymm3 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,56,83,2,0 // vbroadcastss 0x25338(%rip),%ymm3 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
+ .byte 196,226,125,24,29,220,87,2,0 // vbroadcastss 0x257dc(%rip),%ymm3 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,153,82,2,0 // vbroadcastss 0x25299(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,61,87,2,0 // vbroadcastss 0x2573d(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -19776,28 +20045,36 @@ _sk_store_565_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,96,83,2,0 // vbroadcastss 0x25360(%rip),%ymm8 # 398f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
- .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,21,11,87,2,0 // vbroadcastss 0x2570b(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,98,125,24,29,237,87,2,0 // vbroadcastss 0x257ed(%rip),%ymm11 # 3a308 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
+ .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 196,193,41,114,241,11 // vpslld $0xb,%xmm9,%xmm10
+ .byte 196,193,25,114,241,11 // vpslld $0xb,%xmm9,%xmm12
.byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9
.byte 196,193,49,114,241,11 // vpslld $0xb,%xmm9,%xmm9
- .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 196,98,125,24,21,57,83,2,0 // vbroadcastss 0x25339(%rip),%ymm10 # 398f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
- .byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,33,114,242,5 // vpslld $0x5,%xmm10,%xmm11
- .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
- .byte 196,193,41,114,242,5 // vpslld $0x5,%xmm10,%xmm10
- .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10
- .byte 196,65,45,86,201 // vorpd %ymm9,%ymm10,%ymm9
- .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8
+ .byte 196,67,29,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm12,%ymm9
+ .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,98,125,24,45,189,87,2,0 // vbroadcastss 0x257bd(%rip),%ymm13 # 3a30c <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
+ .byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,17,114,244,5 // vpslld $0x5,%xmm12,%xmm13
+ .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12
+ .byte 196,193,25,114,244,5 // vpslld $0x5,%xmm12,%xmm12
+ .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
+ .byte 196,65,29,86,201 // vorpd %ymm9,%ymm12,%ymm9
+ .byte 197,60,95,194 // vmaxps %ymm2,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1460f <_sk_store_565_avx+0x9a>
+ .byte 117,10 // jne 14ba8 <_sk_store_565_avx+0xc3>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19805,41 +20082,44 @@ _sk_store_565_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 1460b <_sk_store_565_avx+0x96>
+ .byte 119,236 // ja 14ba4 <_sk_store_565_avx+0xbf>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # 1466c <_sk_store_565_avx+0xf7>
+ .byte 76,141,21,69,0,0,0 // lea 0x45(%rip),%r10 # 14c08 <_sk_store_565_avx+0x123>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp 1460b <_sk_store_565_avx+0x96>
+ .byte 235,207 // jmp 14ba4 <_sk_store_565_avx+0xbf>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp 1460b <_sk_store_565_avx+0x96>
+ .byte 235,191 // jmp 14ba4 <_sk_store_565_avx+0xbf>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp 1460b <_sk_store_565_avx+0x96>
- .byte 199 // (bad)
+ .byte 235,159 // jmp 14ba4 <_sk_store_565_avx+0xbf>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 196 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
+ .byte 255,213 // callq *%rbp
.byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
.byte 255 // (bad)
- .byte 255,208 // callq *%rax
+ .byte 255,205 // dec %ebp
+ .byte 255 // (bad)
.byte 255 // (bad)
+ .byte 255,245 // push %rbp
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 248 // clc
.byte 255 // (bad)
+ .byte 237 // in (%dx),%eax
.byte 255 // (bad)
- .byte 255,240 // push %rax
.byte 255 // (bad)
+ .byte 255,229 // jmpq *%rbp
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe1014684 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fdb130>
.byte 255 // (bad)
+ .byte 221,255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -19855,31 +20135,31 @@ _sk_load_4444_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne 14741 <_sk_load_4444_avx+0xb9>
+ .byte 15,133,154,0,0,0 // jne 14cdd <_sk_load_4444_avx+0xb9>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,49,82,2,0 // vbroadcastss 0x25231(%rip),%ymm0 # 398fc <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,24,5,169,86,2,0 // vbroadcastss 0x256a9(%rip),%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,36,82,2,0 // vbroadcastss 0x25224(%rip),%ymm1 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,156,86,2,0 // vbroadcastss 0x2569c(%rip),%ymm1 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,27,82,2,0 // vbroadcastss 0x2521b(%rip),%ymm1 # 39904 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,24,13,147,86,2,0 // vbroadcastss 0x25693(%rip),%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,14,82,2,0 // vbroadcastss 0x2520e(%rip),%ymm2 # 39908 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,134,86,2,0 // vbroadcastss 0x25686(%rip),%ymm2 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,5,82,2,0 // vbroadcastss 0x25205(%rip),%ymm2 # 3990c <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,24,21,125,86,2,0 // vbroadcastss 0x2567d(%rip),%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,248,81,2,0 // vbroadcastss 0x251f8(%rip),%ymm8 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,112,86,2,0 // vbroadcastss 0x25670(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,238,81,2,0 // vbroadcastss 0x251ee(%rip),%ymm8 # 39914 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,24,5,102,86,2,0 // vbroadcastss 0x25666(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,224,81,2,0 // vbroadcastss 0x251e0(%rip),%ymm8 # 39918 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,88,86,2,0 // vbroadcastss 0x25658(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19888,27 +20168,27 @@ _sk_load_4444_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,84,255,255,255 // ja 146ad <_sk_load_4444_avx+0x25>
+ .byte 15,135,84,255,255,255 // ja 14c49 <_sk_load_4444_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 147c8 <_sk_load_4444_avx+0x140>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 14d64 <_sk_load_4444_avx+0x140>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,50,255,255,255 // jmpq 146ad <_sk_load_4444_avx+0x25>
+ .byte 233,50,255,255,255 // jmpq 14c49 <_sk_load_4444_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,21,255,255,255 // jmpq 146ad <_sk_load_4444_avx+0x25>
+ .byte 233,21,255,255,255 // jmpq 14c49 <_sk_load_4444_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,232,254,255,255 // jmpq 146ad <_sk_load_4444_avx+0x25>
+ .byte 233,232,254,255,255 // jmpq 14c49 <_sk_load_4444_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -19944,31 +20224,31 @@ _sk_load_4444_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne 1489d <_sk_load_4444_dst_avx+0xb9>
+ .byte 15,133,154,0,0,0 // jne 14e39 <_sk_load_4444_dst_avx+0xb9>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,252,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm7
- .byte 196,226,125,24,37,213,80,2,0 // vbroadcastss 0x250d5(%rip),%ymm4 # 398fc <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,24,37,77,85,2,0 // vbroadcastss 0x2554d(%rip),%ymm4 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,196,84,228 // vandps %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,200,80,2,0 // vbroadcastss 0x250c8(%rip),%ymm5 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,45,64,85,2,0 // vbroadcastss 0x25540(%rip),%ymm5 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,191,80,2,0 // vbroadcastss 0x250bf(%rip),%ymm5 # 39904 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,24,45,55,85,2,0 // vbroadcastss 0x25537(%rip),%ymm5 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,196,84,237 // vandps %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,178,80,2,0 // vbroadcastss 0x250b2(%rip),%ymm6 # 39908 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,53,42,85,2,0 // vbroadcastss 0x2552a(%rip),%ymm6 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,24,53,169,80,2,0 // vbroadcastss 0x250a9(%rip),%ymm6 # 3990c <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,24,53,33,85,2,0 // vbroadcastss 0x25521(%rip),%ymm6 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,196,84,246 // vandps %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,156,80,2,0 // vbroadcastss 0x2509c(%rip),%ymm8 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,20,85,2,0 // vbroadcastss 0x25514(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,24,5,146,80,2,0 // vbroadcastss 0x25092(%rip),%ymm8 # 39914 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,24,5,10,85,2,0 // vbroadcastss 0x2550a(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,68,84,248 // vandps %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,132,80,2,0 // vbroadcastss 0x25084(%rip),%ymm8 # 39918 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,252,84,2,0 // vbroadcastss 0x254fc(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19977,27 +20257,27 @@ _sk_load_4444_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,84,255,255,255 // ja 14809 <_sk_load_4444_dst_avx+0x25>
+ .byte 15,135,84,255,255,255 // ja 14da5 <_sk_load_4444_dst_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 14924 <_sk_load_4444_dst_avx+0x140>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 14ec0 <_sk_load_4444_dst_avx+0x140>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,50,255,255,255 // jmpq 14809 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,50,255,255,255 // jmpq 14da5 <_sk_load_4444_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,21,255,255,255 // jmpq 14809 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,21,255,255,255 // jmpq 14da5 <_sk_load_4444_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,232,254,255,255 // jmpq 14809 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,232,254,255,255 // jmpq 14da5 <_sk_load_4444_dst_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -20090,25 +20370,25 @@ _sk_gather_4444_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,141,78,2,0 // vbroadcastss 0x24e8d(%rip),%ymm0 # 398fc <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
+ .byte 196,226,125,24,5,5,83,2,0 // vbroadcastss 0x25305(%rip),%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,128,78,2,0 // vbroadcastss 0x24e80(%rip),%ymm1 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
+ .byte 196,226,125,24,13,248,82,2,0 // vbroadcastss 0x252f8(%rip),%ymm1 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,119,78,2,0 // vbroadcastss 0x24e77(%rip),%ymm1 # 39904 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
+ .byte 196,226,125,24,13,239,82,2,0 // vbroadcastss 0x252ef(%rip),%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,106,78,2,0 // vbroadcastss 0x24e6a(%rip),%ymm2 # 39908 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
+ .byte 196,226,125,24,21,226,82,2,0 // vbroadcastss 0x252e2(%rip),%ymm2 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,97,78,2,0 // vbroadcastss 0x24e61(%rip),%ymm2 # 3990c <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
+ .byte 196,226,125,24,21,217,82,2,0 // vbroadcastss 0x252d9(%rip),%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,84,78,2,0 // vbroadcastss 0x24e54(%rip),%ymm8 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
+ .byte 196,98,125,24,5,204,82,2,0 // vbroadcastss 0x252cc(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,74,78,2,0 // vbroadcastss 0x24e4a(%rip),%ymm8 # 39914 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
+ .byte 196,98,125,24,5,194,82,2,0 // vbroadcastss 0x252c2(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,60,78,2,0 // vbroadcastss 0x24e3c(%rip),%ymm8 # 39918 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
+ .byte 196,98,125,24,5,180,82,2,0 // vbroadcastss 0x252b4(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -20129,34 +20409,44 @@ _sk_store_4444_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,16,78,2,0 // vbroadcastss 0x24e10(%rip),%ymm8 # 3991c <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
- .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 196,193,41,114,241,12 // vpslld $0xc,%xmm9,%xmm10
- .byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9
- .byte 196,193,49,114,241,12 // vpslld $0xc,%xmm9,%xmm9
- .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,33,114,242,8 // vpslld $0x8,%xmm10,%xmm11
- .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
- .byte 196,193,41,114,242,8 // vpslld $0x8,%xmm10,%xmm10
- .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10
- .byte 196,65,45,86,201 // vorpd %ymm9,%ymm10,%ymm9
- .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,208 // vmaxps %ymm0,%ymm8,%ymm10
+ .byte 196,98,125,24,13,103,81,2,0 // vbroadcastss 0x25167(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,44,93,209 // vminps %ymm9,%ymm10,%ymm10
+ .byte 196,98,125,24,29,113,82,2,0 // vbroadcastss 0x25271(%rip),%ymm11 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
+ .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,33,114,242,4 // vpslld $0x4,%xmm10,%xmm11
+ .byte 196,193,25,114,242,12 // vpslld $0xc,%xmm10,%xmm12
.byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
- .byte 196,193,41,114,242,4 // vpslld $0x4,%xmm10,%xmm10
- .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10
- .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
+ .byte 196,193,41,114,242,12 // vpslld $0xc,%xmm10,%xmm10
+ .byte 196,67,29,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm12,%ymm10
+ .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
+ .byte 196,65,28,93,225 // vminps %ymm9,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,17,114,244,8 // vpslld $0x8,%xmm12,%xmm13
+ .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12
+ .byte 196,193,25,114,244,8 // vpslld $0x8,%xmm12,%xmm12
+ .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
+ .byte 196,65,29,86,210 // vorpd %ymm10,%ymm12,%ymm10
+ .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12
+ .byte 196,65,28,93,225 // vminps %ymm9,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,17,114,244,4 // vpslld $0x4,%xmm12,%xmm13
+ .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12
+ .byte 196,193,25,114,244,4 // vpslld $0x4,%xmm12,%xmm12
+ .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8
+ .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
+ .byte 196,65,29,86,192 // vorpd %ymm8,%ymm12,%ymm8
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
- .byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 14ba5 <_sk_store_4444_avx+0xb8>
+ .byte 117,10 // jne 15173 <_sk_store_4444_avx+0xea>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20164,42 +20454,41 @@ _sk_store_4444_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 14ba1 <_sk_store_4444_avx+0xb4>
+ .byte 119,236 // ja 1516f <_sk_store_4444_avx+0xe6>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,68,0,0,0 // lea 0x44(%rip),%r10 # 14c04 <_sk_store_4444_avx+0x117>
+ .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # 151d0 <_sk_store_4444_avx+0x147>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp 14ba1 <_sk_store_4444_avx+0xb4>
+ .byte 235,207 // jmp 1516f <_sk_store_4444_avx+0xe6>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp 14ba1 <_sk_store_4444_avx+0xb4>
+ .byte 235,191 // jmp 1516f <_sk_store_4444_avx+0xe6>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp 14ba1 <_sk_store_4444_avx+0xb4>
- .byte 102,144 // xchg %ax,%ax
- .byte 197,255,255 // (bad)
- .byte 255,214 // callq *%rsi
+ .byte 235,159 // jmp 1516f <_sk_store_4444_avx+0xe6>
+ .byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,206 // dec %esi
.byte 255 // (bad)
+ .byte 216,255 // fdivr %st(7),%st
.byte 255 // (bad)
- .byte 255,246 // push %rsi
+ .byte 255,208 // callq *%rax
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 238 // out %al,(%dx)
+ .byte 248 // clc
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,230 // jmpq *%rsi
+ .byte 255,240 // push %rax
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 222,255 // fdivrp %st,%st(7)
+ .byte 232,255,255,255,224 // callq ffffffffe10151e8 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fdb280>
+ .byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -20215,12 +20504,12 @@ _sk_load_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 14cc7 <_sk_load_8888_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 15293 <_sk_load_8888_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,82,81,2,0 // vmovapd 0x25152(%rip),%ymm10 # 39da0 <_sk_srcover_bgra_8888_sse2_lowp+0x84c>
+ .byte 197,125,40,21,166,85,2,0 // vmovapd 0x255a6(%rip),%ymm10 # 3a7c0 <_sk_srcover_bgra_8888_sse2_lowp+0x858>
.byte 196,193,53,84,194 // vandpd %ymm10,%ymm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,28,76,2,0 // vbroadcastss 0x24c1c(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,100,80,2,0 // vbroadcastss 0x25064(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -20247,21 +20536,21 @@ _sk_load_8888_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 14c46 <_sk_load_8888_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 15212 <_sk_load_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 14d7c <_sk_load_8888_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15348 <_sk_load_8888_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 14c46 <_sk_load_8888_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 15212 <_sk_load_8888_avx+0x26>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,129,123,16,4,152 // vmovsd (%r8,%r11,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 14c46 <_sk_load_8888_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 15212 <_sk_load_8888_avx+0x26>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -20275,9 +20564,9 @@ _sk_load_8888_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,129,121,16,4,152 // vmovupd (%r8,%r11,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,203,254,255,255 // jmpq 14c46 <_sk_load_8888_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 15212 <_sk_load_8888_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 14d7d <_sk_load_8888_avx+0x15d>
+ .byte 120,255 // js 15349 <_sk_load_8888_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -20310,12 +20599,12 @@ _sk_load_8888_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 14e3f <_sk_load_8888_dst_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 1540b <_sk_load_8888_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,250,79,2,0 // vmovapd 0x24ffa(%rip),%ymm10 # 39dc0 <_sk_srcover_bgra_8888_sse2_lowp+0x86c>
+ .byte 197,125,40,21,78,84,2,0 // vmovapd 0x2544e(%rip),%ymm10 # 3a7e0 <_sk_srcover_bgra_8888_sse2_lowp+0x878>
.byte 196,193,53,84,226 // vandpd %ymm10,%ymm9,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,164,74,2,0 // vbroadcastss 0x24aa4(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,236,78,2,0 // vbroadcastss 0x24eec(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -20342,21 +20631,21 @@ _sk_load_8888_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 14dbe <_sk_load_8888_dst_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 1538a <_sk_load_8888_dst_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 14ef4 <_sk_load_8888_dst_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 154c0 <_sk_load_8888_dst_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 14dbe <_sk_load_8888_dst_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 1538a <_sk_load_8888_dst_avx+0x26>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 14dbe <_sk_load_8888_dst_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 1538a <_sk_load_8888_dst_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -20370,9 +20659,9 @@ _sk_load_8888_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,203,254,255,255 // jmpq 14dbe <_sk_load_8888_dst_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 1538a <_sk_load_8888_dst_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 14ef5 <_sk_load_8888_dst_avx+0x15d>
+ .byte 120,255 // js 154c1 <_sk_load_8888_dst_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -20450,10 +20739,10 @@ _sk_gather_8888_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,21,204,77,2,0 // vmovaps 0x24dcc(%rip),%ymm10 # 39de0 <_sk_srcover_bgra_8888_sse2_lowp+0x88c>
+ .byte 197,124,40,21,32,82,2,0 // vmovaps 0x25220(%rip),%ymm10 # 3a800 <_sk_srcover_bgra_8888_sse2_lowp+0x898>
.byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,86,72,2,0 // vbroadcastss 0x24856(%rip),%ymm9 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,13,158,76,2,0 // vbroadcastss 0x24c9e(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1
.byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2
@@ -20490,32 +20779,42 @@ _sk_store_8888_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,130,71,2,0 // vbroadcastss 0x24782(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,21,149,75,2,0 // vbroadcastss 0x24b95(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,98,125,24,29,179,75,2,0 // vbroadcastss 0x24bb3(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,33,114,242,8 // vpslld $0x8,%xmm10,%xmm11
- .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
- .byte 196,193,41,114,242,8 // vpslld $0x8,%xmm10,%xmm10
- .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10
- .byte 196,65,45,86,201 // vorpd %ymm9,%ymm10,%ymm9
- .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,33,114,242,16 // vpslld $0x10,%xmm10,%xmm11
- .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
- .byte 196,193,41,114,242,16 // vpslld $0x10,%xmm10,%xmm10
- .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10
- .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
+ .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,17,114,244,8 // vpslld $0x8,%xmm12,%xmm13
+ .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12
+ .byte 196,193,25,114,244,8 // vpslld $0x8,%xmm12,%xmm12
+ .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
+ .byte 196,65,29,86,201 // vorpd %ymm9,%ymm12,%ymm9
+ .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,17,114,244,16 // vpslld $0x10,%xmm12,%xmm13
+ .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12
+ .byte 196,193,25,114,244,16 // vpslld $0x10,%xmm12,%xmm12
+ .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,193,33,114,240,24 // vpslld $0x18,%xmm8,%xmm11
+ .byte 196,193,41,114,240,24 // vpslld $0x18,%xmm8,%xmm10
.byte 196,67,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm8
.byte 196,193,57,114,240,24 // vpslld $0x18,%xmm8,%xmm8
- .byte 196,67,37,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm11,%ymm8
- .byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
+ .byte 196,67,45,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm10,%ymm8
+ .byte 196,65,29,86,192 // vorpd %ymm8,%ymm12,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1513c <_sk_store_8888_avx+0xae>
+ .byte 117,10 // jne 1573a <_sk_store_8888_avx+0xe0>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20523,17 +20822,17 @@ _sk_store_8888_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 15138 <_sk_store_8888_avx+0xaa>
+ .byte 119,236 // ja 15736 <_sk_store_8888_avx+0xdc>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 151ac <_sk_store_8888_avx+0x11e>
+ .byte 76,141,21,83,0,0,0 // lea 0x53(%rip),%r10 # 157a8 <_sk_store_8888_avx+0x14e>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp 15138 <_sk_store_8888_avx+0xaa>
+ .byte 235,208 // jmp 15736 <_sk_store_8888_avx+0xdc>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp 15138 <_sk_store_8888_avx+0xaa>
+ .byte 235,192 // jmp 15736 <_sk_store_8888_avx+0xdc>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -20541,22 +20840,25 @@ _sk_store_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp 15138 <_sk_store_8888_avx+0xaa>
- .byte 15,31,0 // nopl (%rax)
- .byte 180,255 // mov $0xff,%ah
+ .byte 235,143 // jmp 15736 <_sk_store_8888_avx+0xdc>
+ .byte 144 // nop
+ .byte 182,255 // mov $0xff,%dh
.byte 255 // (bad)
- .byte 255,196 // inc %esp
+ .byte 255,198 // inc %esi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 188,255,255,255,245 // mov $0xf5ffffff,%esp
+ .byte 190,255,255,255,247 // mov $0xf7ffffff,%esi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,218 // callq ffffffffdb0151c0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdafdbc6c>
+ .byte 234 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,204 // dec %esp
+ .byte 255 // (bad)
+ .byte 220,255 // fdivr %st,%st(7)
+ .byte 255 // (bad)
+ .byte 255,206 // dec %esi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -20573,12 +20875,12 @@ _sk_load_bgra_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 1526f <_sk_load_bgra_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 1586b <_sk_load_bgra_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,10,76,2,0 // vmovapd 0x24c0a(%rip),%ymm10 # 39e00 <_sk_srcover_bgra_8888_sse2_lowp+0x8ac>
+ .byte 197,125,40,21,46,80,2,0 // vmovapd 0x2502e(%rip),%ymm10 # 3a820 <_sk_srcover_bgra_8888_sse2_lowp+0x8b8>
.byte 196,193,53,84,202 // vandpd %ymm10,%ymm9,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,98,125,24,5,116,70,2,0 // vbroadcastss 0x24674(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,140,74,2,0 // vbroadcastss 0x24a8c(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,116,89,208 // vmulps %ymm8,%ymm1,%ymm2
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -20605,21 +20907,21 @@ _sk_load_bgra_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 151ee <_sk_load_bgra_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 157ea <_sk_load_bgra_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15324 <_sk_load_bgra_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15920 <_sk_load_bgra_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 151ee <_sk_load_bgra_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 157ea <_sk_load_bgra_avx+0x26>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,129,123,16,4,152 // vmovsd (%r8,%r11,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 151ee <_sk_load_bgra_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 157ea <_sk_load_bgra_avx+0x26>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -20633,9 +20935,9 @@ _sk_load_bgra_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,129,121,16,4,152 // vmovupd (%r8,%r11,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,203,254,255,255 // jmpq 151ee <_sk_load_bgra_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 157ea <_sk_load_bgra_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 15325 <_sk_load_bgra_avx+0x15d>
+ .byte 120,255 // js 15921 <_sk_load_bgra_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -20668,12 +20970,12 @@ _sk_load_bgra_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 153e7 <_sk_load_bgra_dst_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 159e3 <_sk_load_bgra_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,178,74,2,0 // vmovapd 0x24ab2(%rip),%ymm10 # 39e20 <_sk_srcover_bgra_8888_sse2_lowp+0x8cc>
+ .byte 197,125,40,21,214,78,2,0 // vmovapd 0x24ed6(%rip),%ymm10 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x8d8>
.byte 196,193,53,84,234 // vandpd %ymm10,%ymm9,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,98,125,24,5,252,68,2,0 // vbroadcastss 0x244fc(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,5,20,73,2,0 // vbroadcastss 0x24914(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,84,89,240 // vmulps %ymm8,%ymm5,%ymm6
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -20700,21 +21002,21 @@ _sk_load_bgra_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 15366 <_sk_load_bgra_dst_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 15962 <_sk_load_bgra_dst_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 1549c <_sk_load_bgra_dst_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15a98 <_sk_load_bgra_dst_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 15366 <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 15962 <_sk_load_bgra_dst_avx+0x26>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 15366 <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 15962 <_sk_load_bgra_dst_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -20728,9 +21030,9 @@ _sk_load_bgra_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,203,254,255,255 // jmpq 15366 <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 15962 <_sk_load_bgra_dst_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 1549d <_sk_load_bgra_dst_avx+0x15d>
+ .byte 120,255 // js 15a99 <_sk_load_bgra_dst_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -20808,10 +21110,10 @@ _sk_gather_bgra_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,13,132,72,2,0 // vmovaps 0x24884(%rip),%ymm9 # 39e40 <_sk_srcover_bgra_8888_sse2_lowp+0x8ec>
+ .byte 197,124,40,13,168,76,2,0 // vmovaps 0x24ca8(%rip),%ymm9 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x8f8>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,174,66,2,0 // vbroadcastss 0x242ae(%rip),%ymm10 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328>
+ .byte 196,98,125,24,21,198,70,2,0 // vbroadcastss 0x246c6(%rip),%ymm10 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
.byte 196,193,124,89,210 // vmulps %ymm10,%ymm0,%ymm2
.byte 196,193,121,114,208,8 // vpsrld $0x8,%xmm8,%xmm0
.byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1
@@ -20848,32 +21150,42 @@ _sk_store_bgra_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,218,65,2,0 // vbroadcastss 0x241da(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9
+ .byte 196,98,125,24,21,189,69,2,0 // vbroadcastss 0x245bd(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,98,125,24,29,219,69,2,0 // vbroadcastss 0x245db(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,33,114,242,8 // vpslld $0x8,%xmm10,%xmm11
- .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
- .byte 196,193,41,114,242,8 // vpslld $0x8,%xmm10,%xmm10
- .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10
- .byte 196,65,45,86,201 // vorpd %ymm9,%ymm10,%ymm9
- .byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,33,114,242,16 // vpslld $0x10,%xmm10,%xmm11
- .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
- .byte 196,193,41,114,242,16 // vpslld $0x10,%xmm10,%xmm10
- .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10
- .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
+ .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,17,114,244,8 // vpslld $0x8,%xmm12,%xmm13
+ .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12
+ .byte 196,193,25,114,244,8 // vpslld $0x8,%xmm12,%xmm12
+ .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
+ .byte 196,65,29,86,201 // vorpd %ymm9,%ymm12,%ymm9
+ .byte 197,60,95,224 // vmaxps %ymm0,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,193,17,114,244,16 // vpslld $0x10,%xmm12,%xmm13
+ .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12
+ .byte 196,193,25,114,244,16 // vpslld $0x10,%xmm12,%xmm12
+ .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,193,33,114,240,24 // vpslld $0x18,%xmm8,%xmm11
+ .byte 196,193,41,114,240,24 // vpslld $0x18,%xmm8,%xmm10
.byte 196,67,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm8
.byte 196,193,57,114,240,24 // vpslld $0x18,%xmm8,%xmm8
- .byte 196,67,37,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm11,%ymm8
- .byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
+ .byte 196,67,45,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm10,%ymm8
+ .byte 196,65,29,86,192 // vorpd %ymm8,%ymm12,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 156e4 <_sk_store_bgra_avx+0xae>
+ .byte 117,10 // jne 15d12 <_sk_store_bgra_avx+0xe0>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20881,17 +21193,17 @@ _sk_store_bgra_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 156e0 <_sk_store_bgra_avx+0xaa>
+ .byte 119,236 // ja 15d0e <_sk_store_bgra_avx+0xdc>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 15754 <_sk_store_bgra_avx+0x11e>
+ .byte 76,141,21,83,0,0,0 // lea 0x53(%rip),%r10 # 15d80 <_sk_store_bgra_avx+0x14e>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp 156e0 <_sk_store_bgra_avx+0xaa>
+ .byte 235,208 // jmp 15d0e <_sk_store_bgra_avx+0xdc>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp 156e0 <_sk_store_bgra_avx+0xaa>
+ .byte 235,192 // jmp 15d0e <_sk_store_bgra_avx+0xdc>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -20899,22 +21211,25 @@ _sk_store_bgra_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp 156e0 <_sk_store_bgra_avx+0xaa>
- .byte 15,31,0 // nopl (%rax)
- .byte 180,255 // mov $0xff,%ah
+ .byte 235,143 // jmp 15d0e <_sk_store_bgra_avx+0xdc>
+ .byte 144 // nop
+ .byte 182,255 // mov $0xff,%dh
.byte 255 // (bad)
- .byte 255,196 // inc %esp
+ .byte 255,198 // inc %esi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 188,255,255,255,245 // mov $0xf5ffffff,%esp
+ .byte 190,255,255,255,247 // mov $0xf7ffffff,%esi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,218 // callq ffffffffdb015768 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdafdc214>
+ .byte 234 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,204 // dec %esp
+ .byte 255 // (bad)
+ .byte 220,255 // fdivr %st,%st(7)
+ .byte 255 // (bad)
+ .byte 255,206 // dec %esi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -20936,7 +21251,7 @@ _sk_load_f16_avx:
.byte 197,252,17,116,36,192 // vmovups %ymm6,-0x40(%rsp)
.byte 197,252,17,108,36,160 // vmovups %ymm5,-0x60(%rsp)
.byte 197,252,17,100,36,128 // vmovups %ymm4,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne 159cb <_sk_load_f16_avx+0x25b>
+ .byte 15,133,31,2,0,0 // jne 15ff7 <_sk_load_f16_avx+0x25b>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,92,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm3
@@ -20953,14 +21268,14 @@ _sk_load_f16_avx:
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,21,99,81,2,0 // vmovddup 0x25163(%rip),%xmm10 # 3a968 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
+ .byte 197,123,18,21,87,85,2,0 // vmovddup 0x25557(%rip),%xmm10 # 3b388 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
.byte 196,193,121,219,218 // vpand %xmm10,%xmm0,%xmm3
- .byte 196,98,121,24,29,121,65,2,0 // vbroadcastss 0x24179(%rip),%xmm11 # 3998c <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 196,98,121,24,29,97,69,2,0 // vbroadcastss 0x24561(%rip),%xmm11 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
.byte 197,33,102,227 // vpcmpgtd %xmm3,%xmm11,%xmm12
.byte 196,193,113,219,210 // vpand %xmm10,%xmm1,%xmm2
.byte 197,33,102,234 // vpcmpgtd %xmm2,%xmm11,%xmm13
.byte 196,195,21,24,252,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm7
- .byte 197,123,18,37,66,81,2,0 // vmovddup 0x25142(%rip),%xmm12 # 3a970 <_sk_srcover_bgra_8888_sse2_lowp+0x141c>
+ .byte 197,123,18,37,54,85,2,0 // vmovddup 0x25536(%rip),%xmm12 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
.byte 196,193,113,219,204 // vpand %xmm12,%xmm1,%xmm1
.byte 197,241,114,241,16 // vpslld $0x10,%xmm1,%xmm1
.byte 196,193,121,219,196 // vpand %xmm12,%xmm0,%xmm0
@@ -20969,7 +21284,7 @@ _sk_load_f16_avx:
.byte 197,241,235,202 // vpor %xmm2,%xmm1,%xmm1
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,51,65,2,0 // vbroadcastss 0x24133(%rip),%xmm3 # 39990 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
+ .byte 196,226,121,24,29,27,69,2,0 // vbroadcastss 0x2451b(%rip),%xmm3 # 3a3a4 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -21048,29 +21363,29 @@ _sk_load_f16_avx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 15a31 <_sk_load_f16_avx+0x2c1>
+ .byte 116,85 // je 1605d <_sk_load_f16_avx+0x2c1>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 15a31 <_sk_load_f16_avx+0x2c1>
+ .byte 114,72 // jb 1605d <_sk_load_f16_avx+0x2c1>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 15a3e <_sk_load_f16_avx+0x2ce>
+ .byte 116,72 // je 1606a <_sk_load_f16_avx+0x2ce>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 15a3e <_sk_load_f16_avx+0x2ce>
+ .byte 114,59 // jb 1606a <_sk_load_f16_avx+0x2ce>
.byte 196,193,123,16,92,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je 157c7 <_sk_load_f16_avx+0x57>
+ .byte 15,132,179,253,255,255 // je 15df3 <_sk_load_f16_avx+0x57>
.byte 196,193,97,22,92,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb 157c7 <_sk_load_f16_avx+0x57>
+ .byte 15,130,162,253,255,255 // jb 15df3 <_sk_load_f16_avx+0x57>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,150,253,255,255 // jmpq 157c7 <_sk_load_f16_avx+0x57>
+ .byte 233,150,253,255,255 // jmpq 15df3 <_sk_load_f16_avx+0x57>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,137,253,255,255 // jmpq 157c7 <_sk_load_f16_avx+0x57>
+ .byte 233,137,253,255,255 // jmpq 15df3 <_sk_load_f16_avx+0x57>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,128,253,255,255 // jmpq 157c7 <_sk_load_f16_avx+0x57>
+ .byte 233,128,253,255,255 // jmpq 15df3 <_sk_load_f16_avx+0x57>
HIDDEN _sk_load_f16_dst_avx
.globl _sk_load_f16_dst_avx
@@ -21089,7 +21404,7 @@ _sk_load_f16_dst_avx:
.byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp)
.byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp)
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne 15ca2 <_sk_load_f16_dst_avx+0x25b>
+ .byte 15,133,31,2,0,0 // jne 162ce <_sk_load_f16_dst_avx+0x25b>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,124,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm7
@@ -21106,14 +21421,14 @@ _sk_load_f16_dst_avx:
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
- .byte 197,123,18,21,140,78,2,0 // vmovddup 0x24e8c(%rip),%xmm10 # 3a968 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
+ .byte 197,123,18,21,128,82,2,0 // vmovddup 0x25280(%rip),%xmm10 # 3b388 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
.byte 196,193,89,219,250 // vpand %xmm10,%xmm4,%xmm7
- .byte 196,98,121,24,29,162,62,2,0 // vbroadcastss 0x23ea2(%rip),%xmm11 # 3998c <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 196,98,121,24,29,138,66,2,0 // vbroadcastss 0x2428a(%rip),%xmm11 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
.byte 197,33,102,231 // vpcmpgtd %xmm7,%xmm11,%xmm12
.byte 196,193,81,219,242 // vpand %xmm10,%xmm5,%xmm6
.byte 197,33,102,238 // vpcmpgtd %xmm6,%xmm11,%xmm13
.byte 196,195,21,24,220,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm3
- .byte 197,123,18,37,107,78,2,0 // vmovddup 0x24e6b(%rip),%xmm12 # 3a970 <_sk_srcover_bgra_8888_sse2_lowp+0x141c>
+ .byte 197,123,18,37,95,82,2,0 // vmovddup 0x2525f(%rip),%xmm12 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
.byte 196,193,81,219,236 // vpand %xmm12,%xmm5,%xmm5
.byte 197,209,114,245,16 // vpslld $0x10,%xmm5,%xmm5
.byte 196,193,89,219,228 // vpand %xmm12,%xmm4,%xmm4
@@ -21122,7 +21437,7 @@ _sk_load_f16_dst_avx:
.byte 197,209,235,238 // vpor %xmm6,%xmm5,%xmm5
.byte 197,201,114,247,13 // vpslld $0xd,%xmm7,%xmm6
.byte 197,217,235,230 // vpor %xmm6,%xmm4,%xmm4
- .byte 196,226,121,24,61,92,62,2,0 // vbroadcastss 0x23e5c(%rip),%xmm7 # 39990 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
+ .byte 196,226,121,24,61,68,66,2,0 // vbroadcastss 0x24244(%rip),%xmm7 # 3a3a4 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
.byte 197,217,254,231 // vpaddd %xmm7,%xmm4,%xmm4
.byte 197,209,254,239 // vpaddd %xmm7,%xmm5,%xmm5
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
@@ -21201,29 +21516,29 @@ _sk_load_f16_dst_avx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 15d08 <_sk_load_f16_dst_avx+0x2c1>
+ .byte 116,85 // je 16334 <_sk_load_f16_dst_avx+0x2c1>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 15d08 <_sk_load_f16_dst_avx+0x2c1>
+ .byte 114,72 // jb 16334 <_sk_load_f16_dst_avx+0x2c1>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 15d15 <_sk_load_f16_dst_avx+0x2ce>
+ .byte 116,72 // je 16341 <_sk_load_f16_dst_avx+0x2ce>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 15d15 <_sk_load_f16_dst_avx+0x2ce>
+ .byte 114,59 // jb 16341 <_sk_load_f16_dst_avx+0x2ce>
.byte 196,193,123,16,124,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm7
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je 15a9e <_sk_load_f16_dst_avx+0x57>
+ .byte 15,132,179,253,255,255 // je 160ca <_sk_load_f16_dst_avx+0x57>
.byte 196,193,65,22,124,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm7,%xmm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb 15a9e <_sk_load_f16_dst_avx+0x57>
+ .byte 15,130,162,253,255,255 // jb 160ca <_sk_load_f16_dst_avx+0x57>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,150,253,255,255 // jmpq 15a9e <_sk_load_f16_dst_avx+0x57>
+ .byte 233,150,253,255,255 // jmpq 160ca <_sk_load_f16_dst_avx+0x57>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,137,253,255,255 // jmpq 15a9e <_sk_load_f16_dst_avx+0x57>
+ .byte 233,137,253,255,255 // jmpq 160ca <_sk_load_f16_dst_avx+0x57>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,128,253,255,255 // jmpq 15a9e <_sk_load_f16_dst_avx+0x57>
+ .byte 233,128,253,255,255 // jmpq 160ca <_sk_load_f16_dst_avx+0x57>
HIDDEN _sk_gather_f16_avx
.globl _sk_gather_f16_avx
@@ -21302,14 +21617,14 @@ _sk_gather_f16_avx:
.byte 196,226,121,51,208 // vpmovzxwd %xmm0,%xmm2
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,29,242,74,2,0 // vmovddup 0x24af2(%rip),%xmm11 # 3a968 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
+ .byte 197,123,18,29,230,78,2,0 // vmovddup 0x24ee6(%rip),%xmm11 # 3b388 <_sk_srcover_bgra_8888_sse2_lowp+0x1420>
.byte 196,193,121,219,219 // vpand %xmm11,%xmm0,%xmm3
- .byte 196,98,121,24,37,8,59,2,0 // vbroadcastss 0x23b08(%rip),%xmm12 # 3998c <_sk_srcover_bgra_8888_sse2_lowp+0x438>
+ .byte 196,98,121,24,37,240,62,2,0 // vbroadcastss 0x23ef0(%rip),%xmm12 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
.byte 197,25,102,235 // vpcmpgtd %xmm3,%xmm12,%xmm13
.byte 196,193,105,219,203 // vpand %xmm11,%xmm2,%xmm1
.byte 197,25,102,193 // vpcmpgtd %xmm1,%xmm12,%xmm8
.byte 196,67,61,24,197,1 // vinsertf128 $0x1,%xmm13,%ymm8,%ymm8
- .byte 197,123,18,45,209,74,2,0 // vmovddup 0x24ad1(%rip),%xmm13 # 3a970 <_sk_srcover_bgra_8888_sse2_lowp+0x141c>
+ .byte 197,123,18,45,197,78,2,0 // vmovddup 0x24ec5(%rip),%xmm13 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
.byte 196,193,105,219,213 // vpand %xmm13,%xmm2,%xmm2
.byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2
.byte 197,241,114,241,13 // vpslld $0xd,%xmm1,%xmm1
@@ -21318,7 +21633,7 @@ _sk_gather_f16_avx:
.byte 197,249,114,240,16 // vpslld $0x10,%xmm0,%xmm0
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,194,58,2,0 // vbroadcastss 0x23ac2(%rip),%xmm3 # 39990 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
+ .byte 196,226,121,24,29,170,62,2,0 // vbroadcastss 0x23eaa(%rip),%xmm3 # 3a3a4 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -21408,12 +21723,12 @@ _sk_store_f16_avx:
.byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp)
.byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
- .byte 196,98,125,24,5,228,56,2,0 // vbroadcastss 0x238e4(%rip),%ymm8 # 3994c <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,5,204,60,2,0 // vbroadcastss 0x23ccc(%rip),%ymm8 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,65,124,84,216 // vandps %ymm8,%ymm0,%ymm11
- .byte 196,98,125,24,21,30,57,2,0 // vbroadcastss 0x2391e(%rip),%ymm10 # 39994 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
+ .byte 196,98,125,24,21,6,61,2,0 // vbroadcastss 0x23d06(%rip),%ymm10 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 196,65,124,84,226 // vandps %ymm10,%ymm0,%ymm12
.byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13
- .byte 196,98,121,24,13,14,57,2,0 // vbroadcastss 0x2390e(%rip),%xmm9 # 39998 <_sk_srcover_bgra_8888_sse2_lowp+0x444>
+ .byte 196,98,121,24,13,246,60,2,0 // vbroadcastss 0x23cf6(%rip),%xmm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x444>
.byte 196,65,49,102,245 // vpcmpgtd %xmm13,%xmm9,%xmm14
.byte 196,65,49,102,252 // vpcmpgtd %xmm12,%xmm9,%xmm15
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
@@ -21424,7 +21739,7 @@ _sk_store_f16_avx:
.byte 196,65,17,254,239 // vpaddd %xmm15,%xmm13,%xmm13
.byte 196,193,25,114,212,13 // vpsrld $0xd,%xmm12,%xmm12
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
- .byte 196,98,121,24,29,209,56,2,0 // vbroadcastss 0x238d1(%rip),%xmm11 # 3999c <_sk_srcover_bgra_8888_sse2_lowp+0x448>
+ .byte 196,98,121,24,29,185,60,2,0 // vbroadcastss 0x23cb9(%rip),%xmm11 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x448>
.byte 196,65,17,254,235 // vpaddd %xmm11,%xmm13,%xmm13
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
.byte 196,67,29,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm12,%ymm13
@@ -21507,7 +21822,7 @@ _sk_store_f16_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 162a2 <_sk_store_f16_avx+0x262>
+ .byte 117,68 // jne 168ce <_sk_store_f16_avx+0x262>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -21523,22 +21838,22 @@ _sk_store_f16_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,203 // je 16279 <_sk_store_f16_avx+0x239>
+ .byte 116,203 // je 168a5 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,190 // jb 16279 <_sk_store_f16_avx+0x239>
+ .byte 114,190 // jb 168a5 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,181 // je 16279 <_sk_store_f16_avx+0x239>
+ .byte 116,181 // je 168a5 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,168 // jb 16279 <_sk_store_f16_avx+0x239>
+ .byte 114,168 // jb 168a5 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,159 // je 16279 <_sk_store_f16_avx+0x239>
+ .byte 116,159 // je 168a5 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,146 // jb 16279 <_sk_store_f16_avx+0x239>
+ .byte 114,146 // jb 168a5 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,137 // jmp 16279 <_sk_store_f16_avx+0x239>
+ .byte 235,137 // jmp 168a5 <_sk_store_f16_avx+0x239>
HIDDEN _sk_load_u16_be_avx
.globl _sk_load_u16_be_avx
@@ -21553,7 +21868,7 @@ _sk_load_u16_be_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,12,1,0,0 // jne 16423 <_sk_load_u16_be_avx+0x133>
+ .byte 15,133,12,1,0,0 // jne 16a4f <_sk_load_u16_be_avx+0x133>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -21575,7 +21890,7 @@ _sk_load_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,16,53,2,0 // vbroadcastss 0x23510(%rip),%ymm9 # 39898 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,248,56,2,0 // vbroadcastss 0x238f8(%rip),%ymm9 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,169,109,202 // vpunpckhqdq %xmm2,%xmm10,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -21612,29 +21927,29 @@ _sk_load_u16_be_avx:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 16489 <_sk_load_u16_be_avx+0x199>
+ .byte 116,85 // je 16ab5 <_sk_load_u16_be_avx+0x199>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 16489 <_sk_load_u16_be_avx+0x199>
+ .byte 114,72 // jb 16ab5 <_sk_load_u16_be_avx+0x199>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 16496 <_sk_load_u16_be_avx+0x1a6>
+ .byte 116,72 // je 16ac2 <_sk_load_u16_be_avx+0x1a6>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 16496 <_sk_load_u16_be_avx+0x1a6>
+ .byte 114,59 // jb 16ac2 <_sk_load_u16_be_avx+0x1a6>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,198,254,255,255 // je 16332 <_sk_load_u16_be_avx+0x42>
+ .byte 15,132,198,254,255,255 // je 1695e <_sk_load_u16_be_avx+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,181,254,255,255 // jb 16332 <_sk_load_u16_be_avx+0x42>
+ .byte 15,130,181,254,255,255 // jb 1695e <_sk_load_u16_be_avx+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,169,254,255,255 // jmpq 16332 <_sk_load_u16_be_avx+0x42>
+ .byte 233,169,254,255,255 // jmpq 1695e <_sk_load_u16_be_avx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,156,254,255,255 // jmpq 16332 <_sk_load_u16_be_avx+0x42>
+ .byte 233,156,254,255,255 // jmpq 1695e <_sk_load_u16_be_avx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,147,254,255,255 // jmpq 16332 <_sk_load_u16_be_avx+0x42>
+ .byte 233,147,254,255,255 // jmpq 1695e <_sk_load_u16_be_avx+0x42>
HIDDEN _sk_load_rgb_u16_be_avx
.globl _sk_load_rgb_u16_be_avx
@@ -21651,7 +21966,7 @@ _sk_load_rgb_u16_be_avx:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,253,0,0,0 // jne 165c7 <_sk_load_rgb_u16_be_avx+0x128>
+ .byte 15,133,253,0,0,0 // jne 16bf3 <_sk_load_rgb_u16_be_avx+0x128>
.byte 196,65,122,111,28,64 // vmovdqu (%r8,%rax,2),%xmm11
.byte 196,193,122,111,92,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm3
.byte 196,193,122,111,84,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm2
@@ -21679,7 +21994,7 @@ _sk_load_rgb_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,63,51,2,0 // vbroadcastss 0x2333f(%rip),%ymm9 # 39898 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
+ .byte 196,98,125,24,13,39,55,2,0 // vbroadcastss 0x23727(%rip),%ymm9 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -21701,69 +22016,69 @@ _sk_load_rgb_u16_be_avx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,63,50,2,0 // vbroadcastss 0x2323f(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,39,54,2,0 // vbroadcastss 0x23627(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 165ff <_sk_load_rgb_u16_be_avx+0x160>
+ .byte 117,31 // jne 16c2b <_sk_load_rgb_u16_be_avx+0x160>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,0,255,255,255 // jmpq 164ff <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,0,255,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 16649 <_sk_load_rgb_u16_be_avx+0x1aa>
+ .byte 114,48 // jb 16c75 <_sk_load_rgb_u16_be_avx+0x1aa>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 16663 <_sk_load_rgb_u16_be_avx+0x1c4>
+ .byte 117,48 // jne 16c8f <_sk_load_rgb_u16_be_avx+0x1c4>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,182,254,255,255 // jmpq 164ff <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,182,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,156,254,255,255 // jmpq 164ff <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,156,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 166a4 <_sk_load_rgb_u16_be_avx+0x205>
+ .byte 114,39 // jb 16cd0 <_sk_load_rgb_u16_be_avx+0x205>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 166b5 <_sk_load_rgb_u16_be_avx+0x216>
+ .byte 117,30 // jne 16ce1 <_sk_load_rgb_u16_be_avx+0x216>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,91,254,255,255 // jmpq 164ff <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,91,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,74,254,255,255 // jmpq 164ff <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,74,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 166e8 <_sk_load_rgb_u16_be_avx+0x249>
+ .byte 114,25 // jb 16d14 <_sk_load_rgb_u16_be_avx+0x249>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,23,254,255,255 // jmpq 164ff <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,23,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,14,254,255,255 // jmpq 164ff <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,14,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60>
HIDDEN _sk_store_u16_be_avx
.globl _sk_store_u16_be_avx
@@ -21777,45 +22092,55 @@ _sk_store_u16_be_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,8,50,2,0 // vbroadcastss 0x23208(%rip),%ymm8 # 39920 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
- .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
+ .byte 196,98,125,24,21,203,52,2,0 // vbroadcastss 0x234cb(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
+ .byte 196,98,125,24,29,217,53,2,0 // vbroadcastss 0x235d9(%rip),%ymm11 # 3a334 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
+ .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
- .byte 196,66,49,43,202 // vpackusdw %xmm10,%xmm9,%xmm9
- .byte 196,193,41,113,241,8 // vpsllw $0x8,%xmm9,%xmm10
+ .byte 196,67,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm12
+ .byte 196,66,49,43,204 // vpackusdw %xmm12,%xmm9,%xmm9
+ .byte 196,193,25,113,241,8 // vpsllw $0x8,%xmm9,%xmm12
.byte 196,193,49,113,209,8 // vpsrlw $0x8,%xmm9,%xmm9
- .byte 196,65,41,235,201 // vpor %xmm9,%xmm10,%xmm9
- .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,67,125,25,211,1 // vextractf128 $0x1,%ymm10,%xmm11
- .byte 196,66,41,43,211 // vpackusdw %xmm11,%xmm10,%xmm10
- .byte 196,193,33,113,242,8 // vpsllw $0x8,%xmm10,%xmm11
- .byte 196,193,41,113,210,8 // vpsrlw $0x8,%xmm10,%xmm10
- .byte 196,65,33,235,210 // vpor %xmm10,%xmm11,%xmm10
- .byte 196,65,108,89,216 // vmulps %ymm8,%ymm2,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,67,125,25,220,1 // vextractf128 $0x1,%ymm11,%xmm12
- .byte 196,66,33,43,220 // vpackusdw %xmm12,%xmm11,%xmm11
- .byte 196,193,25,113,243,8 // vpsllw $0x8,%xmm11,%xmm12
- .byte 196,193,33,113,211,8 // vpsrlw $0x8,%xmm11,%xmm11
- .byte 196,65,25,235,219 // vpor %xmm11,%xmm12,%xmm11
- .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
+ .byte 196,65,25,235,201 // vpor %xmm9,%xmm12,%xmm9
+ .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
+ .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
+ .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
+ .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
+ .byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13
+ .byte 196,66,25,43,229 // vpackusdw %xmm13,%xmm12,%xmm12
+ .byte 196,193,17,113,244,8 // vpsllw $0x8,%xmm12,%xmm13
+ .byte 196,193,25,113,212,8 // vpsrlw $0x8,%xmm12,%xmm12
+ .byte 196,65,17,235,228 // vpor %xmm12,%xmm13,%xmm12
+ .byte 197,60,95,234 // vmaxps %ymm2,%ymm8,%ymm13
+ .byte 196,65,20,93,234 // vminps %ymm10,%ymm13,%ymm13
+ .byte 196,65,20,89,235 // vmulps %ymm11,%ymm13,%ymm13
+ .byte 196,65,125,91,237 // vcvtps2dq %ymm13,%ymm13
+ .byte 196,67,125,25,238,1 // vextractf128 $0x1,%ymm13,%xmm14
+ .byte 196,66,17,43,238 // vpackusdw %xmm14,%xmm13,%xmm13
+ .byte 196,193,9,113,245,8 // vpsllw $0x8,%xmm13,%xmm14
+ .byte 196,193,17,113,213,8 // vpsrlw $0x8,%xmm13,%xmm13
+ .byte 196,65,9,235,237 // vpor %xmm13,%xmm14,%xmm13
+ .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
+ .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
+ .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,67,125,25,196,1 // vextractf128 $0x1,%ymm8,%xmm12
- .byte 196,66,57,43,196 // vpackusdw %xmm12,%xmm8,%xmm8
- .byte 196,193,25,113,240,8 // vpsllw $0x8,%xmm8,%xmm12
+ .byte 196,67,125,25,194,1 // vextractf128 $0x1,%ymm8,%xmm10
+ .byte 196,66,57,43,194 // vpackusdw %xmm10,%xmm8,%xmm8
+ .byte 196,193,41,113,240,8 // vpsllw $0x8,%xmm8,%xmm10
.byte 196,193,57,113,208,8 // vpsrlw $0x8,%xmm8,%xmm8
- .byte 196,65,25,235,192 // vpor %xmm8,%xmm12,%xmm8
- .byte 196,65,49,97,226 // vpunpcklwd %xmm10,%xmm9,%xmm12
- .byte 196,65,49,105,234 // vpunpckhwd %xmm10,%xmm9,%xmm13
- .byte 196,65,33,97,200 // vpunpcklwd %xmm8,%xmm11,%xmm9
- .byte 196,65,33,105,192 // vpunpckhwd %xmm8,%xmm11,%xmm8
- .byte 196,65,25,98,217 // vpunpckldq %xmm9,%xmm12,%xmm11
- .byte 196,65,25,106,209 // vpunpckhdq %xmm9,%xmm12,%xmm10
- .byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
- .byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
+ .byte 196,65,41,235,192 // vpor %xmm8,%xmm10,%xmm8
+ .byte 196,65,49,97,212 // vpunpcklwd %xmm12,%xmm9,%xmm10
+ .byte 196,65,49,105,228 // vpunpckhwd %xmm12,%xmm9,%xmm12
+ .byte 196,65,17,97,200 // vpunpcklwd %xmm8,%xmm13,%xmm9
+ .byte 196,65,17,105,192 // vpunpckhwd %xmm8,%xmm13,%xmm8
+ .byte 196,65,41,98,217 // vpunpckldq %xmm9,%xmm10,%xmm11
+ .byte 196,65,41,106,209 // vpunpckhdq %xmm9,%xmm10,%xmm10
+ .byte 196,65,25,98,200 // vpunpckldq %xmm8,%xmm12,%xmm9
+ .byte 196,65,25,106,192 // vpunpckhdq %xmm8,%xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 167fc <_sk_store_u16_be_avx+0x10b>
+ .byte 117,31 // jne 16e5a <_sk_store_u16_be_avx+0x13d>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -21824,22 +22149,22 @@ _sk_store_u16_be_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 167f8 <_sk_store_u16_be_avx+0x107>
+ .byte 116,240 // je 16e56 <_sk_store_u16_be_avx+0x139>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 167f8 <_sk_store_u16_be_avx+0x107>
+ .byte 114,227 // jb 16e56 <_sk_store_u16_be_avx+0x139>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je 167f8 <_sk_store_u16_be_avx+0x107>
+ .byte 116,218 // je 16e56 <_sk_store_u16_be_avx+0x139>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 167f8 <_sk_store_u16_be_avx+0x107>
+ .byte 114,205 // jb 16e56 <_sk_store_u16_be_avx+0x139>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je 167f8 <_sk_store_u16_be_avx+0x107>
+ .byte 116,196 // je 16e56 <_sk_store_u16_be_avx+0x139>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 167f8 <_sk_store_u16_be_avx+0x107>
+ .byte 114,183 // jb 16e56 <_sk_store_u16_be_avx+0x139>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp 167f8 <_sk_store_u16_be_avx+0x107>
+ .byte 235,174 // jmp 16e56 <_sk_store_u16_be_avx+0x139>
HIDDEN _sk_load_f32_avx
.globl _sk_load_f32_avx
@@ -21848,7 +22173,7 @@ _sk_load_f32_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja 169bb <_sk_load_f32_avx+0x171>
+ .byte 15,135,97,1,0,0 // ja 17019 <_sk_load_f32_avx+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
.byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
@@ -21861,7 +22186,7 @@ _sk_load_f32_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # 169cc <_sk_load_f32_avx+0x182>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 17028 <_sk_load_f32_avx+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
@@ -21924,19 +22249,21 @@ _sk_load_f32_avx:
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp 16995 <_sk_load_f32_avx+0x14b>
- .byte 102,144 // xchg %ax,%ax
- .byte 27,255 // sbb %edi,%edi
+ .byte 235,203 // jmp 16ff3 <_sk_load_f32_avx+0x14b>
+ .byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
- .byte 255,161,255,255,255,140 // jmpq *-0x73000001(%rcx)
.byte 255 // (bad)
+ .byte 255,142,255,255,255,121 // decl 0x79ffffff(%rsi)
.byte 255 // (bad)
- .byte 255,119,255 // pushq -0x1(%rdi)
.byte 255 // (bad)
- .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
- .byte 255,70,255 // incl -0x1(%rsi)
+ .byte 255,94,255 // lcall *-0x1(%rsi)
+ .byte 255 // (bad)
+ .byte 255,72,255 // decl -0x1(%rax)
+ .byte 255 // (bad)
+ .byte 255,55 // pushq (%rdi)
.byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 290169e8 <_sk_srcover_bgra_8888_sse2_lowp+0x28fdd494>
+ .byte 255 // (bad)
+ .byte 255,42 // ljmp *(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -21948,7 +22275,7 @@ _sk_load_f32_dst_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja 16b5d <_sk_load_f32_dst_avx+0x171>
+ .byte 15,135,97,1,0,0 // ja 171b9 <_sk_load_f32_dst_avx+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
.byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
@@ -21961,7 +22288,7 @@ _sk_load_f32_dst_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 16b6c <_sk_load_f32_dst_avx+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 171c8 <_sk_load_f32_dst_avx+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
@@ -22024,7 +22351,7 @@ _sk_load_f32_dst_avx:
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp 16b37 <_sk_load_f32_dst_avx+0x14b>
+ .byte 235,203 // jmp 17193 <_sk_load_f32_dst_avx+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -22064,7 +22391,7 @@ _sk_store_f32_avx:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne 16c0b <_sk_store_f32_avx+0x7f>
+ .byte 117,55 // jne 17267 <_sk_store_f32_avx+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -22077,22 +22404,22 @@ _sk_store_f32_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 16c07 <_sk_store_f32_avx+0x7b>
+ .byte 116,240 // je 17263 <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 16c07 <_sk_store_f32_avx+0x7b>
+ .byte 114,227 // jb 17263 <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je 16c07 <_sk_store_f32_avx+0x7b>
+ .byte 116,218 // je 17263 <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 16c07 <_sk_store_f32_avx+0x7b>
+ .byte 114,205 // jb 17263 <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je 16c07 <_sk_store_f32_avx+0x7b>
+ .byte 116,195 // je 17263 <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb 16c07 <_sk_store_f32_avx+0x7b>
+ .byte 114,181 // jb 17263 <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp 16c07 <_sk_store_f32_avx+0x7b>
+ .byte 235,171 // jmp 17263 <_sk_store_f32_avx+0x7b>
HIDDEN _sk_repeat_x_avx
.globl _sk_repeat_x_avx
@@ -22135,7 +22462,7 @@ _sk_mirror_x_avx:
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,99,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm8
- .byte 197,178,89,5,37,43,2,0 // vmulss 0x22b25(%rip),%xmm9,%xmm0 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,5,221,46,2,0 // vmulss 0x22edd(%rip),%xmm9,%xmm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
@@ -22162,7 +22489,7 @@ _sk_mirror_y_avx:
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,99,117,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm8
- .byte 197,178,89,13,187,42,2,0 // vmulss 0x22abb(%rip),%xmm9,%xmm1 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,178,89,13,115,46,2,0 // vmulss 0x22e73(%rip),%xmm9,%xmm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
@@ -22182,7 +22509,7 @@ FUNCTION(_sk_clamp_x_1_avx)
_sk_clamp_x_1_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,120,42,2,0 // vbroadcastss 0x22a78(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,48,46,2,0 // vbroadcastss 0x22e30(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22195,7 +22522,7 @@ _sk_repeat_x_1_avx:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,82,42,2,0 // vbroadcastss 0x22a52(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,10,46,2,0 // vbroadcastss 0x22e0a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22204,9 +22531,9 @@ HIDDEN _sk_mirror_x_1_avx
.globl _sk_mirror_x_1_avx
FUNCTION(_sk_mirror_x_1_avx)
_sk_mirror_x_1_avx:
- .byte 196,98,125,24,5,88,42,2,0 // vbroadcastss 0x22a58(%rip),%ymm8 # 3981c <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,16,46,2,0 // vbroadcastss 0x22e10(%rip),%ymm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,46,42,2,0 // vbroadcastss 0x22a2e(%rip),%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,230,45,2,0 // vbroadcastss 0x22de6(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -22216,7 +22543,7 @@ _sk_mirror_x_1_avx:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,254,41,2,0 // vbroadcastss 0x229fe(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,182,45,2,0 // vbroadcastss 0x22db6(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22225,12 +22552,12 @@ HIDDEN _sk_luminance_to_alpha_avx
.globl _sk_luminance_to_alpha_avx
FUNCTION(_sk_luminance_to_alpha_avx)
_sk_luminance_to_alpha_avx:
- .byte 196,226,125,24,29,16,43,2,0 // vbroadcastss 0x22b10(%rip),%ymm3 # 39928 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
+ .byte 196,226,125,24,29,200,46,2,0 // vbroadcastss 0x22ec8(%rip),%ymm3 # 3a33c <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,29,255,42,2,0 // vbroadcastss 0x22aff(%rip),%ymm3 # 39924 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
+ .byte 196,226,125,24,29,183,46,2,0 // vbroadcastss 0x22eb7(%rip),%ymm3 # 3a338 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,246,42,2,0 // vbroadcastss 0x22af6(%rip),%ymm1 # 3992c <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
+ .byte 196,226,125,24,13,174,46,2,0 // vbroadcastss 0x22eae(%rip),%ymm1 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
.byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1
.byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22478,9 +22805,9 @@ _sk_evenly_spaced_gradient_avx:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 171da <_sk_evenly_spaced_gradient_avx+0x25>
+ .byte 120,7 // js 17836 <_sk_evenly_spaced_gradient_avx+0x25>
.byte 196,225,242,42,203 // vcvtsi2ss %rbx,%xmm1,%xmm1
- .byte 235,21 // jmp 171ef <_sk_evenly_spaced_gradient_avx+0x3a>
+ .byte 235,21 // jmp 1784b <_sk_evenly_spaced_gradient_avx+0x3a>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -22648,12 +22975,12 @@ _sk_gradient_avx:
.byte 76,139,0 // mov (%rax),%r8
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,81 // jb 17589 <_sk_gradient_avx+0x6f>
+ .byte 114,81 // jb 17be5 <_sk_gradient_avx+0x6f>
.byte 72,139,88,72 // mov 0x48(%rax),%rbx
.byte 73,255,200 // dec %r8
.byte 72,131,195,4 // add $0x4,%rbx
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,98,125,24,21,183,34,2,0 // vbroadcastss 0x222b7(%rip),%ymm10 # 39808 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
+ .byte 196,98,125,24,21,111,38,2,0 // vbroadcastss 0x2266f(%rip),%ymm10 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,98,125,24,3 // vbroadcastss (%rbx),%ymm8
.byte 197,60,194,192,2 // vcmpleps %ymm0,%ymm8,%ymm8
@@ -22665,7 +22992,7 @@ _sk_gradient_avx:
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
.byte 72,131,195,4 // add $0x4,%rbx
.byte 73,255,200 // dec %r8
- .byte 117,204 // jne 17555 <_sk_gradient_avx+0x3b>
+ .byte 117,204 // jne 17bb1 <_sk_gradient_avx+0x3b>
.byte 196,195,249,22,200,1 // vpextrq $0x1,%xmm1,%r8
.byte 69,137,193 // mov %r8d,%r9d
.byte 73,193,232,32 // shr $0x20,%r8
@@ -22847,27 +23174,27 @@ _sk_xy_to_unit_angle_avx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,209,31,2,0 // vbroadcastss 0x21fd1(%rip),%ymm13 # 39930 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
+ .byte 196,98,125,24,45,137,35,2,0 // vbroadcastss 0x22389(%rip),%ymm13 # 3a344 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,199,31,2,0 // vbroadcastss 0x21fc7(%rip),%ymm14 # 39934 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 196,98,125,24,53,127,35,2,0 // vbroadcastss 0x2237f(%rip),%ymm14 # 3a348 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,184,31,2,0 // vbroadcastss 0x21fb8(%rip),%ymm14 # 39938 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 196,98,125,24,53,112,35,2,0 // vbroadcastss 0x22370(%rip),%ymm14 # 3a34c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
- .byte 196,98,125,24,45,169,31,2,0 // vbroadcastss 0x21fa9(%rip),%ymm13 # 3993c <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,45,97,35,2,0 // vbroadcastss 0x22361(%rip),%ymm13 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,148,31,2,0 // vbroadcastss 0x21f94(%rip),%ymm10 # 39940 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,21,76,35,2,0 // vbroadcastss 0x2234c(%rip),%ymm10 # 3a354 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,58,30,2,0 // vbroadcastss 0x21e3a(%rip),%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,242,33,2,0 // vbroadcastss 0x221f2(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,36,30,2,0 // vbroadcastss 0x21e24(%rip),%ymm10 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,21,220,33,2,0 // vbroadcastss 0x221dc(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -22897,7 +23224,7 @@ _sk_xy_to_2pt_conical_quadratic_first_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,10,31,2,0 // vbroadcastss 0x21f0a(%rip),%ymm11 # 39944 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,29,194,34,2,0 // vbroadcastss 0x222c2(%rip),%ymm11 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -22906,7 +23233,7 @@ _sk_xy_to_2pt_conical_quadratic_first_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,222,30,2,0 // vbroadcastss 0x21ede(%rip),%ymm9 # 39948 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,98,125,24,13,150,34,2,0 // vbroadcastss 0x22296(%rip),%ymm9 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
@@ -22914,7 +23241,7 @@ _sk_xy_to_2pt_conical_quadratic_first_avx:
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,13,107,29,2,0 // vbroadcastss 0x21d6b(%rip),%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,35,33,2,0 // vbroadcastss 0x22123(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22931,7 +23258,7 @@ _sk_xy_to_2pt_conical_quadratic_second_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,119,30,2,0 // vbroadcastss 0x21e77(%rip),%ymm11 # 39944 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,29,47,34,2,0 // vbroadcastss 0x2222f(%rip),%ymm11 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -22940,17 +23267,17 @@ _sk_xy_to_2pt_conical_quadratic_second_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,75,30,2,0 // vbroadcastss 0x21e4b(%rip),%ymm9 # 39948 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
+ .byte 196,98,125,24,13,3,34,2,0 // vbroadcastss 0x22203(%rip),%ymm9 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 196,98,125,24,13,41,30,2,0 // vbroadcastss 0x21e29(%rip),%ymm9 # 3994c <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,13,225,33,2,0 // vbroadcastss 0x221e1(%rip),%ymm9 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,13,203,28,2,0 // vbroadcastss 0x21ccb(%rip),%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,131,32,2,0 // vbroadcastss 0x22083(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22966,7 +23293,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9
.byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,221,29,2,0 // vbroadcastss 0x21ddd(%rip),%ymm10 # 39944 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,21,149,33,2,0 // vbroadcastss 0x22195(%rip),%ymm10 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
@@ -22975,7 +23302,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,181,29,2,0 // vbroadcastss 0x21db5(%rip),%ymm8 # 3994c <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
+ .byte 196,98,125,24,5,109,33,2,0 // vbroadcastss 0x2216d(%rip),%ymm8 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23019,7 +23346,7 @@ HIDDEN _sk_save_xy_avx
FUNCTION(_sk_save_xy_avx)
_sk_save_xy_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,239,27,2,0 // vbroadcastss 0x21bef(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,167,31,2,0 // vbroadcastss 0x21fa7(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -23056,9 +23383,9 @@ HIDDEN _sk_bilinear_nx_avx
FUNCTION(_sk_bilinear_nx_avx)
_sk_bilinear_nx_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,193,28,2,0 // vbroadcastss 0x21cc1(%rip),%ymm0 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,5,121,32,2,0 // vbroadcastss 0x22079(%rip),%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,104,27,2,0 // vbroadcastss 0x21b68(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,32,31,2,0 // vbroadcastss 0x21f20(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23069,7 +23396,7 @@ HIDDEN _sk_bilinear_px_avx
FUNCTION(_sk_bilinear_px_avx)
_sk_bilinear_px_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,69,27,2,0 // vbroadcastss 0x21b45(%rip),%ymm0 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,253,30,2,0 // vbroadcastss 0x21efd(%rip),%ymm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -23081,9 +23408,9 @@ HIDDEN _sk_bilinear_ny_avx
FUNCTION(_sk_bilinear_ny_avx)
_sk_bilinear_ny_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,114,28,2,0 // vbroadcastss 0x21c72(%rip),%ymm1 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,13,42,32,2,0 // vbroadcastss 0x2202a(%rip),%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,24,27,2,0 // vbroadcastss 0x21b18(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,208,30,2,0 // vbroadcastss 0x21ed0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23094,7 +23421,7 @@ HIDDEN _sk_bilinear_py_avx
FUNCTION(_sk_bilinear_py_avx)
_sk_bilinear_py_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,245,26,2,0 // vbroadcastss 0x21af5(%rip),%ymm1 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,13,173,30,2,0 // vbroadcastss 0x21ead(%rip),%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -23106,14 +23433,14 @@ HIDDEN _sk_bicubic_n3x_avx
FUNCTION(_sk_bicubic_n3x_avx)
_sk_bicubic_n3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,37,28,2,0 // vbroadcastss 0x21c25(%rip),%ymm0 # 39954 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,226,125,24,5,221,31,2,0 // vbroadcastss 0x21fdd(%rip),%ymm0 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,200,26,2,0 // vbroadcastss 0x21ac8(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,128,30,2,0 // vbroadcastss 0x21e80(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,6,28,2,0 // vbroadcastss 0x21c06(%rip),%ymm10 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,190,31,2,0 // vbroadcastss 0x21fbe(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,24,27,2,0 // vbroadcastss 0x21b18(%rip),%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,208,30,2,0 // vbroadcastss 0x21ed0(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -23125,19 +23452,19 @@ HIDDEN _sk_bicubic_n1x_avx
FUNCTION(_sk_bicubic_n1x_avx)
_sk_bicubic_n1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,207,27,2,0 // vbroadcastss 0x21bcf(%rip),%ymm0 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,5,135,31,2,0 // vbroadcastss 0x21f87(%rip),%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,118,26,2,0 // vbroadcastss 0x21a76(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,46,30,2,0 // vbroadcastss 0x21e2e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,189,27,2,0 // vbroadcastss 0x21bbd(%rip),%ymm9 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,117,31,2,0 // vbroadcastss 0x21f75(%rip),%ymm9 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,179,27,2,0 // vbroadcastss 0x21bb3(%rip),%ymm10 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,107,31,2,0 // vbroadcastss 0x21f6b(%rip),%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,64,26,2,0 // vbroadcastss 0x21a40(%rip),%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,248,29,2,0 // vbroadcastss 0x21df8(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,145,27,2,0 // vbroadcastss 0x21b91(%rip),%ymm9 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,73,31,2,0 // vbroadcastss 0x21f49(%rip),%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23148,17 +23475,17 @@ HIDDEN _sk_bicubic_p1x_avx
FUNCTION(_sk_bicubic_p1x_avx)
_sk_bicubic_p1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,17,26,2,0 // vbroadcastss 0x21a11(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,201,29,2,0 // vbroadcastss 0x21dc9(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,88,27,2,0 // vbroadcastss 0x21b58(%rip),%ymm10 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,21,16,31,2,0 // vbroadcastss 0x21f10(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,78,27,2,0 // vbroadcastss 0x21b4e(%rip),%ymm11 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,29,6,31,2,0 // vbroadcastss 0x21f06(%rip),%ymm11 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,53,27,2,0 // vbroadcastss 0x21b35(%rip),%ymm9 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,237,30,2,0 // vbroadcastss 0x21eed(%rip),%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23169,13 +23496,13 @@ HIDDEN _sk_bicubic_p3x_avx
FUNCTION(_sk_bicubic_p3x_avx)
_sk_bicubic_p3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,21,27,2,0 // vbroadcastss 0x21b15(%rip),%ymm0 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,5,205,30,2,0 // vbroadcastss 0x21ecd(%rip),%ymm0 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,243,26,2,0 // vbroadcastss 0x21af3(%rip),%ymm10 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,171,30,2,0 // vbroadcastss 0x21eab(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,5,26,2,0 // vbroadcastss 0x21a05(%rip),%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,189,29,2,0 // vbroadcastss 0x21dbd(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -23187,14 +23514,14 @@ HIDDEN _sk_bicubic_n3y_avx
FUNCTION(_sk_bicubic_n3y_avx)
_sk_bicubic_n3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,192,26,2,0 // vbroadcastss 0x21ac0(%rip),%ymm1 # 39954 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
+ .byte 196,226,125,24,13,120,30,2,0 // vbroadcastss 0x21e78(%rip),%ymm1 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,98,25,2,0 // vbroadcastss 0x21962(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,26,29,2,0 // vbroadcastss 0x21d1a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,160,26,2,0 // vbroadcastss 0x21aa0(%rip),%ymm10 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,88,30,2,0 // vbroadcastss 0x21e58(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,178,25,2,0 // vbroadcastss 0x219b2(%rip),%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,106,29,2,0 // vbroadcastss 0x21d6a(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -23206,19 +23533,19 @@ HIDDEN _sk_bicubic_n1y_avx
FUNCTION(_sk_bicubic_n1y_avx)
_sk_bicubic_n1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,105,26,2,0 // vbroadcastss 0x21a69(%rip),%ymm1 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
+ .byte 196,226,125,24,13,33,30,2,0 // vbroadcastss 0x21e21(%rip),%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,15,25,2,0 // vbroadcastss 0x2190f(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,199,28,2,0 // vbroadcastss 0x21cc7(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,86,26,2,0 // vbroadcastss 0x21a56(%rip),%ymm9 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,13,14,30,2,0 // vbroadcastss 0x21e0e(%rip),%ymm9 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,76,26,2,0 // vbroadcastss 0x21a4c(%rip),%ymm10 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,21,4,30,2,0 // vbroadcastss 0x21e04(%rip),%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,217,24,2,0 // vbroadcastss 0x218d9(%rip),%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,145,28,2,0 // vbroadcastss 0x21c91(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,42,26,2,0 // vbroadcastss 0x21a2a(%rip),%ymm9 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,226,29,2,0 // vbroadcastss 0x21de2(%rip),%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23229,17 +23556,17 @@ HIDDEN _sk_bicubic_p1y_avx
FUNCTION(_sk_bicubic_p1y_avx)
_sk_bicubic_p1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,170,24,2,0 // vbroadcastss 0x218aa(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,5,98,28,2,0 // vbroadcastss 0x21c62(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
.byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,240,25,2,0 // vbroadcastss 0x219f0(%rip),%ymm10 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408>
+ .byte 196,98,125,24,21,168,29,2,0 // vbroadcastss 0x21da8(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,230,25,2,0 // vbroadcastss 0x219e6(%rip),%ymm11 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,98,125,24,29,158,29,2,0 // vbroadcastss 0x21d9e(%rip),%ymm11 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,205,25,2,0 // vbroadcastss 0x219cd(%rip),%ymm9 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,13,133,29,2,0 // vbroadcastss 0x21d85(%rip),%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23250,13 +23577,13 @@ HIDDEN _sk_bicubic_p3y_avx
FUNCTION(_sk_bicubic_p3y_avx)
_sk_bicubic_p3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,173,25,2,0 // vbroadcastss 0x219ad(%rip),%ymm1 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
+ .byte 196,226,125,24,13,101,29,2,0 // vbroadcastss 0x21d65(%rip),%ymm1 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,138,25,2,0 // vbroadcastss 0x2198a(%rip),%ymm10 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
+ .byte 196,98,125,24,21,66,29,2,0 // vbroadcastss 0x21d42(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,156,24,2,0 // vbroadcastss 0x2189c(%rip),%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,21,84,28,2,0 // vbroadcastss 0x21c54(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -23404,7 +23731,7 @@ _sk_clut_3D_avx:
.byte 72,139,0 // mov (%rax),%rax
.byte 197,217,254,207 // vpaddd %xmm7,%xmm4,%xmm1
.byte 197,249,254,193 // vpaddd %xmm1,%xmm0,%xmm0
- .byte 196,226,121,24,37,34,23,2,0 // vbroadcastss 0x21722(%rip),%xmm4 # 3996c <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 196,226,121,24,37,218,26,2,0 // vbroadcastss 0x21ada(%rip),%xmm4 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,98,121,64,228 // vpmulld %xmm4,%xmm0,%xmm12
.byte 196,226,49,64,198 // vpmulld %xmm6,%xmm9,%xmm0
.byte 197,249,127,132,36,128,0,0,0 // vmovdqa %xmm0,0x80(%rsp)
@@ -23458,7 +23785,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,155,20,2,0 // vbroadcastss 0x2149b(%rip),%xmm10 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,121,24,21,83,24,2,0 // vbroadcastss 0x21853(%rip),%xmm10 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2
.byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
.byte 196,193,249,126,209 // vmovq %xmm2,%r9
@@ -23486,7 +23813,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
- .byte 196,226,125,24,61,95,21,2,0 // vbroadcastss 0x2155f(%rip),%ymm7 # 39968 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,226,125,24,61,23,25,2,0 // vbroadcastss 0x21917(%rip),%ymm7 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 197,148,88,247 // vaddps %ymm7,%ymm13,%ymm6
.byte 197,124,40,231 // vmovaps %ymm7,%ymm12
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
@@ -24229,7 +24556,7 @@ _sk_clut_4D_avx:
.byte 197,249,127,68,36,32 // vmovdqa %xmm0,0x20(%rsp)
.byte 197,225,254,216 // vpaddd %xmm0,%xmm3,%xmm3
.byte 197,233,254,195 // vpaddd %xmm3,%xmm2,%xmm0
- .byte 196,98,121,24,13,35,6,2,0 // vbroadcastss 0x20623(%rip),%xmm9 # 3996c <_sk_srcover_bgra_8888_sse2_lowp+0x418>
+ .byte 196,98,121,24,13,219,9,2,0 // vbroadcastss 0x209db(%rip),%xmm9 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
.byte 196,194,121,64,209 // vpmulld %xmm9,%xmm0,%xmm2
.byte 196,226,81,64,199 // vpmulld %xmm7,%xmm5,%xmm0
.byte 197,249,127,132,36,96,1,0,0 // vmovdqa %xmm0,0x160(%rsp)
@@ -24286,7 +24613,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,140,3,2,0 // vbroadcastss 0x2038c(%rip),%xmm10 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
+ .byte 196,98,121,24,21,68,7,2,0 // vbroadcastss 0x20744(%rip),%xmm10 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
.byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0
.byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
.byte 196,193,249,126,193 // vmovq %xmm0,%r9
@@ -24314,7 +24641,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
.byte 196,227,105,33,214,48 // vinsertps $0x30,%xmm6,%xmm2,%xmm2
.byte 196,227,109,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm2
- .byte 196,98,125,24,37,80,4,2,0 // vbroadcastss 0x20450(%rip),%ymm12 # 39968 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
+ .byte 196,98,125,24,37,8,8,2,0 // vbroadcastss 0x20808(%rip),%ymm12 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
.byte 196,193,4,88,196 // vaddps %ymm12,%ymm15,%ymm0
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
@@ -25712,7 +26039,7 @@ _sk_clut_4D_avx:
.byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
.byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,173,229,1,0 // vbroadcastss 0x1e5ad(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,226,125,24,29,101,233,1,0 // vbroadcastss 0x1e965(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,252,16,164,36,64,2,0,0 // vmovups 0x240(%rsp),%ymm4
.byte 197,252,16,172,36,96,2,0,0 // vmovups 0x260(%rsp),%ymm5
.byte 197,252,16,180,36,128,2,0,0 // vmovups 0x280(%rsp),%ymm6
@@ -25728,18 +26055,18 @@ HIDDEN _sk_gauss_a_to_rgba_avx
.globl _sk_gauss_a_to_rgba_avx
FUNCTION(_sk_gauss_a_to_rgba_avx)
_sk_gauss_a_to_rgba_avx:
- .byte 196,226,125,24,5,220,230,1,0 // vbroadcastss 0x1e6dc(%rip),%ymm0 # 39970 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
+ .byte 196,226,125,24,5,148,234,1,0 // vbroadcastss 0x1ea94(%rip),%ymm0 # 3a384 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
.byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 196,226,125,24,13,211,230,1,0 // vbroadcastss 0x1e6d3(%rip),%ymm1 # 39974 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
+ .byte 196,226,125,24,13,139,234,1,0 // vbroadcastss 0x1ea8b(%rip),%ymm1 # 3a388 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,198,230,1,0 // vbroadcastss 0x1e6c6(%rip),%ymm1 # 39978 <_sk_srcover_bgra_8888_sse2_lowp+0x424>
+ .byte 196,226,125,24,13,126,234,1,0 // vbroadcastss 0x1ea7e(%rip),%ymm1 # 3a38c <_sk_srcover_bgra_8888_sse2_lowp+0x424>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,185,230,1,0 // vbroadcastss 0x1e6b9(%rip),%ymm1 # 3997c <_sk_srcover_bgra_8888_sse2_lowp+0x428>
+ .byte 196,226,125,24,13,113,234,1,0 // vbroadcastss 0x1ea71(%rip),%ymm1 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,172,230,1,0 // vbroadcastss 0x1e6ac(%rip),%ymm1 # 39980 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
+ .byte 196,226,125,24,13,100,234,1,0 // vbroadcastss 0x1ea64(%rip),%ymm1 # 3a394 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -25768,13 +26095,13 @@ _sk_start_pipeline_sse41:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 1b39e <_sk_start_pipeline_sse41+0xb6>
+ .byte 15,131,131,0,0,0 // jae 1b9fa <_sk_start_pipeline_sse41+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,4 // lea 0x4(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 1b36c <_sk_start_pipeline_sse41+0x84>
+ .byte 119,59 // ja 1b9c8 <_sk_start_pipeline_sse41+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -25793,10 +26120,10 @@ _sk_start_pipeline_sse41:
.byte 73,131,196,8 // add $0x8,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 1b335 <_sk_start_pipeline_sse41+0x4d>
+ .byte 118,201 // jbe 1b991 <_sk_start_pipeline_sse41+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 1b395 <_sk_start_pipeline_sse41+0xad>
+ .byte 116,33 // je 1b9f1 <_sk_start_pipeline_sse41+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -25810,7 +26137,7 @@ _sk_start_pipeline_sse41:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 1b327 <_sk_start_pipeline_sse41+0x3f>
+ .byte 117,137 // jne 1b983 <_sk_start_pipeline_sse41+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -25839,9 +26166,9 @@ _sk_seed_shader_sse41:
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,75,237,1,0 // addps 0x1ed4b(%rip),%xmm1 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,88,13,15,241,1,0 // addps 0x1f10f(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,82,237,1,0 // movaps 0x1ed52(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,21,22,241,1,0 // movaps 0x1f116(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -25856,18 +26183,18 @@ _sk_dither_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,251,236,1,0 // paddd 0x1ecfb(%rip),%xmm8 # 3a100 <_sk_srcover_bgra_8888_sse2_lowp+0xbac>
+ .byte 102,68,15,254,5,191,240,1,0 // paddd 0x1f0bf(%rip),%xmm8 # 3ab20 <_sk_srcover_bgra_8888_sse2_lowp+0xbb8>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,34,237,1,0 // movdqa 0x1ed22(%rip),%xmm10 # 3a140 <_sk_srcover_bgra_8888_sse2_lowp+0xbec>
+ .byte 102,68,15,111,21,230,240,1,0 // movdqa 0x1f0e6(%rip),%xmm10 # 3ab60 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,14,237,1,0 // movdqa 0x1ed0e(%rip),%xmm12 # 3a150 <_sk_srcover_bgra_8888_sse2_lowp+0xbfc>
- .byte 102,68,15,111,45,21,237,1,0 // movdqa 0x1ed15(%rip),%xmm13 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,68,15,111,37,210,240,1,0 // movdqa 0x1f0d2(%rip),%xmm12 # 3ab70 <_sk_srcover_bgra_8888_sse2_lowp+0xc08>
+ .byte 102,68,15,111,45,217,240,1,0 // movdqa 0x1f0d9(%rip),%xmm13 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -25883,8 +26210,8 @@ _sk_dither_sse41:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,208,236,1,0 // mulps 0x1ecd0(%rip),%xmm8 # 3a170 <_sk_srcover_bgra_8888_sse2_lowp+0xc1c>
- .byte 68,15,88,5,216,236,1,0 // addps 0x1ecd8(%rip),%xmm8 # 3a180 <_sk_srcover_bgra_8888_sse2_lowp+0xc2c>
+ .byte 68,15,89,5,148,240,1,0 // mulps 0x1f094(%rip),%xmm8 # 3ab90 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 68,15,88,5,156,240,1,0 // addps 0x1f09c(%rip),%xmm8 # 3aba0 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -25926,7 +26253,7 @@ HIDDEN _sk_black_color_sse41
FUNCTION(_sk_black_color_sse41)
_sk_black_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,14,236,1,0 // movaps 0x1ec0e(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,29,210,239,1,0 // movaps 0x1efd2(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -25937,7 +26264,7 @@ HIDDEN _sk_white_color_sse41
FUNCTION(_sk_white_color_sse41)
_sk_white_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,250,235,1,0 // movaps 0x1ebfa(%rip),%xmm0 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,5,190,239,1,0 // movaps 0x1efbe(%rip),%xmm0 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -25983,7 +26310,7 @@ HIDDEN _sk_srcatop_sse41
FUNCTION(_sk_srcatop_sse41)
_sk_srcatop_sse41:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,170,235,1,0 // movaps 0x1ebaa(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,110,239,1,0 // movaps 0x1ef6e(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -26008,7 +26335,7 @@ FUNCTION(_sk_dstatop_sse41)
_sk_dstatop_sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,93,235,1,0 // movaps 0x1eb5d(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,13,33,239,1,0 // movaps 0x1ef21(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -26055,7 +26382,7 @@ HIDDEN _sk_srcout_sse41
.globl _sk_srcout_sse41
FUNCTION(_sk_srcout_sse41)
_sk_srcout_sse41:
- .byte 68,15,40,5,241,234,1,0 // movaps 0x1eaf1(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,181,238,1,0 // movaps 0x1eeb5(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -26068,7 +26395,7 @@ HIDDEN _sk_dstout_sse41
.globl _sk_dstout_sse41
FUNCTION(_sk_dstout_sse41)
_sk_dstout_sse41:
- .byte 68,15,40,5,209,234,1,0 // movaps 0x1ead1(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,149,238,1,0 // movaps 0x1ee95(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -26085,7 +26412,7 @@ HIDDEN _sk_srcover_sse41
.globl _sk_srcover_sse41
FUNCTION(_sk_srcover_sse41)
_sk_srcover_sse41:
- .byte 68,15,40,5,164,234,1,0 // movaps 0x1eaa4(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,104,238,1,0 // movaps 0x1ee68(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -26105,7 +26432,7 @@ HIDDEN _sk_dstover_sse41
.globl _sk_dstover_sse41
FUNCTION(_sk_dstover_sse41)
_sk_dstover_sse41:
- .byte 68,15,40,5,104,234,1,0 // movaps 0x1ea68(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,44,238,1,0 // movaps 0x1ee2c(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -26133,7 +26460,7 @@ HIDDEN _sk_multiply_sse41
.globl _sk_multiply_sse41
FUNCTION(_sk_multiply_sse41)
_sk_multiply_sse41:
- .byte 68,15,40,5,44,234,1,0 // movaps 0x1ea2c(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,240,237,1,0 // movaps 0x1edf0(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -26171,7 +26498,7 @@ HIDDEN _sk_plus__sse41
FUNCTION(_sk_plus__sse41)
_sk_plus__sse41:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,173,233,1,0 // movaps 0x1e9ad(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,113,237,1,0 // movaps 0x1ed71(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -26213,7 +26540,7 @@ HIDDEN _sk_xor__sse41
FUNCTION(_sk_xor__sse41)
_sk_xor__sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,57,233,1,0 // movaps 0x1e939(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,29,253,236,1,0 // movaps 0x1ecfd(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -26261,7 +26588,7 @@ _sk_darken_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,148,232,1,0 // movaps 0x1e894(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,21,88,236,1,0 // movaps 0x1ec58(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -26295,7 +26622,7 @@ _sk_lighten_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,41,232,1,0 // movaps 0x1e829(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,21,237,235,1,0 // movaps 0x1ebed(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -26332,7 +26659,7 @@ _sk_difference_sse41:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,179,231,1,0 // movaps 0x1e7b3(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,21,119,235,1,0 // movaps 0x1eb77(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -26360,7 +26687,7 @@ _sk_exclusion_sse41:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,99,231,1,0 // movaps 0x1e763(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,21,39,235,1,0 // movaps 0x1eb27(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -26372,7 +26699,7 @@ HIDDEN _sk_colorburn_sse41
.globl _sk_colorburn_sse41
FUNCTION(_sk_colorburn_sse41)
_sk_colorburn_sse41:
- .byte 68,15,40,29,74,231,1,0 // movaps 0x1e74a(%rip),%xmm11 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,29,14,235,1,0 // movaps 0x1eb0e(%rip),%xmm11 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 68,15,92,231 // subps %xmm7,%xmm12
.byte 69,15,40,204 // movaps %xmm12,%xmm9
@@ -26456,7 +26783,7 @@ HIDDEN _sk_colordodge_sse41
FUNCTION(_sk_colordodge_sse41)
_sk_colordodge_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,21,20,230,1,0 // movaps 0x1e614(%rip),%xmm10 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,21,216,233,1,0 // movaps 0x1e9d8(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -26538,7 +26865,7 @@ _sk_hardlight_sse41:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,223,228,1,0 // movaps 0x1e4df(%rip),%xmm10 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,21,163,232,1,0 // movaps 0x1e8a3(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,40,234 // movaps %xmm10,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
@@ -26621,7 +26948,7 @@ FUNCTION(_sk_overlay_sse41)
_sk_overlay_sse41:
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,40,240 // movaps %xmm0,%xmm14
- .byte 68,15,40,21,180,227,1,0 // movaps 0x1e3b4(%rip),%xmm10 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,21,120,231,1,0 // movaps 0x1e778(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -26706,7 +27033,7 @@ _sk_softlight_sse41:
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 65,15,84,193 // andps %xmm9,%xmm0
- .byte 15,40,13,123,226,1,0 // movaps 0x1e27b(%rip),%xmm1 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,13,63,230,1,0 // movaps 0x1e63f(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 68,15,40,240 // movaps %xmm0,%xmm14
@@ -26719,10 +27046,10 @@ _sk_softlight_sse41:
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,210 // mulps %xmm2,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,40,45,169,226,1,0 // movaps 0x1e2a9(%rip),%xmm13 # 3a190 <_sk_srcover_bgra_8888_sse2_lowp+0xc3c>
+ .byte 68,15,40,45,109,230,1,0 // movaps 0x1e66d(%rip),%xmm13 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
.byte 69,15,88,245 // addps %xmm13,%xmm14
.byte 68,15,89,242 // mulps %xmm2,%xmm14
- .byte 68,15,40,37,169,226,1,0 // movaps 0x1e2a9(%rip),%xmm12 # 3a1a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc4c>
+ .byte 68,15,40,37,109,230,1,0 // movaps 0x1e66d(%rip),%xmm12 # 3abc0 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
.byte 69,15,89,252 // mulps %xmm12,%xmm15
.byte 69,15,88,254 // addps %xmm14,%xmm15
.byte 15,40,198 // movaps %xmm6,%xmm0
@@ -26908,12 +27235,12 @@ _sk_hue_sse41:
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 15,84,200 // andps %xmm0,%xmm1
.byte 68,15,84,232 // andps %xmm0,%xmm13
- .byte 15,40,5,20,224,1,0 // movaps 0x1e014(%rip),%xmm0 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c>
+ .byte 15,40,5,216,227,1,0 // movaps 0x1e3d8(%rip),%xmm0 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,21,25,224,1,0 // movaps 0x1e019(%rip),%xmm2 # 3a1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc6c>
+ .byte 15,40,21,221,227,1,0 // movaps 0x1e3dd(%rip),%xmm2 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 15,89,250 // mulps %xmm2,%xmm7
.byte 65,15,88,252 // addps %xmm12,%xmm7
- .byte 68,15,40,53,26,224,1,0 // movaps 0x1e01a(%rip),%xmm14 # 3a1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xc7c>
+ .byte 68,15,40,53,222,227,1,0 // movaps 0x1e3de(%rip),%xmm14 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 68,15,40,252 // movaps %xmm4,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,255 // addps %xmm7,%xmm15
@@ -26996,7 +27323,7 @@ _sk_hue_sse41:
.byte 65,15,88,214 // addps %xmm14,%xmm2
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,40,13,46,222,1,0 // movaps 0x1de2e(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,13,242,225,1,0 // movaps 0x1e1f2(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,40,225 // movaps %xmm9,%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,40,68,36,200 // movaps -0x38(%rsp),%xmm0
@@ -27090,14 +27417,14 @@ _sk_saturation_sse41:
.byte 68,15,84,215 // andps %xmm7,%xmm10
.byte 68,15,84,223 // andps %xmm7,%xmm11
.byte 68,15,84,199 // andps %xmm7,%xmm8
- .byte 15,40,21,88,221,1,0 // movaps 0x1dd58(%rip),%xmm2 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c>
+ .byte 15,40,21,28,225,1,0 // movaps 0x1e11c(%rip),%xmm2 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,40,13,91,221,1,0 // movaps 0x1dd5b(%rip),%xmm1 # 3a1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc6c>
+ .byte 15,40,13,31,225,1,0 // movaps 0x1e11f(%rip),%xmm1 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,249 // mulps %xmm1,%xmm7
.byte 15,88,251 // addps %xmm3,%xmm7
- .byte 68,15,40,45,90,221,1,0 // movaps 0x1dd5a(%rip),%xmm13 # 3a1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xc7c>
+ .byte 68,15,40,45,30,225,1,0 // movaps 0x1e11e(%rip),%xmm13 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 68,15,88,247 // addps %xmm7,%xmm14
.byte 65,15,40,218 // movaps %xmm10,%xmm3
@@ -27178,7 +27505,7 @@ _sk_saturation_sse41:
.byte 65,15,88,253 // addps %xmm13,%xmm7
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 102,68,15,56,20,223 // blendvps %xmm0,%xmm7,%xmm11
- .byte 68,15,40,13,112,219,1,0 // movaps 0x1db70(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,13,52,223,1,0 // movaps 0x1df34(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 68,15,92,204 // subps %xmm4,%xmm9
.byte 15,40,124,36,168 // movaps -0x58(%rsp),%xmm7
@@ -27233,14 +27560,14 @@ _sk_color_sse41:
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 68,15,89,244 // mulps %xmm4,%xmm14
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 68,15,40,13,43,219,1,0 // movaps 0x1db2b(%rip),%xmm9 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c>
+ .byte 68,15,40,13,239,222,1,0 // movaps 0x1deef(%rip),%xmm9 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,89,249 // mulps %xmm9,%xmm7
- .byte 68,15,40,21,43,219,1,0 // movaps 0x1db2b(%rip),%xmm10 # 3a1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc6c>
+ .byte 68,15,40,21,239,222,1,0 // movaps 0x1deef(%rip),%xmm10 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 65,15,40,219 // movaps %xmm11,%xmm3
.byte 65,15,89,218 // mulps %xmm10,%xmm3
.byte 15,88,223 // addps %xmm7,%xmm3
- .byte 68,15,40,29,40,219,1,0 // movaps 0x1db28(%rip),%xmm11 # 3a1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xc7c>
+ .byte 68,15,40,29,236,222,1,0 // movaps 0x1deec(%rip),%xmm11 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
@@ -27325,7 +27652,7 @@ _sk_color_sse41:
.byte 65,15,88,251 // addps %xmm11,%xmm7
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,15,56,20,207 // blendvps %xmm0,%xmm7,%xmm1
- .byte 68,15,40,13,52,217,1,0 // movaps 0x1d934(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,13,248,220,1,0 // movaps 0x1dcf8(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 68,15,89,192 // mulps %xmm0,%xmm8
@@ -27377,13 +27704,13 @@ _sk_luminosity_sse41:
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,40,5,252,216,1,0 // movaps 0x1d8fc(%rip),%xmm8 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c>
+ .byte 68,15,40,5,192,220,1,0 // movaps 0x1dcc0(%rip),%xmm8 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 68,15,40,21,0,217,1,0 // movaps 0x1d900(%rip),%xmm10 # 3a1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc6c>
+ .byte 68,15,40,21,196,220,1,0 // movaps 0x1dcc4(%rip),%xmm10 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 65,15,89,234 // mulps %xmm10,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 68,15,40,37,254,216,1,0 // movaps 0x1d8fe(%rip),%xmm12 # 3a1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xc7c>
+ .byte 68,15,40,37,194,220,1,0 // movaps 0x1dcc2(%rip),%xmm12 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 68,15,40,242 // movaps %xmm2,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 68,15,88,245 // addps %xmm5,%xmm14
@@ -27468,7 +27795,7 @@ _sk_luminosity_sse41:
.byte 65,15,88,244 // addps %xmm12,%xmm6
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 102,68,15,56,20,206 // blendvps %xmm0,%xmm6,%xmm9
- .byte 15,40,5,4,215,1,0 // movaps 0x1d704(%rip),%xmm0 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,5,200,218,1,0 // movaps 0x1dac8(%rip),%xmm0 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,92,215 // subps %xmm7,%xmm2
.byte 15,89,226 // mulps %xmm2,%xmm4
@@ -27505,6 +27832,7 @@ HIDDEN _sk_srcover_rgba_8888_sse41
.globl _sk_srcover_rgba_8888_sse41
FUNCTION(_sk_srcover_rgba_8888_sse41)
_sk_srcover_rgba_8888_sse41:
+ .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,99,72,8 // movslq 0x8(%rax),%r9
.byte 76,99,193 // movslq %ecx,%r8
@@ -27513,90 +27841,102 @@ _sk_srcover_rgba_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,219,0,0,0 // jne 1cb94 <_sk_srcover_rgba_8888_sse41+0xfb>
- .byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
+ .byte 15,133,0,1,0,0 // jne 1d21a <_sk_srcover_rgba_8888_sse41+0x125>
+ .byte 243,65,15,111,4,128 // movdqu (%r8,%rax,4),%xmm0
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,22,215,1,0 // movdqa 0x1d716(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
- .byte 102,15,219,231 // pand %xmm7,%xmm4
+ .byte 102,15,111,37,213,218,1,0 // movdqa 0x1dad5(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,219,224 // pand %xmm0,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,18,215,1,0 // pshufb 0x1d712(%rip),%xmm5 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc9c>
+ .byte 102,15,111,232 // movdqa %xmm0,%xmm5
+ .byte 102,15,56,0,45,209,218,1,0 // pshufb 0x1dad1(%rip),%xmm5 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,18,215,1,0 // pshufb 0x1d712(%rip),%xmm6 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0xcac>
+ .byte 102,15,111,240 // movdqa %xmm0,%xmm6
+ .byte 102,15,56,0,53,209,218,1,0 // pshufb 0x1dad1(%rip),%xmm6 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 102,15,114,215,24 // psrld $0x18,%xmm7
- .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 68,15,40,5,47,214,1,0 // movaps 0x1d62f(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 102,15,114,208,24 // psrld $0x18,%xmm0
+ .byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
+ .byte 68,15,40,5,234,217,1,0 // movaps 0x1d9ea(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,3,215,1,0 // movaps 0x1d703(%rip),%xmm12 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
- .byte 65,15,89,196 // mulps %xmm12,%xmm0
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,204 // mulps %xmm4,%xmm9
- .byte 68,15,88,200 // addps %xmm0,%xmm9
+ .byte 68,15,40,37,190,218,1,0 // movaps 0x1dabe(%rip),%xmm12 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 69,15,89,204 // mulps %xmm12,%xmm9
+ .byte 65,15,40,192 // movaps %xmm8,%xmm0
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 65,15,88,193 // addps %xmm9,%xmm0
.byte 65,15,89,204 // mulps %xmm12,%xmm1
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 68,15,89,213 // mulps %xmm5,%xmm10
- .byte 68,15,88,209 // addps %xmm1,%xmm10
+ .byte 69,15,40,200 // movaps %xmm8,%xmm9
+ .byte 68,15,89,205 // mulps %xmm5,%xmm9
+ .byte 68,15,88,201 // addps %xmm1,%xmm9
.byte 65,15,89,212 // mulps %xmm12,%xmm2
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 68,15,89,222 // mulps %xmm6,%xmm11
- .byte 68,15,88,218 // addps %xmm2,%xmm11
+ .byte 69,15,40,208 // movaps %xmm8,%xmm10
+ .byte 68,15,89,214 // mulps %xmm6,%xmm10
+ .byte 68,15,88,210 // addps %xmm2,%xmm10
.byte 65,15,89,220 // mulps %xmm12,%xmm3
.byte 68,15,89,199 // mulps %xmm7,%xmm8
.byte 68,15,88,195 // addps %xmm3,%xmm8
- .byte 102,65,15,91,193 // cvtps2dq %xmm9,%xmm0
- .byte 102,65,15,91,202 // cvtps2dq %xmm10,%xmm1
- .byte 102,15,114,241,8 // pslld $0x8,%xmm1
- .byte 102,15,235,200 // por %xmm0,%xmm1
- .byte 102,65,15,91,211 // cvtps2dq %xmm11,%xmm2
- .byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,65,15,91,192 // cvtps2dq %xmm8,%xmm0
- .byte 102,15,114,240,24 // pslld $0x18,%xmm0
- .byte 102,15,235,194 // por %xmm2,%xmm0
- .byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 117,88 // jne 1cbd2 <_sk_srcover_rgba_8888_sse41+0x139>
- .byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4)
+ .byte 15,87,201 // xorps %xmm1,%xmm1
+ .byte 15,95,200 // maxps %xmm0,%xmm1
+ .byte 65,15,93,204 // minps %xmm12,%xmm1
+ .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
+ .byte 15,87,210 // xorps %xmm2,%xmm2
+ .byte 65,15,95,209 // maxps %xmm9,%xmm2
+ .byte 65,15,93,212 // minps %xmm12,%xmm2
+ .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
+ .byte 102,15,114,242,8 // pslld $0x8,%xmm2
+ .byte 102,15,235,209 // por %xmm1,%xmm2
+ .byte 102,15,87,201 // xorpd %xmm1,%xmm1
+ .byte 65,15,95,202 // maxps %xmm10,%xmm1
+ .byte 65,15,93,204 // minps %xmm12,%xmm1
+ .byte 102,15,91,217 // cvtps2dq %xmm1,%xmm3
+ .byte 102,15,114,243,16 // pslld $0x10,%xmm3
+ .byte 69,15,95,216 // maxps %xmm8,%xmm11
+ .byte 69,15,93,220 // minps %xmm12,%xmm11
+ .byte 102,65,15,91,203 // cvtps2dq %xmm11,%xmm1
+ .byte 102,15,114,241,24 // pslld $0x18,%xmm1
+ .byte 102,15,235,203 // por %xmm3,%xmm1
+ .byte 102,15,235,202 // por %xmm2,%xmm1
+ .byte 117,84 // jne 1d258 <_sk_srcover_rgba_8888_sse41+0x163>
+ .byte 243,65,15,127,12,128 // movdqu %xmm1,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 65,15,40,211 // movaps %xmm11,%xmm2
+ .byte 65,15,40,201 // movaps %xmm9,%xmm1
+ .byte 65,15,40,210 // movaps %xmm10,%xmm2
.byte 65,15,40,216 // movaps %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,91 // je 1cbfc <_sk_srcover_rgba_8888_sse41+0x163>
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
+ .byte 116,91 // je 1d282 <_sk_srcover_rgba_8888_sse41+0x18d>
+ .byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,22 // je 1cbc1 <_sk_srcover_rgba_8888_sse41+0x128>
+ .byte 116,22 // je 1d247 <_sk_srcover_rgba_8888_sse41+0x152>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,10,255,255,255 // jne 1cabf <_sk_srcover_rgba_8888_sse41+0x26>
- .byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
- .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
+ .byte 15,133,229,254,255,255 // jne 1d120 <_sk_srcover_rgba_8888_sse41+0x2b>
+ .byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
+ .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
- .byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,237,254,255,255 // jmpq 1cabf <_sk_srcover_rgba_8888_sse41+0x26>
+ .byte 102,15,58,14,196,15 // pblendw $0xf,%xmm4,%xmm0
+ .byte 233,200,254,255,255 // jmpq 1d120 <_sk_srcover_rgba_8888_sse41+0x2b>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,40 // je 1cc07 <_sk_srcover_rgba_8888_sse41+0x16e>
+ .byte 116,40 // je 1d28d <_sk_srcover_rgba_8888_sse41+0x198>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1cbf4 <_sk_srcover_rgba_8888_sse41+0x15b>
+ .byte 116,15 // je 1d27a <_sk_srcover_rgba_8888_sse41+0x185>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,149 // jne 1cb80 <_sk_srcover_rgba_8888_sse41+0xe7>
- .byte 102,65,15,58,22,68,128,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rax,4)
- .byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4)
- .byte 235,132 // jmp 1cb80 <_sk_srcover_rgba_8888_sse41+0xe7>
- .byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,184,254,255,255 // jmpq 1cabf <_sk_srcover_rgba_8888_sse41+0x26>
- .byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4)
- .byte 233,110,255,255,255 // jmpq 1cb80 <_sk_srcover_rgba_8888_sse41+0xe7>
+ .byte 117,153 // jne 1d20a <_sk_srcover_rgba_8888_sse41+0x115>
+ .byte 102,65,15,58,22,76,128,8,2 // pextrd $0x2,%xmm1,0x8(%r8,%rax,4)
+ .byte 102,65,15,214,12,128 // movq %xmm1,(%r8,%rax,4)
+ .byte 235,136 // jmp 1d20a <_sk_srcover_rgba_8888_sse41+0x115>
+ .byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0
+ .byte 233,147,254,255,255 // jmpq 1d120 <_sk_srcover_rgba_8888_sse41+0x2b>
+ .byte 102,65,15,126,12,128 // movd %xmm1,(%r8,%rax,4)
+ .byte 233,114,255,255,255 // jmpq 1d20a <_sk_srcover_rgba_8888_sse41+0x115>
HIDDEN _sk_srcover_bgra_8888_sse41
.globl _sk_srcover_bgra_8888_sse41
FUNCTION(_sk_srcover_bgra_8888_sse41)
_sk_srcover_bgra_8888_sse41:
+ .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,99,72,8 // movslq 0x8(%rax),%r9
.byte 76,99,193 // movslq %ecx,%r8
@@ -27605,85 +27945,96 @@ _sk_srcover_bgra_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,219,0,0,0 // jne 1cd0d <_sk_srcover_bgra_8888_sse41+0xfb>
- .byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
+ .byte 15,133,0,1,0,0 // jne 1d3bd <_sk_srcover_bgra_8888_sse41+0x125>
+ .byte 243,65,15,111,4,128 // movdqu (%r8,%rax,4),%xmm0
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,157,213,1,0 // movdqa 0x1d59d(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
- .byte 102,15,219,231 // pand %xmm7,%xmm4
+ .byte 102,15,111,37,50,217,1,0 // movdqa 0x1d932(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,219,224 // pand %xmm0,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,153,213,1,0 // pshufb 0x1d599(%rip),%xmm4 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc9c>
+ .byte 102,15,111,224 // movdqa %xmm0,%xmm4
+ .byte 102,15,56,0,37,46,217,1,0 // pshufb 0x1d92e(%rip),%xmm4 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,153,213,1,0 // pshufb 0x1d599(%rip),%xmm4 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0xcac>
+ .byte 102,15,111,224 // movdqa %xmm0,%xmm4
+ .byte 102,15,56,0,37,46,217,1,0 // pshufb 0x1d92e(%rip),%xmm4 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
+ .byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 102,15,114,215,24 // psrld $0x18,%xmm7
- .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 68,15,40,5,182,212,1,0 // movaps 0x1d4b6(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 102,15,114,208,24 // psrld $0x18,%xmm0
+ .byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
+ .byte 68,15,40,5,71,216,1,0 // movaps 0x1d847(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,138,213,1,0 // movaps 0x1d58a(%rip),%xmm12 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
- .byte 65,15,89,196 // mulps %xmm12,%xmm0
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,204 // mulps %xmm4,%xmm9
- .byte 68,15,88,200 // addps %xmm0,%xmm9
+ .byte 68,15,40,37,27,217,1,0 // movaps 0x1d91b(%rip),%xmm12 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 69,15,89,204 // mulps %xmm12,%xmm9
+ .byte 65,15,40,192 // movaps %xmm8,%xmm0
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 65,15,88,193 // addps %xmm9,%xmm0
.byte 65,15,89,204 // mulps %xmm12,%xmm1
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 68,15,89,213 // mulps %xmm5,%xmm10
- .byte 68,15,88,209 // addps %xmm1,%xmm10
+ .byte 69,15,40,200 // movaps %xmm8,%xmm9
+ .byte 68,15,89,205 // mulps %xmm5,%xmm9
+ .byte 68,15,88,201 // addps %xmm1,%xmm9
.byte 65,15,89,212 // mulps %xmm12,%xmm2
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 68,15,89,222 // mulps %xmm6,%xmm11
- .byte 68,15,88,218 // addps %xmm2,%xmm11
+ .byte 69,15,40,208 // movaps %xmm8,%xmm10
+ .byte 68,15,89,214 // mulps %xmm6,%xmm10
+ .byte 68,15,88,210 // addps %xmm2,%xmm10
.byte 65,15,89,220 // mulps %xmm12,%xmm3
.byte 68,15,89,199 // mulps %xmm7,%xmm8
.byte 68,15,88,195 // addps %xmm3,%xmm8
- .byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
- .byte 102,65,15,91,202 // cvtps2dq %xmm10,%xmm1
- .byte 102,15,114,241,8 // pslld $0x8,%xmm1
- .byte 102,15,235,200 // por %xmm0,%xmm1
- .byte 102,65,15,91,209 // cvtps2dq %xmm9,%xmm2
- .byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,65,15,91,192 // cvtps2dq %xmm8,%xmm0
- .byte 102,15,114,240,24 // pslld $0x18,%xmm0
- .byte 102,15,235,194 // por %xmm2,%xmm0
- .byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 117,88 // jne 1cd4b <_sk_srcover_bgra_8888_sse41+0x139>
- .byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4)
+ .byte 15,87,201 // xorps %xmm1,%xmm1
+ .byte 65,15,95,202 // maxps %xmm10,%xmm1
+ .byte 65,15,93,204 // minps %xmm12,%xmm1
+ .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
+ .byte 15,87,210 // xorps %xmm2,%xmm2
+ .byte 65,15,95,209 // maxps %xmm9,%xmm2
+ .byte 65,15,93,212 // minps %xmm12,%xmm2
+ .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
+ .byte 102,15,114,242,8 // pslld $0x8,%xmm2
+ .byte 102,15,235,209 // por %xmm1,%xmm2
+ .byte 102,15,87,201 // xorpd %xmm1,%xmm1
+ .byte 15,95,200 // maxps %xmm0,%xmm1
+ .byte 65,15,93,204 // minps %xmm12,%xmm1
+ .byte 102,15,91,217 // cvtps2dq %xmm1,%xmm3
+ .byte 102,15,114,243,16 // pslld $0x10,%xmm3
+ .byte 69,15,95,216 // maxps %xmm8,%xmm11
+ .byte 69,15,93,220 // minps %xmm12,%xmm11
+ .byte 102,65,15,91,203 // cvtps2dq %xmm11,%xmm1
+ .byte 102,15,114,241,24 // pslld $0x18,%xmm1
+ .byte 102,15,235,203 // por %xmm3,%xmm1
+ .byte 102,15,235,202 // por %xmm2,%xmm1
+ .byte 117,84 // jne 1d3fb <_sk_srcover_bgra_8888_sse41+0x163>
+ .byte 243,65,15,127,12,128 // movdqu %xmm1,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 65,15,40,211 // movaps %xmm11,%xmm2
+ .byte 65,15,40,201 // movaps %xmm9,%xmm1
+ .byte 65,15,40,210 // movaps %xmm10,%xmm2
.byte 65,15,40,216 // movaps %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,91 // je 1cd75 <_sk_srcover_bgra_8888_sse41+0x163>
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
+ .byte 116,91 // je 1d425 <_sk_srcover_bgra_8888_sse41+0x18d>
+ .byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,22 // je 1cd3a <_sk_srcover_bgra_8888_sse41+0x128>
+ .byte 116,22 // je 1d3ea <_sk_srcover_bgra_8888_sse41+0x152>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,10,255,255,255 // jne 1cc38 <_sk_srcover_bgra_8888_sse41+0x26>
- .byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
- .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
+ .byte 15,133,229,254,255,255 // jne 1d2c3 <_sk_srcover_bgra_8888_sse41+0x2b>
+ .byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
+ .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
- .byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,237,254,255,255 // jmpq 1cc38 <_sk_srcover_bgra_8888_sse41+0x26>
+ .byte 102,15,58,14,196,15 // pblendw $0xf,%xmm4,%xmm0
+ .byte 233,200,254,255,255 // jmpq 1d2c3 <_sk_srcover_bgra_8888_sse41+0x2b>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,40 // je 1cd80 <_sk_srcover_bgra_8888_sse41+0x16e>
+ .byte 116,40 // je 1d430 <_sk_srcover_bgra_8888_sse41+0x198>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1cd6d <_sk_srcover_bgra_8888_sse41+0x15b>
+ .byte 116,15 // je 1d41d <_sk_srcover_bgra_8888_sse41+0x185>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,149 // jne 1ccf9 <_sk_srcover_bgra_8888_sse41+0xe7>
- .byte 102,65,15,58,22,68,128,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rax,4)
- .byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4)
- .byte 235,132 // jmp 1ccf9 <_sk_srcover_bgra_8888_sse41+0xe7>
- .byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,184,254,255,255 // jmpq 1cc38 <_sk_srcover_bgra_8888_sse41+0x26>
- .byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4)
- .byte 233,110,255,255,255 // jmpq 1ccf9 <_sk_srcover_bgra_8888_sse41+0xe7>
+ .byte 117,153 // jne 1d3ad <_sk_srcover_bgra_8888_sse41+0x115>
+ .byte 102,65,15,58,22,76,128,8,2 // pextrd $0x2,%xmm1,0x8(%r8,%rax,4)
+ .byte 102,65,15,214,12,128 // movq %xmm1,(%r8,%rax,4)
+ .byte 235,136 // jmp 1d3ad <_sk_srcover_bgra_8888_sse41+0x115>
+ .byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0
+ .byte 233,147,254,255,255 // jmpq 1d2c3 <_sk_srcover_bgra_8888_sse41+0x2b>
+ .byte 102,65,15,126,12,128 // movd %xmm1,(%r8,%rax,4)
+ .byte 233,114,255,255,255 // jmpq 1d3ad <_sk_srcover_bgra_8888_sse41+0x115>
HIDDEN _sk_clamp_0_sse41
.globl _sk_clamp_0_sse41
@@ -27701,7 +28052,7 @@ HIDDEN _sk_clamp_1_sse41
.globl _sk_clamp_1_sse41
FUNCTION(_sk_clamp_1_sse41)
_sk_clamp_1_sse41:
- .byte 68,15,40,5,133,211,1,0 // movaps 0x1d385(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,245,214,1,0 // movaps 0x1d6f5(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -27713,7 +28064,7 @@ HIDDEN _sk_clamp_a_sse41
.globl _sk_clamp_a_sse41
FUNCTION(_sk_clamp_a_sse41)
_sk_clamp_a_sse41:
- .byte 15,93,29,106,211,1,0 // minps 0x1d36a(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,93,29,218,214,1,0 // minps 0x1d6da(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -27724,7 +28075,7 @@ HIDDEN _sk_clamp_a_dst_sse41
.globl _sk_clamp_a_dst_sse41
FUNCTION(_sk_clamp_a_dst_sse41)
_sk_clamp_a_dst_sse41:
- .byte 15,93,61,86,211,1,0 // minps 0x1d356(%rip),%xmm7 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,93,61,198,214,1,0 // minps 0x1d6c6(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -27759,7 +28110,7 @@ HIDDEN _sk_invert_sse41
.globl _sk_invert_sse41
FUNCTION(_sk_invert_sse41)
_sk_invert_sse41:
- .byte 68,15,40,5,18,211,1,0 // movaps 0x1d312(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,130,214,1,0 // movaps 0x1d682(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -27820,10 +28171,10 @@ HIDDEN _sk_unpremul_sse41
.globl _sk_unpremul_sse41
FUNCTION(_sk_unpremul_sse41)
_sk_unpremul_sse41:
- .byte 68,15,40,5,160,210,1,0 // movaps 0x1d2a0(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,16,214,1,0 // movaps 0x1d610(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,94,195 // divps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,194,13,127,211,1,0,1 // cmpltps 0x1d37f(%rip),%xmm9 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0xccc>
+ .byte 68,15,194,13,239,214,1,0,1 // cmpltps 0x1d6ef(%rip),%xmm9 # 3ac40 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 69,15,84,200 // andps %xmm8,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,201 // mulps %xmm9,%xmm1
@@ -27835,20 +28186,20 @@ HIDDEN _sk_from_srgb_sse41
.globl _sk_from_srgb_sse41
FUNCTION(_sk_from_srgb_sse41)
_sk_from_srgb_sse41:
- .byte 68,15,40,29,115,211,1,0 // movaps 0x1d373(%rip),%xmm11 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0xcdc>
+ .byte 68,15,40,29,227,214,1,0 // movaps 0x1d6e3(%rip),%xmm11 # 3ac50 <_sk_srcover_bgra_8888_sse2_lowp+0xce8>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
- .byte 68,15,40,37,219,210,1,0 // movaps 0x1d2db(%rip),%xmm12 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c>
+ .byte 68,15,40,37,75,214,1,0 // movaps 0x1d64b(%rip),%xmm12 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,91,211,1,0 // movaps 0x1d35b(%rip),%xmm13 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0xcec>
+ .byte 68,15,40,45,203,214,1,0 // movaps 0x1d6cb(%rip),%xmm13 # 3ac60 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
.byte 69,15,88,197 // addps %xmm13,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 68,15,40,53,91,211,1,0 // movaps 0x1d35b(%rip),%xmm14 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0xcfc>
+ .byte 68,15,40,53,203,214,1,0 // movaps 0x1d6cb(%rip),%xmm14 # 3ac70 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
.byte 69,15,88,198 // addps %xmm14,%xmm8
- .byte 68,15,40,61,95,211,1,0 // movaps 0x1d35f(%rip),%xmm15 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0xd0c>
+ .byte 68,15,40,61,207,214,1,0 // movaps 0x1d6cf(%rip),%xmm15 # 3ac80 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,40,209 // movaps %xmm1,%xmm10
@@ -27885,19 +28236,19 @@ FUNCTION(_sk_from_srgb_dst_sse41)
_sk_from_srgb_dst_sse41:
.byte 68,15,40,204 // movaps %xmm4,%xmm9
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,29,170,210,1,0 // movaps 0x1d2aa(%rip),%xmm11 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0xcdc>
+ .byte 68,15,40,29,26,214,1,0 // movaps 0x1d61a(%rip),%xmm11 # 3ac50 <_sk_srcover_bgra_8888_sse2_lowp+0xce8>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,37,19,210,1,0 // movaps 0x1d213(%rip),%xmm12 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c>
+ .byte 68,15,40,37,131,213,1,0 // movaps 0x1d583(%rip),%xmm12 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 65,15,89,228 // mulps %xmm12,%xmm4
- .byte 68,15,40,45,151,210,1,0 // movaps 0x1d297(%rip),%xmm13 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0xcec>
+ .byte 68,15,40,45,7,214,1,0 // movaps 0x1d607(%rip),%xmm13 # 3ac60 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
.byte 65,15,88,229 // addps %xmm13,%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 68,15,40,53,152,210,1,0 // movaps 0x1d298(%rip),%xmm14 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0xcfc>
+ .byte 68,15,40,53,8,214,1,0 // movaps 0x1d608(%rip),%xmm14 # 3ac70 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
.byte 65,15,88,230 // addps %xmm14,%xmm4
- .byte 68,15,40,61,156,210,1,0 // movaps 0x1d29c(%rip),%xmm15 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0xd0c>
+ .byte 68,15,40,61,12,214,1,0 // movaps 0x1d60c(%rip),%xmm15 # 3ac80 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
.byte 69,15,194,207,1 // cmpltps %xmm15,%xmm9
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,226 // blendvps %xmm0,%xmm10,%xmm4
@@ -27941,22 +28292,22 @@ _sk_to_srgb_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 68,15,82,192 // rsqrtps %xmm0,%xmm8
- .byte 68,15,40,29,16,210,1,0 // movaps 0x1d210(%rip),%xmm11 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0xd1c>
+ .byte 68,15,40,29,128,213,1,0 // movaps 0x1d580(%rip),%xmm11 # 3ac90 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 68,15,40,37,16,210,1,0 // movaps 0x1d210(%rip),%xmm12 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0xd2c>
+ .byte 68,15,40,37,128,213,1,0 // movaps 0x1d580(%rip),%xmm12 # 3aca0 <_sk_srcover_bgra_8888_sse2_lowp+0xd38>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 69,15,89,252 // mulps %xmm12,%xmm15
- .byte 68,15,40,21,16,210,1,0 // movaps 0x1d210(%rip),%xmm10 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0xd3c>
+ .byte 68,15,40,21,128,213,1,0 // movaps 0x1d580(%rip),%xmm10 # 3acb0 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,248 // mulps %xmm8,%xmm15
- .byte 68,15,40,45,16,210,1,0 // movaps 0x1d210(%rip),%xmm13 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0xd4c>
+ .byte 68,15,40,45,128,213,1,0 // movaps 0x1d580(%rip),%xmm13 # 3acc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
.byte 69,15,88,253 // addps %xmm13,%xmm15
- .byte 68,15,40,53,20,210,1,0 // movaps 0x1d214(%rip),%xmm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd5c>
+ .byte 68,15,40,53,132,213,1,0 // movaps 0x1d584(%rip),%xmm14 # 3acd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
.byte 69,15,88,198 // addps %xmm14,%xmm8
.byte 69,15,83,192 // rcpps %xmm8,%xmm8
.byte 69,15,89,199 // mulps %xmm15,%xmm8
- .byte 68,15,40,61,16,210,1,0 // movaps 0x1d210(%rip),%xmm15 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0xd6c>
+ .byte 68,15,40,61,128,213,1,0 // movaps 0x1d580(%rip),%xmm15 # 3ace0 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,82,202 // rsqrtps %xmm2,%xmm9
@@ -28011,7 +28362,7 @@ _sk_rgb_to_hsl_sse41:
.byte 68,15,93,224 // minps %xmm0,%xmm12
.byte 65,15,40,203 // movaps %xmm11,%xmm1
.byte 65,15,92,204 // subps %xmm12,%xmm1
- .byte 68,15,40,53,183,207,1,0 // movaps 0x1cfb7(%rip),%xmm14 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,53,39,211,1,0 // movaps 0x1d327(%rip),%xmm14 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,94,241 // divps %xmm1,%xmm14
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 69,15,194,208,0 // cmpeqps %xmm8,%xmm10
@@ -28020,27 +28371,27 @@ _sk_rgb_to_hsl_sse41:
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 68,15,194,250,1 // cmpltps %xmm2,%xmm15
- .byte 68,15,84,61,46,209,1,0 // andps 0x1d12e(%rip),%xmm15 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd7c>
+ .byte 68,15,84,61,158,212,1,0 // andps 0x1d49e(%rip),%xmm15 # 3acf0 <_sk_srcover_bgra_8888_sse2_lowp+0xd88>
.byte 68,15,88,248 // addps %xmm0,%xmm15
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,214 // mulps %xmm14,%xmm2
- .byte 68,15,40,45,33,209,1,0 // movaps 0x1d121(%rip),%xmm13 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd8c>
+ .byte 68,15,40,45,145,212,1,0 // movaps 0x1d491(%rip),%xmm13 # 3ad00 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
.byte 65,15,88,213 // addps %xmm13,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,198 // mulps %xmm14,%xmm8
- .byte 68,15,88,5,29,209,1,0 // addps 0x1d11d(%rip),%xmm8 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd9c>
+ .byte 68,15,88,5,141,212,1,0 // addps 0x1d48d(%rip),%xmm8 # 3ad10 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
.byte 102,68,15,56,20,194 // blendvps %xmm0,%xmm2,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,69,15,56,20,199 // blendvps %xmm0,%xmm15,%xmm8
- .byte 68,15,89,5,21,209,1,0 // mulps 0x1d115(%rip),%xmm8 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0xdac>
+ .byte 68,15,89,5,133,212,1,0 // mulps 0x1d485(%rip),%xmm8 # 3ad20 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
.byte 69,15,40,203 // movaps %xmm11,%xmm9
.byte 69,15,194,204,4 // cmpneqps %xmm12,%xmm9
.byte 69,15,84,193 // andps %xmm9,%xmm8
.byte 69,15,92,235 // subps %xmm11,%xmm13
.byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 15,40,5,25,207,1,0 // movaps 0x1cf19(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,40,5,137,210,1,0 // movaps 0x1d289(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 65,15,40,211 // movaps %xmm11,%xmm2
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,194,194,1 // cmpltps %xmm2,%xmm0
@@ -28062,7 +28413,7 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp)
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 68,15,40,13,207,206,1,0 // movaps 0x1cecf(%rip),%xmm9 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,40,13,63,210,1,0 // movaps 0x1d23f(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,194,194,2 // cmpleps %xmm2,%xmm0
.byte 15,40,217 // movaps %xmm1,%xmm3
@@ -28075,19 +28426,19 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,84,36,152 // movaps %xmm2,-0x68(%rsp)
.byte 69,15,88,192 // addps %xmm8,%xmm8
.byte 68,15,92,197 // subps %xmm5,%xmm8
- .byte 68,15,40,53,138,208,1,0 // movaps 0x1d08a(%rip),%xmm14 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0xdbc>
+ .byte 68,15,40,53,250,211,1,0 // movaps 0x1d3fa(%rip),%xmm14 # 3ad30 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 102,65,15,58,8,198,1 // roundps $0x1,%xmm14,%xmm0
.byte 68,15,92,240 // subps %xmm0,%xmm14
- .byte 68,15,40,29,131,208,1,0 // movaps 0x1d083(%rip),%xmm11 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0xdcc>
+ .byte 68,15,40,29,243,211,1,0 // movaps 0x1d3f3(%rip),%xmm11 # 3ad40 <_sk_srcover_bgra_8888_sse2_lowp+0xdd8>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 65,15,92,240 // subps %xmm8,%xmm6
- .byte 15,40,61,28,208,1,0 // movaps 0x1d01c(%rip),%xmm7 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd7c>
+ .byte 15,40,61,140,211,1,0 // movaps 0x1d38c(%rip),%xmm7 # 3acf0 <_sk_srcover_bgra_8888_sse2_lowp+0xd88>
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 68,15,89,239 // mulps %xmm7,%xmm13
- .byte 15,40,29,45,208,1,0 // movaps 0x1d02d(%rip),%xmm3 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd9c>
+ .byte 15,40,29,157,211,1,0 // movaps 0x1d39d(%rip),%xmm3 # 3ad10 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
.byte 68,15,40,227 // movaps %xmm3,%xmm12
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 68,15,89,230 // mulps %xmm6,%xmm12
@@ -28097,7 +28448,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,40,253 // movaps %xmm5,%xmm15
.byte 102,69,15,56,20,252 // blendvps %xmm0,%xmm12,%xmm15
- .byte 68,15,40,37,12,208,1,0 // movaps 0x1d00c(%rip),%xmm12 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0xdac>
+ .byte 68,15,40,37,124,211,1,0 // movaps 0x1d37c(%rip),%xmm12 # 3ad20 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
.byte 65,15,40,196 // movaps %xmm12,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,89,238 // mulps %xmm6,%xmm13
@@ -28131,7 +28482,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 15,40,84,36,152 // movaps -0x68(%rsp),%xmm2
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,88,21,164,207,1,0 // addps 0x1cfa4(%rip),%xmm10 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc>
+ .byte 68,15,88,21,20,211,1,0 // addps 0x1d314(%rip),%xmm10 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 102,65,15,58,8,194,1 // roundps $0x1,%xmm10,%xmm0
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 69,15,194,218,2 // cmpleps %xmm10,%xmm11
@@ -28186,11 +28537,11 @@ _sk_scale_u8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne 1d473 <_sk_scale_u8_sse41+0x4c>
+ .byte 117,52 // jne 1db23 <_sk_scale_u8_sse41+0x4c>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,145,205,1,0 // pand 0x1cd91(%rip),%xmm8 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,68,15,219,5,1,209,1,0 // pand 0x1d101(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,229,206,1,0 // mulps 0x1cee5(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 68,15,89,5,85,210,1,0 // mulps 0x1d255(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -28201,12 +28552,12 @@ _sk_scale_u8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,59 // je 1d4bb <_sk_scale_u8_sse41+0x94>
+ .byte 116,59 // je 1db6b <_sk_scale_u8_sse41+0x94>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1d4a2 <_sk_scale_u8_sse41+0x7b>
+ .byte 116,23 // je 1db52 <_sk_scale_u8_sse41+0x7b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,181 // jne 1d446 <_sk_scale_u8_sse41+0x1f>
+ .byte 117,181 // jne 1daf6 <_sk_scale_u8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -28214,10 +28565,10 @@ _sk_scale_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 235,139 // jmp 1d446 <_sk_scale_u8_sse41+0x1f>
+ .byte 235,139 // jmp 1daf6 <_sk_scale_u8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,124,255,255,255 // jmpq 1d446 <_sk_scale_u8_sse41+0x1f>
+ .byte 233,124,255,255,255 // jmpq 1daf6 <_sk_scale_u8_sse41+0x1f>
HIDDEN _sk_scale_565_sse41
.globl _sk_scale_565_sse41
@@ -28232,19 +28583,19 @@ _sk_scale_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,159,0,0,0 // jne 1d58d <_sk_scale_565_sse41+0xc3>
+ .byte 15,133,159,0,0,0 // jne 1dc3d <_sk_scale_565_sse41+0xc3>
.byte 102,71,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm11
- .byte 102,15,111,5,83,206,1,0 // movdqa 0x1ce53(%rip),%xmm0 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc>
+ .byte 102,15,111,5,195,209,1,0 // movdqa 0x1d1c3(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,82,206,1,0 // mulps 0x1ce52(%rip),%xmm9 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c>
- .byte 102,15,111,5,90,206,1,0 // movdqa 0x1ce5a(%rip),%xmm0 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c>
+ .byte 68,15,89,13,194,209,1,0 // mulps 0x1d1c2(%rip),%xmm9 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,5,202,209,1,0 // movdqa 0x1d1ca(%rip),%xmm0 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,208 // cvtdq2ps %xmm0,%xmm10
- .byte 68,15,89,21,89,206,1,0 // mulps 0x1ce59(%rip),%xmm10 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c>
- .byte 102,68,15,219,29,96,206,1,0 // pand 0x1ce60(%rip),%xmm11 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c>
+ .byte 68,15,89,21,201,209,1,0 // mulps 0x1d1c9(%rip),%xmm10 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,68,15,219,29,208,209,1,0 // pand 0x1d1d0(%rip),%xmm11 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
- .byte 68,15,89,29,100,206,1,0 // mulps 0x1ce64(%rip),%xmm11 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c>
+ .byte 68,15,89,29,212,209,1,0 // mulps 0x1d1d4(%rip),%xmm11 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,226 // movaps %xmm10,%xmm12
@@ -28269,22 +28620,22 @@ _sk_scale_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 1d5d6 <_sk_scale_565_sse41+0x10c>
+ .byte 116,60 // je 1dc86 <_sk_scale_565_sse41+0x10c>
.byte 102,69,15,239,219 // pxor %xmm11,%xmm11
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,26 // je 1d5bf <_sk_scale_565_sse41+0xf5>
+ .byte 116,26 // je 1dc6f <_sk_scale_565_sse41+0xf5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,70,255,255,255 // jne 1d4f5 <_sk_scale_565_sse41+0x2b>
+ .byte 15,133,70,255,255,255 // jne 1dba5 <_sk_scale_565_sse41+0x2b>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,68,15,112,216,69 // pshufd $0x45,%xmm0,%xmm11
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,68,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm11
- .byte 233,31,255,255,255 // jmpq 1d4f5 <_sk_scale_565_sse41+0x2b>
+ .byte 233,31,255,255,255 // jmpq 1dba5 <_sk_scale_565_sse41+0x2b>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,216 // movd %eax,%xmm11
- .byte 233,16,255,255,255 // jmpq 1d4f5 <_sk_scale_565_sse41+0x2b>
+ .byte 233,16,255,255,255 // jmpq 1dba5 <_sk_scale_565_sse41+0x2b>
HIDDEN _sk_lerp_1_float_sse41
.globl _sk_lerp_1_float_sse41
@@ -28319,11 +28670,11 @@ _sk_lerp_u8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,72 // jne 1d67d <_sk_lerp_u8_sse41+0x60>
+ .byte 117,72 // jne 1dd2d <_sk_lerp_u8_sse41+0x60>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,155,203,1,0 // pand 0x1cb9b(%rip),%xmm8 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,68,15,219,5,11,207,1,0 // pand 0x1cf0b(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,239,204,1,0 // mulps 0x1ccef(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 68,15,89,5,95,208,1,0 // mulps 0x1d05f(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -28341,12 +28692,12 @@ _sk_lerp_u8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,62 // je 1d6c8 <_sk_lerp_u8_sse41+0xab>
+ .byte 116,62 // je 1dd78 <_sk_lerp_u8_sse41+0xab>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1d6ac <_sk_lerp_u8_sse41+0x8f>
+ .byte 116,23 // je 1dd5c <_sk_lerp_u8_sse41+0x8f>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,161 // jne 1d63c <_sk_lerp_u8_sse41+0x1f>
+ .byte 117,161 // jne 1dcec <_sk_lerp_u8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -28354,10 +28705,10 @@ _sk_lerp_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 233,116,255,255,255 // jmpq 1d63c <_sk_lerp_u8_sse41+0x1f>
+ .byte 233,116,255,255,255 // jmpq 1dcec <_sk_lerp_u8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,101,255,255,255 // jmpq 1d63c <_sk_lerp_u8_sse41+0x1f>
+ .byte 233,101,255,255,255 // jmpq 1dcec <_sk_lerp_u8_sse41+0x1f>
HIDDEN _sk_lerp_565_sse41
.globl _sk_lerp_565_sse41
@@ -28372,19 +28723,19 @@ _sk_lerp_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,165,0,0,0 // jne 1d7a0 <_sk_lerp_565_sse41+0xc9>
+ .byte 15,133,165,0,0,0 // jne 1de50 <_sk_lerp_565_sse41+0xc9>
.byte 102,71,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm10
- .byte 102,15,111,5,70,204,1,0 // movdqa 0x1cc46(%rip),%xmm0 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc>
+ .byte 102,15,111,5,182,207,1,0 // movdqa 0x1cfb6(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,69,204,1,0 // mulps 0x1cc45(%rip),%xmm9 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c>
- .byte 102,15,111,5,77,204,1,0 // movdqa 0x1cc4d(%rip),%xmm0 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c>
+ .byte 68,15,89,13,181,207,1,0 // mulps 0x1cfb5(%rip),%xmm9 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,5,189,207,1,0 // movdqa 0x1cfbd(%rip),%xmm0 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,216 // cvtdq2ps %xmm0,%xmm11
- .byte 68,15,89,29,76,204,1,0 // mulps 0x1cc4c(%rip),%xmm11 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c>
- .byte 102,68,15,219,21,83,204,1,0 // pand 0x1cc53(%rip),%xmm10 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c>
+ .byte 68,15,89,29,188,207,1,0 // mulps 0x1cfbc(%rip),%xmm11 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,68,15,219,21,195,207,1,0 // pand 0x1cfc3(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,87,204,1,0 // mulps 0x1cc57(%rip),%xmm10 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c>
+ .byte 68,15,89,21,199,207,1,0 // mulps 0x1cfc7(%rip),%xmm10 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -28412,22 +28763,22 @@ _sk_lerp_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 1d7e9 <_sk_lerp_565_sse41+0x112>
+ .byte 116,60 // je 1de99 <_sk_lerp_565_sse41+0x112>
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,26 // je 1d7d2 <_sk_lerp_565_sse41+0xfb>
+ .byte 116,26 // je 1de82 <_sk_lerp_565_sse41+0xfb>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,64,255,255,255 // jne 1d702 <_sk_lerp_565_sse41+0x2b>
+ .byte 15,133,64,255,255,255 // jne 1ddb2 <_sk_lerp_565_sse41+0x2b>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,68,15,112,208,69 // pshufd $0x45,%xmm0,%xmm10
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,68,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm10
- .byte 233,25,255,255,255 // jmpq 1d702 <_sk_lerp_565_sse41+0x2b>
+ .byte 233,25,255,255,255 // jmpq 1ddb2 <_sk_lerp_565_sse41+0x2b>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,10,255,255,255 // jmpq 1d702 <_sk_lerp_565_sse41+0x2b>
+ .byte 233,10,255,255,255 // jmpq 1ddb2 <_sk_lerp_565_sse41+0x2b>
HIDDEN _sk_load_tables_sse41
.globl _sk_load_tables_sse41
@@ -28436,11 +28787,11 @@ _sk_load_tables_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,20,1,0,0 // jne 1d91a <_sk_load_tables_sse41+0x122>
+ .byte 15,133,20,1,0,0 // jne 1dfca <_sk_load_tables_sse41+0x122>
.byte 243,69,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm8
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,15,111,5,201,201,1,0 // movdqa 0x1c9c9(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,111,5,57,205,1,0 // movdqa 0x1cd39(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -28455,7 +28806,7 @@ _sk_load_tables_sse41:
.byte 102,66,15,58,33,4,155,32 // insertps $0x20,(%rbx,%r11,4),%xmm0
.byte 102,66,15,58,33,4,3,48 // insertps $0x30,(%rbx,%r8,1),%xmm0
.byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,56,0,13,132,201,1,0 // pshufb 0x1c984(%rip),%xmm1 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc9c>
+ .byte 102,15,56,0,13,244,204,1,0 // pshufb 0x1ccf4(%rip),%xmm1 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 68,15,182,203 // movzbl %bl,%r9d
@@ -28470,7 +28821,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
.byte 76,139,64,24 // mov 0x18(%rax),%r8
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,56,0,21,64,201,1,0 // pshufb 0x1c940(%rip),%xmm2 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0xcac>
+ .byte 102,15,56,0,21,176,204,1,0 // pshufb 0x1ccb0(%rip),%xmm2 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx
.byte 102,72,15,126,208 // movq %xmm2,%rax
.byte 68,15,182,200 // movzbl %al,%r9d
@@ -28485,7 +28836,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,216 // cvtdq2ps %xmm8,%xmm3
- .byte 15,89,29,45,202,1,0 // mulps 0x1ca2d(%rip),%xmm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 15,89,29,157,205,1,0 // mulps 0x1cd9d(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -28493,19 +28844,19 @@ _sk_load_tables_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,52 // je 1d95b <_sk_load_tables_sse41+0x163>
+ .byte 116,52 // je 1e00b <_sk_load_tables_sse41+0x163>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1d949 <_sk_load_tables_sse41+0x151>
+ .byte 116,23 // je 1dff9 <_sk_load_tables_sse41+0x151>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,208,254,255,255 // jne 1d80c <_sk_load_tables_sse41+0x14>
+ .byte 15,133,208,254,255,255 // jne 1debc <_sk_load_tables_sse41+0x14>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,68,15,58,14,192,15 // pblendw $0xf,%xmm0,%xmm8
- .byte 233,177,254,255,255 // jmpq 1d80c <_sk_load_tables_sse41+0x14>
+ .byte 233,177,254,255,255 // jmpq 1debc <_sk_load_tables_sse41+0x14>
.byte 102,69,15,110,4,144 // movd (%r8,%rdx,4),%xmm8
- .byte 233,166,254,255,255 // jmpq 1d80c <_sk_load_tables_sse41+0x14>
+ .byte 233,166,254,255,255 // jmpq 1debc <_sk_load_tables_sse41+0x14>
HIDDEN _sk_load_tables_u16_be_sse41
.globl _sk_load_tables_u16_be_sse41
@@ -28515,7 +28866,7 @@ _sk_load_tables_u16_be_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,95,1,0,0 // jne 1dadb <_sk_load_tables_u16_be_sse41+0x175>
+ .byte 15,133,95,1,0,0 // jne 1e18b <_sk_load_tables_u16_be_sse41+0x175>
.byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
.byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
.byte 65,86 // push %r14
@@ -28526,7 +28877,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,68,15,111,5,255,201,1,0 // movdqa 0x1c9ff(%rip),%xmm8 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe5c>
+ .byte 102,68,15,111,5,111,205,1,0 // movdqa 0x1cd6f(%rip),%xmm8 # 3add0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -28544,7 +28895,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,15,58,33,194,32 // insertps $0x20,%xmm2,%xmm0
.byte 243,66,15,16,20,3 // movss (%rbx,%r8,1),%xmm2
.byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0
- .byte 102,15,56,0,13,174,201,1,0 // pshufb 0x1c9ae(%rip),%xmm1 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe6c>
+ .byte 102,15,56,0,13,30,205,1,0 // pshufb 0x1cd1e(%rip),%xmm1 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -28580,23 +28931,23 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,235,216 // por %xmm8,%xmm3
.byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,252,200,1,0 // mulps 0x1c8fc(%rip),%xmm3 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe7c>
+ .byte 15,89,29,108,204,1,0 // mulps 0x1cc6c(%rip),%xmm3 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1daf4 <_sk_load_tables_u16_be_sse41+0x18e>
+ .byte 117,13 // jne 1e1a4 <_sk_load_tables_u16_be_sse41+0x18e>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,149,254,255,255 // jmpq 1d989 <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,149,254,255,255 // jmpq 1e039 <_sk_load_tables_u16_be_sse41+0x23>
.byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,128,254,255,255 // jb 1d989 <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 15,130,128,254,255,255 // jb 1e039 <_sk_load_tables_u16_be_sse41+0x23>
.byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,116,254,255,255 // jmpq 1d989 <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,116,254,255,255 // jmpq 1e039 <_sk_load_tables_u16_be_sse41+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse41
.globl _sk_load_tables_rgb_u16_be_sse41
@@ -28606,7 +28957,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,79,1,0,0 // jne 1dc76 <_sk_load_tables_rgb_u16_be_sse41+0x161>
+ .byte 15,133,79,1,0,0 // jne 1e326 <_sk_load_tables_rgb_u16_be_sse41+0x161>
.byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
.byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -28620,7 +28971,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
- .byte 102,68,15,111,5,69,200,1,0 // movdqa 0x1c845(%rip),%xmm8 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe5c>
+ .byte 102,68,15,111,5,181,203,1,0 // movdqa 0x1cbb5(%rip),%xmm8 # 3add0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -28638,7 +28989,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,58,33,195,32 // insertps $0x20,%xmm3,%xmm0
.byte 243,66,15,16,28,3 // movss (%rbx,%r8,1),%xmm3
.byte 102,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm0
- .byte 102,15,56,0,13,244,199,1,0 // pshufb 0x1c7f4(%rip),%xmm1 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe6c>
+ .byte 102,15,56,0,13,100,203,1,0 // pshufb 0x1cb64(%rip),%xmm1 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -28669,7 +29020,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 243,65,15,16,28,24 // movss (%r8,%rbx,1),%xmm3
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,191,196,1,0 // movaps 0x1c4bf(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,29,47,200,1,0 // movaps 0x1c82f(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -28677,21 +29028,21 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 1dc9c <_sk_load_tables_rgb_u16_be_sse41+0x187>
+ .byte 117,14 // jne 1e34c <_sk_load_tables_rgb_u16_be_sse41+0x187>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 233,177,254,255,255 // jmpq 1db4d <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,177,254,255,255 // jmpq 1e1fd <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,71,15,110,76,72,6 // movd 0x6(%r8,%r9,2),%xmm9
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,71,15,196,76,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm9
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 1dccd <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
+ .byte 114,24 // jb 1e37d <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
.byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,128,254,255,255 // jmpq 1db4d <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,128,254,255,255 // jmpq 1e1fd <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,119,254,255,255 // jmpq 1db4d <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,119,254,255,255 // jmpq 1e1fd <_sk_load_tables_rgb_u16_be_sse41+0x38>
HIDDEN _sk_byte_tables_sse41
.globl _sk_byte_tables_sse41
@@ -28701,9 +29052,14 @@ _sk_byte_tables_sse41:
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,44,197,1,0 // movaps 0x1c52c(%rip),%xmm8 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 69,15,87,219 // xorps %xmm11,%xmm11
+ .byte 68,15,95,216 // maxps %xmm0,%xmm11
+ .byte 68,15,40,13,176,199,1,0 // movaps 0x1c7b0(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,93,217 // minps %xmm9,%xmm11
+ .byte 68,15,40,21,132,200,1,0 // movaps 0x1c884(%rip),%xmm10 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 69,15,89,218 // mulps %xmm10,%xmm11
+ .byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
.byte 69,137,193 // mov %r8d,%r9d
.byte 77,137,194 // mov %r8,%r10
@@ -28724,10 +29080,13 @@ _sk_byte_tables_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,13,242,197,1,0 // movaps 0x1c5f2(%rip),%xmm9 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
+ .byte 68,15,40,29,73,201,1,0 // movaps 0x1c949(%rip),%xmm11 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 65,15,89,195 // mulps %xmm11,%xmm0
+ .byte 69,15,87,228 // xorps %xmm12,%xmm12
+ .byte 68,15,95,225 // maxps %xmm1,%xmm12
+ .byte 69,15,93,225 // minps %xmm9,%xmm12
+ .byte 69,15,89,226 // mulps %xmm10,%xmm12
+ .byte 102,65,15,91,204 // cvtps2dq %xmm12,%xmm1
.byte 102,72,15,58,22,205,1 // pextrq $0x1,%xmm1,%rbp
.byte 65,137,233 // mov %ebp,%r9d
.byte 72,193,237,32 // shr $0x20,%rbp
@@ -28744,10 +29103,13 @@ _sk_byte_tables_sse41:
.byte 102,15,58,32,205,3 // pinsrb $0x3,%ebp,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,201 // mulps %xmm9,%xmm1
+ .byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
+ .byte 69,15,87,228 // xorps %xmm12,%xmm12
+ .byte 68,15,95,226 // maxps %xmm2,%xmm12
+ .byte 69,15,93,225 // minps %xmm9,%xmm12
+ .byte 69,15,89,226 // mulps %xmm10,%xmm12
+ .byte 102,65,15,91,212 // cvtps2dq %xmm12,%xmm2
.byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx
.byte 65,137,216 // mov %ebx,%r8d
.byte 72,193,235,32 // shr $0x20,%rbx
@@ -28764,10 +29126,12 @@ _sk_byte_tables_sse41:
.byte 102,15,58,32,213,3 // pinsrb $0x3,%ebp,%xmm2
.byte 102,15,56,49,210 // pmovzxbd %xmm2,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
+ .byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3
+ .byte 68,15,95,195 // maxps %xmm3,%xmm8
+ .byte 69,15,93,193 // minps %xmm9,%xmm8
+ .byte 69,15,89,194 // mulps %xmm10,%xmm8
+ .byte 102,65,15,91,216 // cvtps2dq %xmm8,%xmm3
.byte 102,72,15,58,22,221,1 // pextrq $0x1,%xmm3,%rbp
.byte 65,137,232 // mov %ebp,%r8d
.byte 72,193,237,32 // shr $0x20,%rbp
@@ -28784,7 +29148,7 @@ _sk_byte_tables_sse41:
.byte 102,15,58,32,216,3 // pinsrb $0x3,%eax,%xmm3
.byte 102,15,56,49,219 // pmovzxbd %xmm3,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 65,15,89,217 // mulps %xmm9,%xmm3
+ .byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -28804,8 +29168,13 @@ _sk_byte_tables_rgb_sse41:
.byte 102,69,15,110,192 // movd %r8d,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 69,15,87,219 // xorps %xmm11,%xmm11
+ .byte 68,15,95,216 // maxps %xmm0,%xmm11
+ .byte 68,15,40,21,200,197,1,0 // movaps 0x1c5c8(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,93,218 // minps %xmm10,%xmm11
+ .byte 69,15,89,216 // mulps %xmm8,%xmm11
+ .byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
.byte 69,137,193 // mov %r8d,%r9d
.byte 77,137,194 // mov %r8,%r10
@@ -28826,10 +29195,13 @@ _sk_byte_tables_rgb_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,13,78,196,1,0 // movaps 0x1c44e(%rip),%xmm9 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
+ .byte 68,15,40,29,105,199,1,0 // movaps 0x1c769(%rip),%xmm11 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 65,15,89,195 // mulps %xmm11,%xmm0
+ .byte 69,15,87,228 // xorps %xmm12,%xmm12
+ .byte 68,15,95,225 // maxps %xmm1,%xmm12
+ .byte 69,15,93,226 // minps %xmm10,%xmm12
+ .byte 69,15,89,224 // mulps %xmm8,%xmm12
+ .byte 102,65,15,91,204 // cvtps2dq %xmm12,%xmm1
.byte 102,72,15,58,22,205,1 // pextrq $0x1,%xmm1,%rbp
.byte 65,137,233 // mov %ebp,%r9d
.byte 72,193,237,32 // shr $0x20,%rbp
@@ -28846,10 +29218,12 @@ _sk_byte_tables_rgb_sse41:
.byte 102,15,58,32,205,3 // pinsrb $0x3,%ebp,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,201 // mulps %xmm9,%xmm1
+ .byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 72,139,64,16 // mov 0x10(%rax),%rax
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
+ .byte 68,15,95,202 // maxps %xmm2,%xmm9
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 102,65,15,91,209 // cvtps2dq %xmm9,%xmm2
.byte 102,72,15,58,22,213,1 // pextrq $0x1,%xmm2,%rbp
.byte 65,137,232 // mov %ebp,%r8d
.byte 72,193,237,32 // shr $0x20,%rbp
@@ -28866,7 +29240,7 @@ _sk_byte_tables_rgb_sse41:
.byte 102,15,58,32,208,3 // pinsrb $0x3,%eax,%xmm2
.byte 102,15,56,49,210 // pmovzxbd %xmm2,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
+ .byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -28884,8 +29258,11 @@ _sk_table_r_sse41:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 102,65,15,91,192 // cvtps2dq %xmm8,%xmm0
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,200 // maxps %xmm0,%xmm9
+ .byte 68,15,93,13,89,196,1,0 // minps 0x1c459(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 102,65,15,91,193 // cvtps2dq %xmm9,%xmm0
.byte 102,72,15,58,22,192,1 // pextrq $0x1,%xmm0,%rax
.byte 65,137,193 // mov %eax,%r9d
.byte 72,193,232,32 // shr $0x20,%rax
@@ -28912,8 +29289,11 @@ _sk_table_g_sse41:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,193 // mulps %xmm1,%xmm8
- .byte 102,65,15,91,200 // cvtps2dq %xmm8,%xmm1
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,201 // maxps %xmm1,%xmm9
+ .byte 68,15,93,13,225,195,1,0 // minps 0x1c3e1(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 102,65,15,91,201 // cvtps2dq %xmm9,%xmm1
.byte 102,72,15,58,22,200,1 // pextrq $0x1,%xmm1,%rax
.byte 65,137,193 // mov %eax,%r9d
.byte 72,193,232,32 // shr $0x20,%rax
@@ -28940,8 +29320,11 @@ _sk_table_b_sse41:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,194 // mulps %xmm2,%xmm8
- .byte 102,65,15,91,208 // cvtps2dq %xmm8,%xmm2
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,202 // maxps %xmm2,%xmm9
+ .byte 68,15,93,13,105,195,1,0 // minps 0x1c369(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 102,65,15,91,209 // cvtps2dq %xmm9,%xmm2
.byte 102,72,15,58,22,208,1 // pextrq $0x1,%xmm2,%rax
.byte 65,137,193 // mov %eax,%r9d
.byte 72,193,232,32 // shr $0x20,%rax
@@ -28968,8 +29351,11 @@ _sk_table_a_sse41:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,195 // mulps %xmm3,%xmm8
- .byte 102,65,15,91,216 // cvtps2dq %xmm8,%xmm3
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,203 // maxps %xmm3,%xmm9
+ .byte 68,15,93,13,241,194,1,0 // minps 0x1c2f1(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 102,65,15,91,217 // cvtps2dq %xmm9,%xmm3
.byte 102,72,15,58,22,216,1 // pextrq $0x1,%xmm3,%rax
.byte 65,137,193 // mov %eax,%r9d
.byte 72,193,232,32 // shr $0x20,%rax
@@ -29009,32 +29395,32 @@ _sk_parametric_r_sse41:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,91,194 // cvtdq2ps %xmm10,%xmm8
- .byte 68,15,89,5,37,194,1,0 // mulps 0x1c225(%rip),%xmm8 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c>
- .byte 68,15,40,45,45,194,1,0 // movaps 0x1c22d(%rip),%xmm13 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c>
+ .byte 68,15,89,5,234,196,1,0 // mulps 0x1c4ea(%rip),%xmm8 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,45,242,196,1,0 // movaps 0x1c4f2(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,81,191,1,0 // orps 0x1bf51(%rip),%xmm13 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
- .byte 68,15,88,5,41,194,1,0 // addps 0x1c229(%rip),%xmm8 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
- .byte 68,15,40,53,49,194,1,0 // movaps 0x1c231(%rip),%xmm14 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc>
+ .byte 68,15,86,45,22,194,1,0 // orps 0x1c216(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,5,238,196,1,0 // addps 0x1c4ee(%rip),%xmm8 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,53,246,196,1,0 // movaps 0x1c4f6(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,198 // subps %xmm14,%xmm8
- .byte 68,15,88,45,49,194,1,0 // addps 0x1c231(%rip),%xmm13 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc>
- .byte 68,15,40,53,57,194,1,0 // movaps 0x1c239(%rip),%xmm14 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc>
+ .byte 68,15,88,45,246,196,1,0 // addps 0x1c4f6(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,40,53,254,196,1,0 // movaps 0x1c4fe(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,198 // subps %xmm14,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
.byte 102,69,15,58,8,224,1 // roundps $0x1,%xmm8,%xmm12
.byte 69,15,40,232 // movaps %xmm8,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,5,38,194,1,0 // addps 0x1c226(%rip),%xmm8 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec>
- .byte 68,15,40,37,46,194,1,0 // movaps 0x1c22e(%rip),%xmm12 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc>
+ .byte 68,15,88,5,235,196,1,0 // addps 0x1c4eb(%rip),%xmm8 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,40,37,243,196,1,0 // movaps 0x1c4f3(%rip),%xmm12 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
- .byte 68,15,40,37,46,194,1,0 // movaps 0x1c22e(%rip),%xmm12 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c>
+ .byte 68,15,40,37,243,196,1,0 // movaps 0x1c4f3(%rip),%xmm12 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,50,194,1,0 // movaps 0x1c232(%rip),%xmm13 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c>
+ .byte 68,15,40,45,247,196,1,0 // movaps 0x1c4f7(%rip),%xmm13 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,232 // addps %xmm8,%xmm13
- .byte 68,15,89,45,50,194,1,0 // mulps 0x1c232(%rip),%xmm13 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c>
+ .byte 68,15,89,45,247,196,1,0 // mulps 0x1c4f7(%rip),%xmm13 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 102,69,15,91,197 // cvtps2dq %xmm13,%xmm8
.byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
.byte 69,15,84,208 // andps %xmm8,%xmm10
@@ -29043,7 +29429,7 @@ _sk_parametric_r_sse41:
.byte 69,15,88,194 // addps %xmm10,%xmm8
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 69,15,95,195 // maxps %xmm11,%xmm8
- .byte 68,15,93,5,179,190,1,0 // minps 0x1beb3(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,93,5,120,193,1,0 // minps 0x1c178(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -29074,32 +29460,32 @@ _sk_parametric_g_sse41:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,91,242 // cvtdq2ps %xmm10,%xmm14
- .byte 68,15,89,53,240,192,1,0 // mulps 0x1c0f0(%rip),%xmm14 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c>
- .byte 68,15,40,45,248,192,1,0 // movaps 0x1c0f8(%rip),%xmm13 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c>
+ .byte 68,15,89,53,181,195,1,0 // mulps 0x1c3b5(%rip),%xmm14 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,45,189,195,1,0 // movaps 0x1c3bd(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,28,190,1,0 // orps 0x1be1c(%rip),%xmm13 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
- .byte 68,15,88,53,244,192,1,0 // addps 0x1c0f4(%rip),%xmm14 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
- .byte 15,40,13,253,192,1,0 // movaps 0x1c0fd(%rip),%xmm1 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc>
+ .byte 68,15,86,45,225,192,1,0 // orps 0x1c0e1(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,53,185,195,1,0 // addps 0x1c3b9(%rip),%xmm14 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 15,40,13,194,195,1,0 // movaps 0x1c3c2(%rip),%xmm1 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 65,15,89,205 // mulps %xmm13,%xmm1
.byte 68,15,92,241 // subps %xmm1,%xmm14
- .byte 68,15,88,45,253,192,1,0 // addps 0x1c0fd(%rip),%xmm13 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc>
- .byte 15,40,13,6,193,1,0 // movaps 0x1c106(%rip),%xmm1 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc>
+ .byte 68,15,88,45,194,195,1,0 // addps 0x1c3c2(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 15,40,13,203,195,1,0 // movaps 0x1c3cb(%rip),%xmm1 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 65,15,94,205 // divps %xmm13,%xmm1
.byte 68,15,92,241 // subps %xmm1,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 102,69,15,58,8,230,1 // roundps $0x1,%xmm14,%xmm12
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,53,243,192,1,0 // addps 0x1c0f3(%rip),%xmm14 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec>
- .byte 15,40,13,252,192,1,0 // movaps 0x1c0fc(%rip),%xmm1 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc>
+ .byte 68,15,88,53,184,195,1,0 // addps 0x1c3b8(%rip),%xmm14 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 15,40,13,193,195,1,0 // movaps 0x1c3c1(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 65,15,89,205 // mulps %xmm13,%xmm1
.byte 68,15,92,241 // subps %xmm1,%xmm14
- .byte 68,15,40,37,252,192,1,0 // movaps 0x1c0fc(%rip),%xmm12 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c>
+ .byte 68,15,40,37,193,195,1,0 // movaps 0x1c3c1(%rip),%xmm12 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 15,40,13,1,193,1,0 // movaps 0x1c101(%rip),%xmm1 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c>
+ .byte 15,40,13,198,195,1,0 // movaps 0x1c3c6(%rip),%xmm1 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 65,15,94,204 // divps %xmm12,%xmm1
.byte 65,15,88,206 // addps %xmm14,%xmm1
- .byte 15,89,13,2,193,1,0 // mulps 0x1c102(%rip),%xmm1 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c>
+ .byte 15,89,13,199,195,1,0 // mulps 0x1c3c7(%rip),%xmm1 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
.byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
.byte 68,15,84,209 // andps %xmm1,%xmm10
@@ -29108,7 +29494,7 @@ _sk_parametric_g_sse41:
.byte 65,15,88,202 // addps %xmm10,%xmm1
.byte 102,65,15,56,20,201 // blendvps %xmm0,%xmm9,%xmm1
.byte 65,15,95,203 // maxps %xmm11,%xmm1
- .byte 15,93,13,135,189,1,0 // minps 0x1bd87(%rip),%xmm1 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,93,13,76,192,1,0 // minps 0x1c04c(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -29139,32 +29525,32 @@ _sk_parametric_b_sse41:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,91,242 // cvtdq2ps %xmm10,%xmm14
- .byte 68,15,89,53,196,191,1,0 // mulps 0x1bfc4(%rip),%xmm14 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c>
- .byte 68,15,40,45,204,191,1,0 // movaps 0x1bfcc(%rip),%xmm13 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c>
+ .byte 68,15,89,53,137,194,1,0 // mulps 0x1c289(%rip),%xmm14 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,45,145,194,1,0 // movaps 0x1c291(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,240,188,1,0 // orps 0x1bcf0(%rip),%xmm13 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
- .byte 68,15,88,53,200,191,1,0 // addps 0x1bfc8(%rip),%xmm14 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
- .byte 15,40,21,209,191,1,0 // movaps 0x1bfd1(%rip),%xmm2 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc>
+ .byte 68,15,86,45,181,191,1,0 // orps 0x1bfb5(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,53,141,194,1,0 // addps 0x1c28d(%rip),%xmm14 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 15,40,21,150,194,1,0 // movaps 0x1c296(%rip),%xmm2 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 65,15,89,213 // mulps %xmm13,%xmm2
.byte 68,15,92,242 // subps %xmm2,%xmm14
- .byte 68,15,88,45,209,191,1,0 // addps 0x1bfd1(%rip),%xmm13 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc>
- .byte 15,40,21,218,191,1,0 // movaps 0x1bfda(%rip),%xmm2 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc>
+ .byte 68,15,88,45,150,194,1,0 // addps 0x1c296(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 15,40,21,159,194,1,0 // movaps 0x1c29f(%rip),%xmm2 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 65,15,94,213 // divps %xmm13,%xmm2
.byte 68,15,92,242 // subps %xmm2,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 102,69,15,58,8,230,1 // roundps $0x1,%xmm14,%xmm12
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,53,199,191,1,0 // addps 0x1bfc7(%rip),%xmm14 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec>
- .byte 15,40,21,208,191,1,0 // movaps 0x1bfd0(%rip),%xmm2 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc>
+ .byte 68,15,88,53,140,194,1,0 // addps 0x1c28c(%rip),%xmm14 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 15,40,21,149,194,1,0 // movaps 0x1c295(%rip),%xmm2 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 65,15,89,213 // mulps %xmm13,%xmm2
.byte 68,15,92,242 // subps %xmm2,%xmm14
- .byte 68,15,40,37,208,191,1,0 // movaps 0x1bfd0(%rip),%xmm12 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c>
+ .byte 68,15,40,37,149,194,1,0 // movaps 0x1c295(%rip),%xmm12 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 15,40,21,213,191,1,0 // movaps 0x1bfd5(%rip),%xmm2 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c>
+ .byte 15,40,21,154,194,1,0 // movaps 0x1c29a(%rip),%xmm2 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 65,15,94,212 // divps %xmm12,%xmm2
.byte 65,15,88,214 // addps %xmm14,%xmm2
- .byte 15,89,21,214,191,1,0 // mulps 0x1bfd6(%rip),%xmm2 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c>
+ .byte 15,89,21,155,194,1,0 // mulps 0x1c29b(%rip),%xmm2 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
.byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
.byte 68,15,84,210 // andps %xmm2,%xmm10
@@ -29173,7 +29559,7 @@ _sk_parametric_b_sse41:
.byte 65,15,88,210 // addps %xmm10,%xmm2
.byte 102,65,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm2
.byte 65,15,95,211 // maxps %xmm11,%xmm2
- .byte 15,93,21,91,188,1,0 // minps 0x1bc5b(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,93,21,32,191,1,0 // minps 0x1bf20(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -29204,32 +29590,32 @@ _sk_parametric_a_sse41:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,91,242 // cvtdq2ps %xmm10,%xmm14
- .byte 68,15,89,53,152,190,1,0 // mulps 0x1be98(%rip),%xmm14 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c>
- .byte 68,15,40,45,160,190,1,0 // movaps 0x1bea0(%rip),%xmm13 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c>
+ .byte 68,15,89,53,93,193,1,0 // mulps 0x1c15d(%rip),%xmm14 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,45,101,193,1,0 // movaps 0x1c165(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,196,187,1,0 // orps 0x1bbc4(%rip),%xmm13 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
- .byte 68,15,88,53,156,190,1,0 // addps 0x1be9c(%rip),%xmm14 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
- .byte 15,40,29,165,190,1,0 // movaps 0x1bea5(%rip),%xmm3 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc>
+ .byte 68,15,86,45,137,190,1,0 // orps 0x1be89(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,53,97,193,1,0 // addps 0x1c161(%rip),%xmm14 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 15,40,29,106,193,1,0 // movaps 0x1c16a(%rip),%xmm3 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 65,15,89,221 // mulps %xmm13,%xmm3
.byte 68,15,92,243 // subps %xmm3,%xmm14
- .byte 68,15,88,45,165,190,1,0 // addps 0x1bea5(%rip),%xmm13 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc>
- .byte 15,40,29,174,190,1,0 // movaps 0x1beae(%rip),%xmm3 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc>
+ .byte 68,15,88,45,106,193,1,0 // addps 0x1c16a(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 15,40,29,115,193,1,0 // movaps 0x1c173(%rip),%xmm3 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 65,15,94,221 // divps %xmm13,%xmm3
.byte 68,15,92,243 // subps %xmm3,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 102,69,15,58,8,230,1 // roundps $0x1,%xmm14,%xmm12
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,53,155,190,1,0 // addps 0x1be9b(%rip),%xmm14 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec>
- .byte 15,40,29,164,190,1,0 // movaps 0x1bea4(%rip),%xmm3 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc>
+ .byte 68,15,88,53,96,193,1,0 // addps 0x1c160(%rip),%xmm14 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 15,40,29,105,193,1,0 // movaps 0x1c169(%rip),%xmm3 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 65,15,89,221 // mulps %xmm13,%xmm3
.byte 68,15,92,243 // subps %xmm3,%xmm14
- .byte 68,15,40,37,164,190,1,0 // movaps 0x1bea4(%rip),%xmm12 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c>
+ .byte 68,15,40,37,105,193,1,0 // movaps 0x1c169(%rip),%xmm12 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 15,40,29,169,190,1,0 // movaps 0x1bea9(%rip),%xmm3 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c>
+ .byte 15,40,29,110,193,1,0 // movaps 0x1c16e(%rip),%xmm3 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 65,15,94,220 // divps %xmm12,%xmm3
.byte 65,15,88,222 // addps %xmm14,%xmm3
- .byte 15,89,29,170,190,1,0 // mulps 0x1beaa(%rip),%xmm3 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c>
+ .byte 15,89,29,111,193,1,0 // mulps 0x1c16f(%rip),%xmm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3
.byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
.byte 68,15,84,211 // andps %xmm3,%xmm10
@@ -29238,7 +29624,7 @@ _sk_parametric_a_sse41:
.byte 65,15,88,218 // addps %xmm10,%xmm3
.byte 102,65,15,56,20,217 // blendvps %xmm0,%xmm9,%xmm3
.byte 65,15,95,219 // maxps %xmm11,%xmm3
- .byte 15,93,29,47,187,1,0 // minps 0x1bb2f(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,93,29,244,189,1,0 // minps 0x1bdf4(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -29256,21 +29642,21 @@ _sk_gamma_sse41:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 15,40,5,169,189,1,0 // movaps 0x1bda9(%rip),%xmm0 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c>
+ .byte 15,40,5,110,192,1,0 // movaps 0x1c06e(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 68,15,40,5,171,189,1,0 // movaps 0x1bdab(%rip),%xmm8 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c>
+ .byte 68,15,40,5,112,192,1,0 // movaps 0x1c070(%rip),%xmm8 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,205,186,1,0 // orps 0x1bacd(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
- .byte 15,88,53,166,189,1,0 // addps 0x1bda6(%rip),%xmm6 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
- .byte 68,15,40,29,174,189,1,0 // movaps 0x1bdae(%rip),%xmm11 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc>
+ .byte 15,86,5,146,189,1,0 // orps 0x1bd92(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,88,53,107,192,1,0 // addps 0x1c06b(%rip),%xmm6 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,29,115,192,1,0 // movaps 0x1c073(%rip),%xmm11 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 15,92,241 // subps %xmm1,%xmm6
- .byte 68,15,40,61,172,189,1,0 // movaps 0x1bdac(%rip),%xmm15 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc>
+ .byte 68,15,40,61,113,192,1,0 // movaps 0x1c071(%rip),%xmm15 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,53,176,189,1,0 // movaps 0x1bdb0(%rip),%xmm14 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc>
+ .byte 68,15,40,53,117,192,1,0 // movaps 0x1c075(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 65,15,40,206 // movaps %xmm14,%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,92,241 // subps %xmm1,%xmm6
@@ -29281,19 +29667,19 @@ _sk_gamma_sse41:
.byte 102,15,58,8,198,1 // roundps $0x1,%xmm6,%xmm0
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,53,150,189,1,0 // addps 0x1bd96(%rip),%xmm6 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec>
- .byte 15,40,29,175,189,1,0 // movaps 0x1bdaf(%rip),%xmm3 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c>
+ .byte 15,88,53,91,192,1,0 // addps 0x1c05b(%rip),%xmm6 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 15,40,29,116,192,1,0 // movaps 0x1c074(%rip),%xmm3 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,141,189,1,0 // movaps 0x1bd8d(%rip),%xmm1 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc>
+ .byte 15,40,13,82,192,1,0 // movaps 0x1c052(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
- .byte 68,15,40,45,159,189,1,0 // movaps 0x1bd9f(%rip),%xmm13 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c>
+ .byte 68,15,40,45,100,192,1,0 // movaps 0x1c064(%rip),%xmm13 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 65,15,40,197 // movaps %xmm13,%xmm0
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 68,15,40,13,156,189,1,0 // movaps 0x1bd9c(%rip),%xmm9 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c>
+ .byte 68,15,40,13,97,192,1,0 // movaps 0x1c061(%rip),%xmm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,246 // xorps %xmm6,%xmm6
@@ -29303,9 +29689,9 @@ _sk_gamma_sse41:
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,53,20,186,1,0 // movaps 0x1ba14(%rip),%xmm6 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,40,53,217,188,1,0 // movaps 0x1bcd9(%rip),%xmm6 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,86,254 // orps %xmm6,%xmm7
- .byte 15,88,5,234,188,1,0 // addps 0x1bcea(%rip),%xmm0 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
+ .byte 15,88,5,175,191,1,0 // addps 0x1bfaf(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 65,15,89,235 // mulps %xmm11,%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
@@ -29317,7 +29703,7 @@ _sk_gamma_sse41:
.byte 102,15,58,8,232,1 // roundps $0x1,%xmm0,%xmm5
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,92,253 // subps %xmm5,%xmm7
- .byte 68,15,40,61,251,188,1,0 // movaps 0x1bcfb(%rip),%xmm15 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec>
+ .byte 68,15,40,61,192,191,1,0 // movaps 0x1bfc0(%rip),%xmm15 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 65,15,88,199 // addps %xmm15,%xmm0
.byte 15,40,235 // movaps %xmm3,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
@@ -29332,13 +29718,13 @@ _sk_gamma_sse41:
.byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,98,188,1,0 // mulps 0x1bc62(%rip),%xmm0 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c>
+ .byte 15,89,5,39,191,1,0 // mulps 0x1bf27(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,86,198 // orps %xmm6,%xmm8
- .byte 15,88,5,115,188,1,0 // addps 0x1bc73(%rip),%xmm0 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
+ .byte 15,88,5,56,191,1,0 // addps 0x1bf38(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,131,188,1,0 // addps 0x1bc83(%rip),%xmm8 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc>
+ .byte 68,15,88,5,72,191,1,0 // addps 0x1bf48(%rip),%xmm8 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 69,15,94,240 // divps %xmm8,%xmm14
.byte 65,15,92,198 // subps %xmm14,%xmm0
.byte 15,89,194 // mulps %xmm2,%xmm0
@@ -29379,21 +29765,21 @@ _sk_gamma_dst_sse41:
.byte 15,41,76,36,184 // movaps %xmm1,-0x48(%rsp)
.byte 15,41,68,36,168 // movaps %xmm0,-0x58(%rsp)
.byte 15,91,221 // cvtdq2ps %xmm5,%xmm3
- .byte 15,40,5,175,187,1,0 // movaps 0x1bbaf(%rip),%xmm0 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c>
+ .byte 15,40,5,116,190,1,0 // movaps 0x1be74(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,5,177,187,1,0 // movaps 0x1bbb1(%rip),%xmm8 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c>
+ .byte 68,15,40,5,118,190,1,0 // movaps 0x1be76(%rip),%xmm8 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,211,184,1,0 // orps 0x1b8d3(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
- .byte 15,88,29,172,187,1,0 // addps 0x1bbac(%rip),%xmm3 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
- .byte 68,15,40,29,180,187,1,0 // movaps 0x1bbb4(%rip),%xmm11 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc>
+ .byte 15,86,5,152,187,1,0 // orps 0x1bb98(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,88,29,113,190,1,0 // addps 0x1be71(%rip),%xmm3 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,29,121,190,1,0 // movaps 0x1be79(%rip),%xmm11 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 15,92,217 // subps %xmm1,%xmm3
- .byte 68,15,40,61,178,187,1,0 // movaps 0x1bbb2(%rip),%xmm15 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc>
+ .byte 68,15,40,61,119,190,1,0 // movaps 0x1be77(%rip),%xmm15 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,53,182,187,1,0 // movaps 0x1bbb6(%rip),%xmm14 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc>
+ .byte 68,15,40,53,123,190,1,0 // movaps 0x1be7b(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 65,15,40,206 // movaps %xmm14,%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,92,217 // subps %xmm1,%xmm3
@@ -29404,19 +29790,19 @@ _sk_gamma_dst_sse41:
.byte 102,15,58,8,195,1 // roundps $0x1,%xmm3,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,29,156,187,1,0 // addps 0x1bb9c(%rip),%xmm3 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec>
- .byte 15,40,37,181,187,1,0 // movaps 0x1bbb5(%rip),%xmm4 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c>
+ .byte 15,88,29,97,190,1,0 // addps 0x1be61(%rip),%xmm3 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 15,40,37,122,190,1,0 // movaps 0x1be7a(%rip),%xmm4 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 68,15,40,204 // movaps %xmm4,%xmm9
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,147,187,1,0 // movaps 0x1bb93(%rip),%xmm1 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc>
+ .byte 15,40,13,88,190,1,0 // movaps 0x1be58(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,92,216 // subps %xmm0,%xmm3
- .byte 68,15,40,45,165,187,1,0 // movaps 0x1bba5(%rip),%xmm13 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c>
+ .byte 68,15,40,45,106,190,1,0 // movaps 0x1be6a(%rip),%xmm13 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 65,15,40,197 // movaps %xmm13,%xmm0
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 15,88,195 // addps %xmm3,%xmm0
- .byte 68,15,40,13,162,187,1,0 // movaps 0x1bba2(%rip),%xmm9 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c>
+ .byte 68,15,40,13,103,190,1,0 // movaps 0x1be67(%rip),%xmm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,219 // xorps %xmm3,%xmm3
@@ -29426,9 +29812,9 @@ _sk_gamma_dst_sse41:
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,29,26,184,1,0 // movaps 0x1b81a(%rip),%xmm3 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,40,29,223,186,1,0 // movaps 0x1badf(%rip),%xmm3 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,86,251 // orps %xmm3,%xmm7
- .byte 15,88,5,240,186,1,0 // addps 0x1baf0(%rip),%xmm0 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
+ .byte 15,88,5,181,189,1,0 // addps 0x1bdb5(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
.byte 15,40,247 // movaps %xmm7,%xmm6
.byte 65,15,89,243 // mulps %xmm11,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
@@ -29440,7 +29826,7 @@ _sk_gamma_dst_sse41:
.byte 102,15,58,8,240,1 // roundps $0x1,%xmm0,%xmm6
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,92,254 // subps %xmm6,%xmm7
- .byte 68,15,40,61,1,187,1,0 // movaps 0x1bb01(%rip),%xmm15 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec>
+ .byte 68,15,40,61,198,189,1,0 // movaps 0x1bdc6(%rip),%xmm15 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 65,15,88,199 // addps %xmm15,%xmm0
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,92,247 // subps %xmm7,%xmm6
@@ -29455,13 +29841,13 @@ _sk_gamma_dst_sse41:
.byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,104,186,1,0 // mulps 0x1ba68(%rip),%xmm0 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c>
+ .byte 15,89,5,45,189,1,0 // mulps 0x1bd2d(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,86,195 // orps %xmm3,%xmm8
- .byte 15,88,5,121,186,1,0 // addps 0x1ba79(%rip),%xmm0 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
+ .byte 15,88,5,62,189,1,0 // addps 0x1bd3e(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,137,186,1,0 // addps 0x1ba89(%rip),%xmm8 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc>
+ .byte 68,15,88,5,78,189,1,0 // addps 0x1bd4e(%rip),%xmm8 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 69,15,94,240 // divps %xmm8,%xmm14
.byte 65,15,92,198 // subps %xmm14,%xmm0
.byte 15,89,194 // mulps %xmm2,%xmm0
@@ -29494,29 +29880,29 @@ HIDDEN _sk_lab_to_xyz_sse41
FUNCTION(_sk_lab_to_xyz_sse41)
_sk_lab_to_xyz_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,89,5,135,186,1,0 // mulps 0x1ba87(%rip),%xmm8 # 3a490 <_sk_srcover_bgra_8888_sse2_lowp+0xf3c>
- .byte 68,15,40,13,255,183,1,0 // movaps 0x1b7ff(%rip),%xmm9 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
+ .byte 68,15,89,5,76,189,1,0 // mulps 0x1bd4c(%rip),%xmm8 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
+ .byte 68,15,40,13,196,186,1,0 // movaps 0x1bac4(%rip),%xmm9 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 15,40,5,132,186,1,0 // movaps 0x1ba84(%rip),%xmm0 # 3a4a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf4c>
+ .byte 15,40,5,73,189,1,0 // movaps 0x1bd49(%rip),%xmm0 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,88,5,130,186,1,0 // addps 0x1ba82(%rip),%xmm8 # 3a4b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf5c>
- .byte 68,15,89,5,138,186,1,0 // mulps 0x1ba8a(%rip),%xmm8 # 3a4c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf6c>
- .byte 15,89,13,147,186,1,0 // mulps 0x1ba93(%rip),%xmm1 # 3a4d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf7c>
+ .byte 68,15,88,5,71,189,1,0 // addps 0x1bd47(%rip),%xmm8 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
+ .byte 68,15,89,5,79,189,1,0 // mulps 0x1bd4f(%rip),%xmm8 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
+ .byte 15,89,13,88,189,1,0 // mulps 0x1bd58(%rip),%xmm1 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 15,89,21,152,186,1,0 // mulps 0x1ba98(%rip),%xmm2 # 3a4e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf8c>
+ .byte 15,89,21,93,189,1,0 // mulps 0x1bd5d(%rip),%xmm2 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
.byte 69,15,40,208 // movaps %xmm8,%xmm10
.byte 68,15,92,210 // subps %xmm2,%xmm10
.byte 68,15,40,217 // movaps %xmm1,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
.byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 68,15,40,13,140,186,1,0 // movaps 0x1ba8c(%rip),%xmm9 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf9c>
+ .byte 68,15,40,13,81,189,1,0 // movaps 0x1bd51(%rip),%xmm9 # 3af10 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 15,40,21,140,186,1,0 // movaps 0x1ba8c(%rip),%xmm2 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0xfac>
+ .byte 15,40,21,81,189,1,0 // movaps 0x1bd51(%rip),%xmm2 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 68,15,40,37,145,186,1,0 // movaps 0x1ba91(%rip),%xmm12 # 3a510 <_sk_srcover_bgra_8888_sse2_lowp+0xfbc>
+ .byte 68,15,40,37,86,189,1,0 // movaps 0x1bd56(%rip),%xmm12 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
.byte 65,15,89,204 // mulps %xmm12,%xmm1
.byte 102,65,15,56,20,203 // blendvps %xmm0,%xmm11,%xmm1
.byte 69,15,40,216 // movaps %xmm8,%xmm11
@@ -29535,8 +29921,8 @@ _sk_lab_to_xyz_sse41:
.byte 65,15,89,212 // mulps %xmm12,%xmm2
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2
- .byte 15,89,13,74,186,1,0 // mulps 0x1ba4a(%rip),%xmm1 # 3a520 <_sk_srcover_bgra_8888_sse2_lowp+0xfcc>
- .byte 15,89,21,83,186,1,0 // mulps 0x1ba53(%rip),%xmm2 # 3a530 <_sk_srcover_bgra_8888_sse2_lowp+0xfdc>
+ .byte 15,89,13,15,189,1,0 // mulps 0x1bd0f(%rip),%xmm1 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
+ .byte 15,89,21,24,189,1,0 // mulps 0x1bd18(%rip),%xmm2 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,40,200 // movaps %xmm8,%xmm1
@@ -29553,11 +29939,11 @@ _sk_load_a8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 1eb27 <_sk_load_a8_sse41+0x3f>
+ .byte 117,39 // jne 1f282 <_sk_load_a8_sse41+0x3f>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,209,182,1,0 // pand 0x1b6d1(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,219,5,150,185,1,0 // pand 0x1b996(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,39,184,1,0 // mulps 0x1b827(%rip),%xmm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 15,89,29,236,186,1,0 // mulps 0x1baec(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -29566,12 +29952,12 @@ _sk_load_a8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1eb69 <_sk_load_a8_sse41+0x81>
+ .byte 116,53 // je 1f2c4 <_sk_load_a8_sse41+0x81>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1eb53 <_sk_load_a8_sse41+0x6b>
+ .byte 116,21 // je 1f2ae <_sk_load_a8_sse41+0x6b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 1eb07 <_sk_load_a8_sse41+0x1f>
+ .byte 117,195 // jne 1f262 <_sk_load_a8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -29579,10 +29965,10 @@ _sk_load_a8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,158 // jmp 1eb07 <_sk_load_a8_sse41+0x1f>
+ .byte 235,158 // jmp 1f262 <_sk_load_a8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,147 // jmp 1eb07 <_sk_load_a8_sse41+0x1f>
+ .byte 235,147 // jmp 1f262 <_sk_load_a8_sse41+0x1f>
HIDDEN _sk_load_a8_dst_sse41
.globl _sk_load_a8_dst_sse41
@@ -29595,11 +29981,11 @@ _sk_load_a8_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 1ebb3 <_sk_load_a8_dst_sse41+0x3f>
+ .byte 117,39 // jne 1f30e <_sk_load_a8_dst_sse41+0x3f>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,69,182,1,0 // pand 0x1b645(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,219,37,10,185,1,0 // pand 0x1b90a(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,155,183,1,0 // mulps 0x1b79b(%rip),%xmm7 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 15,89,61,96,186,1,0 // mulps 0x1ba60(%rip),%xmm7 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
@@ -29608,12 +29994,12 @@ _sk_load_a8_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1ebf5 <_sk_load_a8_dst_sse41+0x81>
+ .byte 116,53 // je 1f350 <_sk_load_a8_dst_sse41+0x81>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1ebdf <_sk_load_a8_dst_sse41+0x6b>
+ .byte 116,21 // je 1f33a <_sk_load_a8_dst_sse41+0x6b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 1eb93 <_sk_load_a8_dst_sse41+0x1f>
+ .byte 117,195 // jne 1f2ee <_sk_load_a8_dst_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -29621,10 +30007,10 @@ _sk_load_a8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,158 // jmp 1eb93 <_sk_load_a8_dst_sse41+0x1f>
+ .byte 235,158 // jmp 1f2ee <_sk_load_a8_dst_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,147 // jmp 1eb93 <_sk_load_a8_dst_sse41+0x1f>
+ .byte 235,147 // jmp 1f2ee <_sk_load_a8_dst_sse41+0x1f>
HIDDEN _sk_gather_a8_sse41
.globl _sk_gather_a8_sse41
@@ -29667,7 +30053,7 @@ _sk_gather_a8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,147,182,1,0 // mulps 0x1b693(%rip),%xmm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 15,89,29,88,185,1,0 // mulps 0x1b958(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -29684,13 +30070,15 @@ _sk_store_a8_sse41:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,58,181,1,0 // movaps 0x1b53a(%rip),%xmm8 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
- .byte 68,15,89,195 // mulps %xmm3,%xmm8
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 68,15,95,195 // maxps %xmm3,%xmm8
+ .byte 68,15,93,5,23,183,1,0 // minps 0x1b717(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,89,5,239,183,1,0 // mulps 0x1b7ef(%rip),%xmm8 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 1ecfc <_sk_store_a8_sse41+0x41>
+ .byte 117,13 // jne 1f463 <_sk_store_a8_sse41+0x4d>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,137,4,16 // mov %eax,(%r8,%r10,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -29699,17 +30087,17 @@ _sk_store_a8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 1ed38 <_sk_store_a8_sse41+0x7d>
+ .byte 116,41 // je 1f49f <_sk_store_a8_sse41+0x89>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1ed24 <_sk_store_a8_sse41+0x69>
+ .byte 116,15 // je 1f48b <_sk_store_a8_sse41+0x75>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 1ecf8 <_sk_store_a8_sse41+0x3d>
+ .byte 117,221 // jne 1f45f <_sk_store_a8_sse41+0x49>
.byte 102,71,15,58,20,68,16,2,8 // pextrb $0x8,%xmm8,0x2(%r8,%r10,1)
- .byte 102,68,15,56,0,5,18,184,1,0 // pshufb 0x1b812(%rip),%xmm8 # 3a540 <_sk_srcover_bgra_8888_sse2_lowp+0xfec>
+ .byte 102,68,15,56,0,5,203,186,1,0 // pshufb 0x1bacb(%rip),%xmm8 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0xff8>
.byte 102,71,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%r10,1)
- .byte 235,192 // jmp 1ecf8 <_sk_store_a8_sse41+0x3d>
+ .byte 235,192 // jmp 1f45f <_sk_store_a8_sse41+0x49>
.byte 102,71,15,58,20,4,16,0 // pextrb $0x0,%xmm8,(%r8,%r10,1)
- .byte 235,182 // jmp 1ecf8 <_sk_store_a8_sse41+0x3d>
+ .byte 235,182 // jmp 1f45f <_sk_store_a8_sse41+0x49>
HIDDEN _sk_load_g8_sse41
.globl _sk_load_g8_sse41
@@ -29722,25 +30110,25 @@ _sk_load_g8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 1ed84 <_sk_load_g8_sse41+0x42>
+ .byte 117,42 // jne 1f4eb <_sk_load_g8_sse41+0x42>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,119,180,1,0 // pand 0x1b477(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,219,5,48,183,1,0 // pand 0x1b730(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,205,181,1,0 // mulps 0x1b5cd(%rip),%xmm0 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 15,89,5,134,184,1,0 // mulps 0x1b886(%rip),%xmm0 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,180,179,1,0 // movaps 0x1b3b4(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,29,109,182,1,0 // movaps 0x1b66d(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1edc6 <_sk_load_g8_sse41+0x84>
+ .byte 116,53 // je 1f52d <_sk_load_g8_sse41+0x84>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1edb0 <_sk_load_g8_sse41+0x6e>
+ .byte 116,21 // je 1f517 <_sk_load_g8_sse41+0x6e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 1ed61 <_sk_load_g8_sse41+0x1f>
+ .byte 117,192 // jne 1f4c8 <_sk_load_g8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -29748,10 +30136,10 @@ _sk_load_g8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,155 // jmp 1ed61 <_sk_load_g8_sse41+0x1f>
+ .byte 235,155 // jmp 1f4c8 <_sk_load_g8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,144 // jmp 1ed61 <_sk_load_g8_sse41+0x1f>
+ .byte 235,144 // jmp 1f4c8 <_sk_load_g8_sse41+0x1f>
HIDDEN _sk_load_g8_dst_sse41
.globl _sk_load_g8_dst_sse41
@@ -29764,25 +30152,25 @@ _sk_load_g8_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 1ee13 <_sk_load_g8_dst_sse41+0x42>
+ .byte 117,42 // jne 1f57a <_sk_load_g8_dst_sse41+0x42>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,232,179,1,0 // pand 0x1b3e8(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,219,37,161,182,1,0 // pand 0x1b6a1(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,62,181,1,0 // mulps 0x1b53e(%rip),%xmm4 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 15,89,37,247,183,1,0 // mulps 0x1b7f7(%rip),%xmm4 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,37,179,1,0 // movaps 0x1b325(%rip),%xmm7 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,61,222,181,1,0 // movaps 0x1b5de(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1ee55 <_sk_load_g8_dst_sse41+0x84>
+ .byte 116,53 // je 1f5bc <_sk_load_g8_dst_sse41+0x84>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1ee3f <_sk_load_g8_dst_sse41+0x6e>
+ .byte 116,21 // je 1f5a6 <_sk_load_g8_dst_sse41+0x6e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 1edf0 <_sk_load_g8_dst_sse41+0x1f>
+ .byte 117,192 // jne 1f557 <_sk_load_g8_dst_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -29790,10 +30178,10 @@ _sk_load_g8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,155 // jmp 1edf0 <_sk_load_g8_dst_sse41+0x1f>
+ .byte 235,155 // jmp 1f557 <_sk_load_g8_dst_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,144 // jmp 1edf0 <_sk_load_g8_dst_sse41+0x1f>
+ .byte 235,144 // jmp 1f557 <_sk_load_g8_dst_sse41+0x1f>
HIDDEN _sk_gather_g8_sse41
.globl _sk_gather_g8_sse41
@@ -29836,9 +30224,9 @@ _sk_gather_g8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,51,180,1,0 // mulps 0x1b433(%rip),%xmm0 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 15,89,5,236,182,1,0 // mulps 0x1b6ec(%rip),%xmm0 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,26,178,1,0 // movaps 0x1b21a(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,29,211,180,1,0 // movaps 0x1b4d3(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -29855,41 +30243,41 @@ _sk_load_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 1ef89 <_sk_load_565_sse41+0x6b>
+ .byte 117,80 // jne 1f6f0 <_sk_load_565_sse41+0x6b>
.byte 102,67,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm2
- .byte 102,15,111,5,8,180,1,0 // movdqa 0x1b408(%rip),%xmm0 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc>
+ .byte 102,15,111,5,193,182,1,0 // movdqa 0x1b6c1(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,10,180,1,0 // mulps 0x1b40a(%rip),%xmm0 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c>
- .byte 102,15,111,13,18,180,1,0 // movdqa 0x1b412(%rip),%xmm1 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c>
+ .byte 15,89,5,195,182,1,0 // mulps 0x1b6c3(%rip),%xmm0 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,13,203,182,1,0 // movdqa 0x1b6cb(%rip),%xmm1 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,20,180,1,0 // mulps 0x1b414(%rip),%xmm1 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c>
- .byte 102,15,219,21,28,180,1,0 // pand 0x1b41c(%rip),%xmm2 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c>
+ .byte 15,89,13,205,182,1,0 // mulps 0x1b6cd(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,15,219,21,213,182,1,0 // pand 0x1b6d5(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,34,180,1,0 // mulps 0x1b422(%rip),%xmm2 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c>
+ .byte 15,89,21,219,182,1,0 // mulps 0x1b6db(%rip),%xmm2 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,169,177,1,0 // movaps 0x1b1a9(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,29,98,180,1,0 // movaps 0x1b462(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1efcb <_sk_load_565_sse41+0xad>
+ .byte 116,53 // je 1f732 <_sk_load_565_sse41+0xad>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1efb5 <_sk_load_565_sse41+0x97>
+ .byte 116,21 // je 1f71c <_sk_load_565_sse41+0x97>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 1ef40 <_sk_load_565_sse41+0x22>
+ .byte 117,154 // jne 1f6a7 <_sk_load_565_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm2
- .byte 233,117,255,255,255 // jmpq 1ef40 <_sk_load_565_sse41+0x22>
+ .byte 233,117,255,255,255 // jmpq 1f6a7 <_sk_load_565_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,103,255,255,255 // jmpq 1ef40 <_sk_load_565_sse41+0x22>
+ .byte 233,103,255,255,255 // jmpq 1f6a7 <_sk_load_565_sse41+0x22>
HIDDEN _sk_load_565_dst_sse41
.globl _sk_load_565_dst_sse41
@@ -29903,41 +30291,41 @@ _sk_load_565_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 1f044 <_sk_load_565_dst_sse41+0x6b>
+ .byte 117,80 // jne 1f7ab <_sk_load_565_dst_sse41+0x6b>
.byte 102,67,15,56,51,52,80 // pmovzxwd (%r8,%r10,2),%xmm6
- .byte 102,15,111,37,77,179,1,0 // movdqa 0x1b34d(%rip),%xmm4 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc>
+ .byte 102,15,111,37,6,182,1,0 // movdqa 0x1b606(%rip),%xmm4 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,79,179,1,0 // mulps 0x1b34f(%rip),%xmm4 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c>
- .byte 102,15,111,45,87,179,1,0 // movdqa 0x1b357(%rip),%xmm5 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c>
+ .byte 15,89,37,8,182,1,0 // mulps 0x1b608(%rip),%xmm4 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,45,16,182,1,0 // movdqa 0x1b610(%rip),%xmm5 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,89,179,1,0 // mulps 0x1b359(%rip),%xmm5 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c>
- .byte 102,15,219,53,97,179,1,0 // pand 0x1b361(%rip),%xmm6 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c>
+ .byte 15,89,45,18,182,1,0 // mulps 0x1b612(%rip),%xmm5 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,15,219,53,26,182,1,0 // pand 0x1b61a(%rip),%xmm6 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,103,179,1,0 // mulps 0x1b367(%rip),%xmm6 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c>
+ .byte 15,89,53,32,182,1,0 // mulps 0x1b620(%rip),%xmm6 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,238,176,1,0 // movaps 0x1b0ee(%rip),%xmm7 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,61,167,179,1,0 // movaps 0x1b3a7(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1f086 <_sk_load_565_dst_sse41+0xad>
+ .byte 116,53 // je 1f7ed <_sk_load_565_dst_sse41+0xad>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1f070 <_sk_load_565_dst_sse41+0x97>
+ .byte 116,21 // je 1f7d7 <_sk_load_565_dst_sse41+0x97>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 1effb <_sk_load_565_dst_sse41+0x22>
+ .byte 117,154 // jne 1f762 <_sk_load_565_dst_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,244,15 // pblendw $0xf,%xmm4,%xmm6
- .byte 233,117,255,255,255 // jmpq 1effb <_sk_load_565_dst_sse41+0x22>
+ .byte 233,117,255,255,255 // jmpq 1f762 <_sk_load_565_dst_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,103,255,255,255 // jmpq 1effb <_sk_load_565_dst_sse41+0x22>
+ .byte 233,103,255,255,255 // jmpq 1f762 <_sk_load_565_dst_sse41+0x22>
HIDDEN _sk_gather_565_sse41
.globl _sk_gather_565_sse41
@@ -29979,19 +30367,19 @@ _sk_gather_565_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,208 // pmovzxwd %xmm0,%xmm2
- .byte 102,15,111,5,20,178,1,0 // movdqa 0x1b214(%rip),%xmm0 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc>
+ .byte 102,15,111,5,205,180,1,0 // movdqa 0x1b4cd(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,22,178,1,0 // mulps 0x1b216(%rip),%xmm0 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c>
- .byte 102,15,111,13,30,178,1,0 // movdqa 0x1b21e(%rip),%xmm1 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c>
+ .byte 15,89,5,207,180,1,0 // mulps 0x1b4cf(%rip),%xmm0 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,13,215,180,1,0 // movdqa 0x1b4d7(%rip),%xmm1 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,32,178,1,0 // mulps 0x1b220(%rip),%xmm1 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c>
- .byte 102,15,219,21,40,178,1,0 // pand 0x1b228(%rip),%xmm2 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c>
+ .byte 15,89,13,217,180,1,0 // mulps 0x1b4d9(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,15,219,21,225,180,1,0 // pand 0x1b4e1(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,46,178,1,0 // mulps 0x1b22e(%rip),%xmm2 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c>
+ .byte 15,89,21,231,180,1,0 // mulps 0x1b4e7(%rip),%xmm2 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,181,175,1,0 // movaps 0x1afb5(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,29,110,178,1,0 // movaps 0x1b26e(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse41
@@ -30005,22 +30393,30 @@ _sk_store_565_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,181,179,1,0 // movaps 0x1b3b5(%rip),%xmm8 # 3a550 <_sk_srcover_bgra_8888_sse2_lowp+0xffc>
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,200 // maxps %xmm0,%xmm9
+ .byte 68,15,40,21,66,178,1,0 // movaps 0x1b242(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 68,15,40,29,86,182,1,0 // movaps 0x1b656(%rip),%xmm11 # 3af70 <_sk_srcover_bgra_8888_sse2_lowp+0x1008>
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 68,15,40,21,170,179,1,0 // movaps 0x1b3aa(%rip),%xmm10 # 3a560 <_sk_srcover_bgra_8888_sse2_lowp+0x100c>
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
- .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
- .byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
- .byte 102,69,15,235,209 // por %xmm9,%xmm10
- .byte 68,15,89,194 // mulps %xmm2,%xmm8
+ .byte 69,15,87,228 // xorps %xmm12,%xmm12
+ .byte 68,15,95,225 // maxps %xmm1,%xmm12
+ .byte 69,15,93,226 // minps %xmm10,%xmm12
+ .byte 68,15,89,37,67,182,1,0 // mulps 0x1b643(%rip),%xmm12 # 3af80 <_sk_srcover_bgra_8888_sse2_lowp+0x1018>
+ .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
+ .byte 102,65,15,114,244,5 // pslld $0x5,%xmm12
+ .byte 68,15,95,194 // maxps %xmm2,%xmm8
+ .byte 69,15,93,194 // minps %xmm10,%xmm8
+ .byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
- .byte 102,69,15,86,194 // orpd %xmm10,%xmm8
+ .byte 102,69,15,86,193 // orpd %xmm9,%xmm8
+ .byte 102,69,15,86,196 // orpd %xmm12,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1f1ed <_sk_store_565_sse41+0x70>
+ .byte 117,10 // jne 1f978 <_sk_store_565_sse41+0x94>
.byte 102,69,15,214,4,64 // movq %xmm8,(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30028,17 +30424,17 @@ _sk_store_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,35 // je 1f223 <_sk_store_565_sse41+0xa6>
+ .byte 116,35 // je 1f9ae <_sk_store_565_sse41+0xca>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1f215 <_sk_store_565_sse41+0x98>
+ .byte 116,15 // je 1f9a0 <_sk_store_565_sse41+0xbc>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 1f1e9 <_sk_store_565_sse41+0x6c>
+ .byte 117,221 // jne 1f974 <_sk_store_565_sse41+0x90>
.byte 102,69,15,58,21,68,64,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rax,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,64 // movd %xmm8,(%r8,%rax,2)
- .byte 235,198 // jmp 1f1e9 <_sk_store_565_sse41+0x6c>
+ .byte 235,198 // jmp 1f974 <_sk_store_565_sse41+0x90>
.byte 102,69,15,58,21,4,64,0 // pextrw $0x0,%xmm8,(%r8,%rax,2)
- .byte 235,188 // jmp 1f1e9 <_sk_store_565_sse41+0x6c>
+ .byte 235,188 // jmp 1f974 <_sk_store_565_sse41+0x90>
HIDDEN _sk_load_4444_sse41
.globl _sk_load_4444_sse41
@@ -30052,44 +30448,44 @@ _sk_load_4444_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 1f2a7 <_sk_load_4444_sse41+0x7a>
+ .byte 117,95 // jne 1fa32 <_sk_load_4444_sse41+0x7a>
.byte 102,67,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm3
- .byte 102,15,111,5,25,179,1,0 // movdqa 0x1b319(%rip),%xmm0 # 3a570 <_sk_srcover_bgra_8888_sse2_lowp+0x101c>
+ .byte 102,15,111,5,174,181,1,0 // movdqa 0x1b5ae(%rip),%xmm0 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,27,179,1,0 // mulps 0x1b31b(%rip),%xmm0 # 3a580 <_sk_srcover_bgra_8888_sse2_lowp+0x102c>
- .byte 102,15,111,13,35,179,1,0 // movdqa 0x1b323(%rip),%xmm1 # 3a590 <_sk_srcover_bgra_8888_sse2_lowp+0x103c>
+ .byte 15,89,5,176,181,1,0 // mulps 0x1b5b0(%rip),%xmm0 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
+ .byte 102,15,111,13,184,181,1,0 // movdqa 0x1b5b8(%rip),%xmm1 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,37,179,1,0 // mulps 0x1b325(%rip),%xmm1 # 3a5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x104c>
- .byte 102,15,111,21,45,179,1,0 // movdqa 0x1b32d(%rip),%xmm2 # 3a5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x105c>
+ .byte 15,89,13,186,181,1,0 // mulps 0x1b5ba(%rip),%xmm1 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
+ .byte 102,15,111,21,194,181,1,0 // movdqa 0x1b5c2(%rip),%xmm2 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,47,179,1,0 // mulps 0x1b32f(%rip),%xmm2 # 3a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x106c>
- .byte 102,15,219,29,55,179,1,0 // pand 0x1b337(%rip),%xmm3 # 3a5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x107c>
+ .byte 15,89,21,196,181,1,0 // mulps 0x1b5c4(%rip),%xmm2 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
+ .byte 102,15,219,29,204,181,1,0 // pand 0x1b5cc(%rip),%xmm3 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,61,179,1,0 // mulps 0x1b33d(%rip),%xmm3 # 3a5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x108c>
+ .byte 15,89,29,210,181,1,0 // mulps 0x1b5d2(%rip),%xmm3 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1f2e9 <_sk_load_4444_sse41+0xbc>
+ .byte 116,53 // je 1fa74 <_sk_load_4444_sse41+0xbc>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1f2d3 <_sk_load_4444_sse41+0xa6>
+ .byte 116,21 // je 1fa5e <_sk_load_4444_sse41+0xa6>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 1f24f <_sk_load_4444_sse41+0x22>
+ .byte 117,139 // jne 1f9da <_sk_load_4444_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,102,255,255,255 // jmpq 1f24f <_sk_load_4444_sse41+0x22>
+ .byte 233,102,255,255,255 // jmpq 1f9da <_sk_load_4444_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,88,255,255,255 // jmpq 1f24f <_sk_load_4444_sse41+0x22>
+ .byte 233,88,255,255,255 // jmpq 1f9da <_sk_load_4444_sse41+0x22>
HIDDEN _sk_load_4444_dst_sse41
.globl _sk_load_4444_dst_sse41
@@ -30103,44 +30499,44 @@ _sk_load_4444_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 1f371 <_sk_load_4444_dst_sse41+0x7a>
+ .byte 117,95 // jne 1fafc <_sk_load_4444_dst_sse41+0x7a>
.byte 102,67,15,56,51,60,80 // pmovzxwd (%r8,%r10,2),%xmm7
- .byte 102,15,111,37,79,178,1,0 // movdqa 0x1b24f(%rip),%xmm4 # 3a570 <_sk_srcover_bgra_8888_sse2_lowp+0x101c>
+ .byte 102,15,111,37,228,180,1,0 // movdqa 0x1b4e4(%rip),%xmm4 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,81,178,1,0 // mulps 0x1b251(%rip),%xmm4 # 3a580 <_sk_srcover_bgra_8888_sse2_lowp+0x102c>
- .byte 102,15,111,45,89,178,1,0 // movdqa 0x1b259(%rip),%xmm5 # 3a590 <_sk_srcover_bgra_8888_sse2_lowp+0x103c>
+ .byte 15,89,37,230,180,1,0 // mulps 0x1b4e6(%rip),%xmm4 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
+ .byte 102,15,111,45,238,180,1,0 // movdqa 0x1b4ee(%rip),%xmm5 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,91,178,1,0 // mulps 0x1b25b(%rip),%xmm5 # 3a5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x104c>
- .byte 102,15,111,53,99,178,1,0 // movdqa 0x1b263(%rip),%xmm6 # 3a5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x105c>
+ .byte 15,89,45,240,180,1,0 // mulps 0x1b4f0(%rip),%xmm5 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
+ .byte 102,15,111,53,248,180,1,0 // movdqa 0x1b4f8(%rip),%xmm6 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,101,178,1,0 // mulps 0x1b265(%rip),%xmm6 # 3a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x106c>
- .byte 102,15,219,61,109,178,1,0 // pand 0x1b26d(%rip),%xmm7 # 3a5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x107c>
+ .byte 15,89,53,250,180,1,0 // mulps 0x1b4fa(%rip),%xmm6 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
+ .byte 102,15,219,61,2,181,1,0 // pand 0x1b502(%rip),%xmm7 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,115,178,1,0 // mulps 0x1b273(%rip),%xmm7 # 3a5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x108c>
+ .byte 15,89,61,8,181,1,0 // mulps 0x1b508(%rip),%xmm7 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1f3b3 <_sk_load_4444_dst_sse41+0xbc>
+ .byte 116,53 // je 1fb3e <_sk_load_4444_dst_sse41+0xbc>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1f39d <_sk_load_4444_dst_sse41+0xa6>
+ .byte 116,21 // je 1fb28 <_sk_load_4444_dst_sse41+0xa6>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 1f319 <_sk_load_4444_dst_sse41+0x22>
+ .byte 117,139 // jne 1faa4 <_sk_load_4444_dst_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,102,255,255,255 // jmpq 1f319 <_sk_load_4444_dst_sse41+0x22>
+ .byte 233,102,255,255,255 // jmpq 1faa4 <_sk_load_4444_dst_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,88,255,255,255 // jmpq 1f319 <_sk_load_4444_dst_sse41+0x22>
+ .byte 233,88,255,255,255 // jmpq 1faa4 <_sk_load_4444_dst_sse41+0x22>
HIDDEN _sk_gather_4444_sse41
.globl _sk_gather_4444_sse41
@@ -30182,21 +30578,21 @@ _sk_gather_4444_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,216 // pmovzxwd %xmm0,%xmm3
- .byte 102,15,111,5,7,177,1,0 // movdqa 0x1b107(%rip),%xmm0 # 3a570 <_sk_srcover_bgra_8888_sse2_lowp+0x101c>
+ .byte 102,15,111,5,156,179,1,0 // movdqa 0x1b39c(%rip),%xmm0 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,9,177,1,0 // mulps 0x1b109(%rip),%xmm0 # 3a580 <_sk_srcover_bgra_8888_sse2_lowp+0x102c>
- .byte 102,15,111,13,17,177,1,0 // movdqa 0x1b111(%rip),%xmm1 # 3a590 <_sk_srcover_bgra_8888_sse2_lowp+0x103c>
+ .byte 15,89,5,158,179,1,0 // mulps 0x1b39e(%rip),%xmm0 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
+ .byte 102,15,111,13,166,179,1,0 // movdqa 0x1b3a6(%rip),%xmm1 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,19,177,1,0 // mulps 0x1b113(%rip),%xmm1 # 3a5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x104c>
- .byte 102,15,111,21,27,177,1,0 // movdqa 0x1b11b(%rip),%xmm2 # 3a5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x105c>
+ .byte 15,89,13,168,179,1,0 // mulps 0x1b3a8(%rip),%xmm1 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
+ .byte 102,15,111,21,176,179,1,0 // movdqa 0x1b3b0(%rip),%xmm2 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,29,177,1,0 // mulps 0x1b11d(%rip),%xmm2 # 3a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x106c>
- .byte 102,15,219,29,37,177,1,0 // pand 0x1b125(%rip),%xmm3 # 3a5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x107c>
+ .byte 15,89,21,178,179,1,0 // mulps 0x1b3b2(%rip),%xmm2 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
+ .byte 102,15,219,29,186,179,1,0 // pand 0x1b3ba(%rip),%xmm3 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,43,177,1,0 // mulps 0x1b12b(%rip),%xmm3 # 3a5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x108c>
+ .byte 15,89,29,192,179,1,0 // mulps 0x1b3c0(%rip),%xmm3 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30211,27 +30607,37 @@ _sk_store_4444_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,25,177,1,0 // movaps 0x1b119(%rip),%xmm8 # 3a5f0 <_sk_srcover_bgra_8888_sse2_lowp+0x109c>
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,200 // maxps %xmm0,%xmm9
+ .byte 68,15,40,21,226,174,1,0 // movaps 0x1aee2(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 68,15,40,29,150,179,1,0 // movaps 0x1b396(%rip),%xmm11 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8>
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,12 // pslld $0xc,%xmm9
- .byte 68,15,40,209 // movaps %xmm1,%xmm10
- .byte 69,15,89,208 // mulps %xmm8,%xmm10
- .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
- .byte 102,65,15,114,242,8 // pslld $0x8,%xmm10
- .byte 102,69,15,235,209 // por %xmm9,%xmm10
- .byte 68,15,40,202 // movaps %xmm2,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 69,15,87,228 // xorps %xmm12,%xmm12
+ .byte 68,15,95,225 // maxps %xmm1,%xmm12
+ .byte 69,15,93,226 // minps %xmm10,%xmm12
+ .byte 69,15,89,227 // mulps %xmm11,%xmm12
+ .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
+ .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12
+ .byte 102,69,15,235,225 // por %xmm9,%xmm12
+ .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
+ .byte 68,15,95,202 // maxps %xmm2,%xmm9
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,4 // pslld $0x4,%xmm9
- .byte 68,15,89,195 // mulps %xmm3,%xmm8
+ .byte 68,15,95,195 // maxps %xmm3,%xmm8
+ .byte 69,15,93,194 // minps %xmm10,%xmm8
+ .byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,69,15,86,193 // orpd %xmm9,%xmm8
- .byte 102,69,15,86,194 // orpd %xmm10,%xmm8
+ .byte 102,69,15,86,196 // orpd %xmm12,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1f53d <_sk_store_4444_sse41+0x84>
+ .byte 117,10 // jne 1fcf5 <_sk_store_4444_sse41+0xb1>
.byte 102,69,15,214,4,64 // movq %xmm8,(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30239,17 +30645,17 @@ _sk_store_4444_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,35 // je 1f573 <_sk_store_4444_sse41+0xba>
+ .byte 116,35 // je 1fd2b <_sk_store_4444_sse41+0xe7>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1f565 <_sk_store_4444_sse41+0xac>
+ .byte 116,15 // je 1fd1d <_sk_store_4444_sse41+0xd9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 1f539 <_sk_store_4444_sse41+0x80>
+ .byte 117,221 // jne 1fcf1 <_sk_store_4444_sse41+0xad>
.byte 102,69,15,58,21,68,64,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rax,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,64 // movd %xmm8,(%r8,%rax,2)
- .byte 235,198 // jmp 1f539 <_sk_store_4444_sse41+0x80>
+ .byte 235,198 // jmp 1fcf1 <_sk_store_4444_sse41+0xad>
.byte 102,69,15,58,21,4,64,0 // pextrw $0x0,%xmm8,(%r8,%rax,2)
- .byte 235,188 // jmp 1f539 <_sk_store_4444_sse41+0x80>
+ .byte 235,188 // jmp 1fcf1 <_sk_store_4444_sse41+0xad>
HIDDEN _sk_load_8888_sse41
.globl _sk_load_8888_sse41
@@ -30263,19 +30669,19 @@ _sk_load_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1f5f2 <_sk_load_8888_sse41+0x75>
+ .byte 117,89 // jne 1fdaa <_sk_load_8888_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,57,172,1,0 // movdqa 0x1ac39(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,111,5,161,174,1,0 // movdqa 0x1aea1(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,138,173,1,0 // movaps 0x1ad8a(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 68,15,40,5,242,175,1,0 // movaps 0x1aff2(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,41,172,1,0 // pshufb 0x1ac29(%rip),%xmm1 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc9c>
+ .byte 102,15,56,0,13,145,174,1,0 // pshufb 0x1ae91(%rip),%xmm1 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,37,172,1,0 // pshufb 0x1ac25(%rip),%xmm2 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0xcac>
+ .byte 102,15,56,0,21,141,174,1,0 // pshufb 0x1ae8d(%rip),%xmm2 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -30286,19 +30692,19 @@ _sk_load_8888_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1f62c <_sk_load_8888_sse41+0xaf>
+ .byte 116,45 // je 1fde4 <_sk_load_8888_sse41+0xaf>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1f61b <_sk_load_8888_sse41+0x9e>
+ .byte 116,18 // je 1fdd3 <_sk_load_8888_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1f59f <_sk_load_8888_sse41+0x22>
+ .byte 117,144 // jne 1fd57 <_sk_load_8888_sse41+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,128 // movq (%r8,%rax,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,115,255,255,255 // jmpq 1f59f <_sk_load_8888_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1fd57 <_sk_load_8888_sse41+0x22>
.byte 102,65,15,110,28,128 // movd (%r8,%rax,4),%xmm3
- .byte 233,104,255,255,255 // jmpq 1f59f <_sk_load_8888_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1fd57 <_sk_load_8888_sse41+0x22>
HIDDEN _sk_load_8888_dst_sse41
.globl _sk_load_8888_dst_sse41
@@ -30312,19 +30718,19 @@ _sk_load_8888_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1f6ac <_sk_load_8888_dst_sse41+0x75>
+ .byte 117,89 // jne 1fe64 <_sk_load_8888_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,127,171,1,0 // movdqa 0x1ab7f(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,111,37,231,173,1,0 // movdqa 0x1ade7(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,208,172,1,0 // movaps 0x1acd0(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 68,15,40,5,56,175,1,0 // movaps 0x1af38(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,111,171,1,0 // pshufb 0x1ab6f(%rip),%xmm5 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc9c>
+ .byte 102,15,56,0,45,215,173,1,0 // pshufb 0x1add7(%rip),%xmm5 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,107,171,1,0 // pshufb 0x1ab6b(%rip),%xmm6 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0xcac>
+ .byte 102,15,56,0,53,211,173,1,0 // pshufb 0x1add3(%rip),%xmm6 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -30335,19 +30741,19 @@ _sk_load_8888_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1f6e6 <_sk_load_8888_dst_sse41+0xaf>
+ .byte 116,45 // je 1fe9e <_sk_load_8888_dst_sse41+0xaf>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1f6d5 <_sk_load_8888_dst_sse41+0x9e>
+ .byte 116,18 // je 1fe8d <_sk_load_8888_dst_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1f659 <_sk_load_8888_dst_sse41+0x22>
+ .byte 117,144 // jne 1fe11 <_sk_load_8888_dst_sse41+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,115,255,255,255 // jmpq 1f659 <_sk_load_8888_dst_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1fe11 <_sk_load_8888_dst_sse41+0x22>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,104,255,255,255 // jmpq 1f659 <_sk_load_8888_dst_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1fe11 <_sk_load_8888_dst_sse41+0x22>
HIDDEN _sk_gather_8888_sse41
.globl _sk_gather_8888_sse41
@@ -30384,17 +30790,17 @@ _sk_gather_8888_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,88,170,1,0 // movdqa 0x1aa58(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,111,5,192,172,1,0 // movdqa 0x1acc0(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,169,171,1,0 // movaps 0x1aba9(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 68,15,40,5,17,174,1,0 // movaps 0x1ae11(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,72,170,1,0 // pshufb 0x1aa48(%rip),%xmm1 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc9c>
+ .byte 102,15,56,0,13,176,172,1,0 // pshufb 0x1acb0(%rip),%xmm1 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,68,170,1,0 // pshufb 0x1aa44(%rip),%xmm2 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0xcac>
+ .byte 102,15,56,0,21,172,172,1,0 // pshufb 0x1acac(%rip),%xmm2 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -30414,42 +30820,52 @@ _sk_store_8888_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,30,170,1,0 // movaps 0x1aa1e(%rip),%xmm8 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,200 // maxps %xmm0,%xmm9
+ .byte 68,15,40,21,154,171,1,0 // movaps 0x1ab9a(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 68,15,40,29,110,172,1,0 // movaps 0x1ac6e(%rip),%xmm11 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 68,15,40,209 // movaps %xmm1,%xmm10
- .byte 69,15,89,208 // mulps %xmm8,%xmm10
- .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
- .byte 102,65,15,114,242,8 // pslld $0x8,%xmm10
- .byte 102,69,15,235,209 // por %xmm9,%xmm10
- .byte 68,15,40,202 // movaps %xmm2,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 69,15,87,228 // xorps %xmm12,%xmm12
+ .byte 68,15,95,225 // maxps %xmm1,%xmm12
+ .byte 69,15,93,226 // minps %xmm10,%xmm12
+ .byte 69,15,89,227 // mulps %xmm11,%xmm12
+ .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
+ .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12
+ .byte 102,69,15,235,225 // por %xmm9,%xmm12
+ .byte 102,69,15,87,201 // xorpd %xmm9,%xmm9
+ .byte 68,15,95,202 // maxps %xmm2,%xmm9
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,16 // pslld $0x10,%xmm9
- .byte 68,15,89,195 // mulps %xmm3,%xmm8
+ .byte 68,15,95,195 // maxps %xmm3,%xmm8
+ .byte 69,15,93,194 // minps %xmm10,%xmm8
+ .byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,24 // pslld $0x18,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 102,69,15,235,194 // por %xmm10,%xmm8
+ .byte 102,69,15,235,196 // por %xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1f852 <_sk_store_8888_sse41+0x7f>
+ .byte 117,10 // jne 20037 <_sk_store_8888_sse41+0xac>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,29 // je 1f87c <_sk_store_8888_sse41+0xa9>
+ .byte 116,29 // je 20061 <_sk_store_8888_sse41+0xd6>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1f874 <_sk_store_8888_sse41+0xa1>
+ .byte 116,15 // je 20059 <_sk_store_8888_sse41+0xce>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 1f84e <_sk_store_8888_sse41+0x7b>
+ .byte 117,227 // jne 20033 <_sk_store_8888_sse41+0xa8>
.byte 102,69,15,58,22,68,128,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,210 // jmp 1f84e <_sk_store_8888_sse41+0x7b>
+ .byte 235,210 // jmp 20033 <_sk_store_8888_sse41+0xa8>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,202 // jmp 1f84e <_sk_store_8888_sse41+0x7b>
+ .byte 235,202 // jmp 20033 <_sk_store_8888_sse41+0xa8>
HIDDEN _sk_load_bgra_sse41
.globl _sk_load_bgra_sse41
@@ -30463,19 +30879,19 @@ _sk_load_bgra_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1f8f9 <_sk_load_bgra_sse41+0x75>
+ .byte 117,89 // jne 200de <_sk_load_bgra_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,50,169,1,0 // movdqa 0x1a932(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,111,5,109,171,1,0 // movdqa 0x1ab6d(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,131,170,1,0 // movaps 0x1aa83(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 68,15,40,5,190,172,1,0 // movaps 0x1acbe(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,34,169,1,0 // pshufb 0x1a922(%rip),%xmm0 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc9c>
+ .byte 102,15,56,0,5,93,171,1,0 // pshufb 0x1ab5d(%rip),%xmm0 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,30,169,1,0 // pshufb 0x1a91e(%rip),%xmm0 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0xcac>
+ .byte 102,15,56,0,5,89,171,1,0 // pshufb 0x1ab59(%rip),%xmm0 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -30486,19 +30902,19 @@ _sk_load_bgra_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1f933 <_sk_load_bgra_sse41+0xaf>
+ .byte 116,45 // je 20118 <_sk_load_bgra_sse41+0xaf>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1f922 <_sk_load_bgra_sse41+0x9e>
+ .byte 116,18 // je 20107 <_sk_load_bgra_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1f8a6 <_sk_load_bgra_sse41+0x22>
+ .byte 117,144 // jne 2008b <_sk_load_bgra_sse41+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,128 // movq (%r8,%rax,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,115,255,255,255 // jmpq 1f8a6 <_sk_load_bgra_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 2008b <_sk_load_bgra_sse41+0x22>
.byte 102,65,15,110,28,128 // movd (%r8,%rax,4),%xmm3
- .byte 233,104,255,255,255 // jmpq 1f8a6 <_sk_load_bgra_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 2008b <_sk_load_bgra_sse41+0x22>
HIDDEN _sk_load_bgra_dst_sse41
.globl _sk_load_bgra_dst_sse41
@@ -30512,19 +30928,19 @@ _sk_load_bgra_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1f9b3 <_sk_load_bgra_dst_sse41+0x75>
+ .byte 117,89 // jne 20198 <_sk_load_bgra_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,120,168,1,0 // movdqa 0x1a878(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,111,37,179,170,1,0 // movdqa 0x1aab3(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 68,15,40,5,201,169,1,0 // movaps 0x1a9c9(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 68,15,40,5,4,172,1,0 // movaps 0x1ac04(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,104,168,1,0 // pshufb 0x1a868(%rip),%xmm4 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc9c>
+ .byte 102,15,56,0,37,163,170,1,0 // pshufb 0x1aaa3(%rip),%xmm4 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,100,168,1,0 // pshufb 0x1a864(%rip),%xmm4 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0xcac>
+ .byte 102,15,56,0,37,159,170,1,0 // pshufb 0x1aa9f(%rip),%xmm4 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -30535,19 +30951,19 @@ _sk_load_bgra_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1f9ed <_sk_load_bgra_dst_sse41+0xaf>
+ .byte 116,45 // je 201d2 <_sk_load_bgra_dst_sse41+0xaf>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1f9dc <_sk_load_bgra_dst_sse41+0x9e>
+ .byte 116,18 // je 201c1 <_sk_load_bgra_dst_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1f960 <_sk_load_bgra_dst_sse41+0x22>
+ .byte 117,144 // jne 20145 <_sk_load_bgra_dst_sse41+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,115,255,255,255 // jmpq 1f960 <_sk_load_bgra_dst_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 20145 <_sk_load_bgra_dst_sse41+0x22>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,104,255,255,255 // jmpq 1f960 <_sk_load_bgra_dst_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 20145 <_sk_load_bgra_dst_sse41+0x22>
HIDDEN _sk_gather_bgra_sse41
.globl _sk_gather_bgra_sse41
@@ -30584,17 +31000,17 @@ _sk_gather_bgra_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,81,167,1,0 // movdqa 0x1a751(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,111,5,140,169,1,0 // movdqa 0x1a98c(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,162,168,1,0 // movaps 0x1a8a2(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 68,15,40,5,221,170,1,0 // movaps 0x1aadd(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,65,167,1,0 // pshufb 0x1a741(%rip),%xmm0 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc9c>
+ .byte 102,15,56,0,5,124,169,1,0 // pshufb 0x1a97c(%rip),%xmm0 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,61,167,1,0 // pshufb 0x1a73d(%rip),%xmm0 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0xcac>
+ .byte 102,15,56,0,5,120,169,1,0 // pshufb 0x1a978(%rip),%xmm0 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -30614,42 +31030,52 @@ _sk_store_bgra_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,23,167,1,0 // movaps 0x1a717(%rip),%xmm8 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
- .byte 68,15,40,202 // movaps %xmm2,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,202 // maxps %xmm2,%xmm9
+ .byte 68,15,40,21,102,168,1,0 // movaps 0x1a866(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 68,15,40,29,58,169,1,0 // movaps 0x1a93a(%rip),%xmm11 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 68,15,40,209 // movaps %xmm1,%xmm10
- .byte 69,15,89,208 // mulps %xmm8,%xmm10
- .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
- .byte 102,65,15,114,242,8 // pslld $0x8,%xmm10
- .byte 102,69,15,235,209 // por %xmm9,%xmm10
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 69,15,87,228 // xorps %xmm12,%xmm12
+ .byte 68,15,95,225 // maxps %xmm1,%xmm12
+ .byte 69,15,93,226 // minps %xmm10,%xmm12
+ .byte 69,15,89,227 // mulps %xmm11,%xmm12
+ .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
+ .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12
+ .byte 102,69,15,235,225 // por %xmm9,%xmm12
+ .byte 102,69,15,87,201 // xorpd %xmm9,%xmm9
+ .byte 68,15,95,200 // maxps %xmm0,%xmm9
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,16 // pslld $0x10,%xmm9
- .byte 68,15,89,195 // mulps %xmm3,%xmm8
+ .byte 68,15,95,195 // maxps %xmm3,%xmm8
+ .byte 69,15,93,194 // minps %xmm10,%xmm8
+ .byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,24 // pslld $0x18,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 102,69,15,235,194 // por %xmm10,%xmm8
+ .byte 102,69,15,235,196 // por %xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1fb59 <_sk_store_bgra_sse41+0x7f>
+ .byte 117,10 // jne 2036b <_sk_store_bgra_sse41+0xac>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,29 // je 1fb83 <_sk_store_bgra_sse41+0xa9>
+ .byte 116,29 // je 20395 <_sk_store_bgra_sse41+0xd6>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1fb7b <_sk_store_bgra_sse41+0xa1>
+ .byte 116,15 // je 2038d <_sk_store_bgra_sse41+0xce>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 1fb55 <_sk_store_bgra_sse41+0x7b>
+ .byte 117,227 // jne 20367 <_sk_store_bgra_sse41+0xa8>
.byte 102,69,15,58,22,68,128,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,210 // jmp 1fb55 <_sk_store_bgra_sse41+0x7b>
+ .byte 235,210 // jmp 20367 <_sk_store_bgra_sse41+0xa8>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,202 // jmp 1fb55 <_sk_store_bgra_sse41+0x7b>
+ .byte 235,202 // jmp 20367 <_sk_store_bgra_sse41+0xa8>
HIDDEN _sk_load_f16_sse41
.globl _sk_load_f16_sse41
@@ -30663,7 +31089,7 @@ _sk_load_f16_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 1fcef <_sk_load_f16_sse41+0x164>
+ .byte 15,133,68,1,0,0 // jne 20501 <_sk_load_f16_sse41+0x164>
.byte 102,65,15,16,4,192 // movupd (%r8,%rax,8),%xmm0
.byte 243,65,15,111,76,192,16 // movdqu 0x10(%r8,%rax,8),%xmm1
.byte 102,68,15,40,200 // movapd %xmm0,%xmm9
@@ -30673,19 +31099,19 @@ _sk_load_f16_sse41:
.byte 102,68,15,97,224 // punpcklwd %xmm0,%xmm12
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,28,170,1,0 // movdqa 0x1aa1c(%rip),%xmm8 # 3a600 <_sk_srcover_bgra_8888_sse2_lowp+0x10ac>
+ .byte 102,68,15,111,5,42,172,1,0 // movdqa 0x1ac2a(%rip),%xmm8 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,26,170,1,0 // movdqa 0x1aa1a(%rip),%xmm10 # 3a610 <_sk_srcover_bgra_8888_sse2_lowp+0x10bc>
+ .byte 102,68,15,111,21,40,172,1,0 // movdqa 0x1ac28(%rip),%xmm10 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,29,170,1,0 // movdqa 0x1aa1d(%rip),%xmm3 # 3a620 <_sk_srcover_bgra_8888_sse2_lowp+0x10cc>
+ .byte 102,15,111,29,43,172,1,0 // movdqa 0x1ac2b(%rip),%xmm3 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,9,170,1,0 // movdqa 0x1aa09(%rip),%xmm11 # 3a630 <_sk_srcover_bgra_8888_sse2_lowp+0x10dc>
+ .byte 102,68,15,111,29,23,172,1,0 // movdqa 0x1ac17(%rip),%xmm11 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -30728,16 +31154,16 @@ _sk_load_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,192 // movsd (%r8,%rax,8),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1fd08 <_sk_load_f16_sse41+0x17d>
+ .byte 117,13 // jne 2051a <_sk_load_f16_sse41+0x17d>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,176,254,255,255 // jmpq 1fbb8 <_sk_load_f16_sse41+0x2d>
+ .byte 233,176,254,255,255 // jmpq 203ca <_sk_load_f16_sse41+0x2d>
.byte 102,65,15,22,68,192,8 // movhpd 0x8(%r8,%rax,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 1fbb8 <_sk_load_f16_sse41+0x2d>
+ .byte 15,130,155,254,255,255 // jb 203ca <_sk_load_f16_sse41+0x2d>
.byte 243,65,15,126,76,192,16 // movq 0x10(%r8,%rax,8),%xmm1
- .byte 233,143,254,255,255 // jmpq 1fbb8 <_sk_load_f16_sse41+0x2d>
+ .byte 233,143,254,255,255 // jmpq 203ca <_sk_load_f16_sse41+0x2d>
HIDDEN _sk_load_f16_dst_sse41
.globl _sk_load_f16_dst_sse41
@@ -30751,7 +31177,7 @@ _sk_load_f16_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 1fe8d <_sk_load_f16_dst_sse41+0x164>
+ .byte 15,133,68,1,0,0 // jne 2069f <_sk_load_f16_dst_sse41+0x164>
.byte 102,65,15,16,36,192 // movupd (%r8,%rax,8),%xmm4
.byte 243,65,15,111,108,192,16 // movdqu 0x10(%r8,%rax,8),%xmm5
.byte 102,68,15,40,204 // movapd %xmm4,%xmm9
@@ -30761,19 +31187,19 @@ _sk_load_f16_dst_sse41:
.byte 102,68,15,97,228 // punpcklwd %xmm4,%xmm12
.byte 102,68,15,105,204 // punpckhwd %xmm4,%xmm9
.byte 102,65,15,56,51,244 // pmovzxwd %xmm12,%xmm6
- .byte 102,68,15,111,5,126,168,1,0 // movdqa 0x1a87e(%rip),%xmm8 # 3a600 <_sk_srcover_bgra_8888_sse2_lowp+0x10ac>
+ .byte 102,68,15,111,5,140,170,1,0 // movdqa 0x1aa8c(%rip),%xmm8 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,219,232 // pand %xmm8,%xmm5
- .byte 102,68,15,111,21,124,168,1,0 // movdqa 0x1a87c(%rip),%xmm10 # 3a610 <_sk_srcover_bgra_8888_sse2_lowp+0x10bc>
+ .byte 102,68,15,111,21,138,170,1,0 // movdqa 0x1aa8a(%rip),%xmm10 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
.byte 102,65,15,219,242 // pand %xmm10,%xmm6
- .byte 102,15,111,61,127,168,1,0 // movdqa 0x1a87f(%rip),%xmm7 # 3a620 <_sk_srcover_bgra_8888_sse2_lowp+0x10cc>
+ .byte 102,15,111,61,141,170,1,0 // movdqa 0x1aa8d(%rip),%xmm7 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
.byte 102,15,114,245,16 // pslld $0x10,%xmm5
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,56,63,231 // pmaxud %xmm7,%xmm4
.byte 102,15,118,230 // pcmpeqd %xmm6,%xmm4
.byte 102,15,114,246,13 // pslld $0xd,%xmm6
.byte 102,15,235,245 // por %xmm5,%xmm6
- .byte 102,68,15,111,29,107,168,1,0 // movdqa 0x1a86b(%rip),%xmm11 # 3a630 <_sk_srcover_bgra_8888_sse2_lowp+0x10dc>
+ .byte 102,68,15,111,29,121,170,1,0 // movdqa 0x1aa79(%rip),%xmm11 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
.byte 102,65,15,254,243 // paddd %xmm11,%xmm6
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 102,65,15,112,236,238 // pshufd $0xee,%xmm12,%xmm5
@@ -30816,16 +31242,16 @@ _sk_load_f16_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,192 // movsd (%r8,%rax,8),%xmm4
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1fea6 <_sk_load_f16_dst_sse41+0x17d>
+ .byte 117,13 // jne 206b8 <_sk_load_f16_dst_sse41+0x17d>
.byte 243,15,126,228 // movq %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,176,254,255,255 // jmpq 1fd56 <_sk_load_f16_dst_sse41+0x2d>
+ .byte 233,176,254,255,255 // jmpq 20568 <_sk_load_f16_dst_sse41+0x2d>
.byte 102,65,15,22,100,192,8 // movhpd 0x8(%r8,%rax,8),%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 1fd56 <_sk_load_f16_dst_sse41+0x2d>
+ .byte 15,130,155,254,255,255 // jb 20568 <_sk_load_f16_dst_sse41+0x2d>
.byte 243,65,15,126,108,192,16 // movq 0x10(%r8,%rax,8),%xmm5
- .byte 233,143,254,255,255 // jmpq 1fd56 <_sk_load_f16_dst_sse41+0x2d>
+ .byte 233,143,254,255,255 // jmpq 20568 <_sk_load_f16_dst_sse41+0x2d>
HIDDEN _sk_gather_f16_sse41
.globl _sk_gather_f16_sse41
@@ -30871,19 +31297,19 @@ _sk_gather_f16_sse41:
.byte 102,68,15,97,226 // punpcklwd %xmm2,%xmm12
.byte 102,68,15,105,202 // punpckhwd %xmm2,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,124,166,1,0 // movdqa 0x1a67c(%rip),%xmm8 # 3a600 <_sk_srcover_bgra_8888_sse2_lowp+0x10ac>
+ .byte 102,68,15,111,5,138,168,1,0 // movdqa 0x1a88a(%rip),%xmm8 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,122,166,1,0 // movdqa 0x1a67a(%rip),%xmm10 # 3a610 <_sk_srcover_bgra_8888_sse2_lowp+0x10bc>
+ .byte 102,68,15,111,21,136,168,1,0 // movdqa 0x1a888(%rip),%xmm10 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,125,166,1,0 // movdqa 0x1a67d(%rip),%xmm3 # 3a620 <_sk_srcover_bgra_8888_sse2_lowp+0x10cc>
+ .byte 102,15,111,29,139,168,1,0 // movdqa 0x1a88b(%rip),%xmm3 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,105,166,1,0 // movdqa 0x1a669(%rip),%xmm11 # 3a630 <_sk_srcover_bgra_8888_sse2_lowp+0x10dc>
+ .byte 102,68,15,111,29,119,168,1,0 // movdqa 0x1a877(%rip),%xmm11 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -30936,20 +31362,20 @@ _sk_store_f16_sse41:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 102,68,15,111,13,145,165,1,0 // movdqa 0x1a591(%rip),%xmm9 # 3a640 <_sk_srcover_bgra_8888_sse2_lowp+0x10ec>
+ .byte 102,68,15,111,13,159,167,1,0 // movdqa 0x1a79f(%rip),%xmm9 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
.byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,142,165,1,0 // movdqa 0x1a58e(%rip),%xmm11 # 3a650 <_sk_srcover_bgra_8888_sse2_lowp+0x10fc>
+ .byte 102,68,15,111,29,156,167,1,0 // movdqa 0x1a79c(%rip),%xmm11 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,69,15,219,235 // pand %xmm11,%xmm13
- .byte 102,68,15,111,21,139,165,1,0 // movdqa 0x1a58b(%rip),%xmm10 # 3a660 <_sk_srcover_bgra_8888_sse2_lowp+0x110c>
+ .byte 102,68,15,111,21,153,167,1,0 // movdqa 0x1a799(%rip),%xmm10 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
.byte 102,65,15,114,212,16 // psrld $0x10,%xmm12
.byte 102,69,15,111,197 // movdqa %xmm13,%xmm8
.byte 102,69,15,56,63,194 // pmaxud %xmm10,%xmm8
.byte 102,69,15,118,197 // pcmpeqd %xmm13,%xmm8
.byte 102,65,15,114,213,13 // psrld $0xd,%xmm13
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
- .byte 102,68,15,111,37,113,165,1,0 // movdqa 0x1a571(%rip),%xmm12 # 3a670 <_sk_srcover_bgra_8888_sse2_lowp+0x111c>
+ .byte 102,68,15,111,37,127,167,1,0 // movdqa 0x1a77f(%rip),%xmm12 # 3b090 <_sk_srcover_bgra_8888_sse2_lowp+0x1128>
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
.byte 102,69,15,219,197 // pand %xmm13,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
@@ -30994,7 +31420,7 @@ _sk_store_f16_sse41:
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,98,205 // punpckldq %xmm13,%xmm9
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 201fd <_sk_store_f16_sse41+0x16e>
+ .byte 117,21 // jne 20a0f <_sk_store_f16_sse41+0x16e>
.byte 69,15,17,12,192 // movups %xmm9,(%r8,%rax,8)
.byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
.byte 243,69,15,127,68,192,16 // movdqu %xmm8,0x10(%r8,%rax,8)
@@ -31002,13 +31428,13 @@ _sk_store_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,12,192 // movq %xmm9,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 201f9 <_sk_store_f16_sse41+0x16a>
+ .byte 116,240 // je 20a0b <_sk_store_f16_sse41+0x16a>
.byte 102,69,15,23,76,192,8 // movhpd %xmm9,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 201f9 <_sk_store_f16_sse41+0x16a>
+ .byte 114,227 // jb 20a0b <_sk_store_f16_sse41+0x16a>
.byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
.byte 102,69,15,214,68,192,16 // movq %xmm8,0x10(%r8,%rax,8)
- .byte 235,213 // jmp 201f9 <_sk_store_f16_sse41+0x16a>
+ .byte 235,213 // jmp 20a0b <_sk_store_f16_sse41+0x16a>
HIDDEN _sk_load_u16_be_sse41
.globl _sk_load_u16_be_sse41
@@ -31023,7 +31449,7 @@ _sk_load_u16_be_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,185,0,0,0 // jne 20304 <_sk_load_u16_be_sse41+0xe0>
+ .byte 15,133,185,0,0,0 // jne 20b16 <_sk_load_u16_be_sse41+0xe0>
.byte 102,65,15,16,4,64 // movupd (%r8,%rax,2),%xmm0
.byte 243,65,15,111,76,64,16 // movdqu 0x10(%r8,%rax,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -31039,7 +31465,7 @@ _sk_load_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,57,161,1,0 // movaps 0x1a139(%rip),%xmm8 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe7c>
+ .byte 68,15,40,5,71,163,1,0 // movaps 0x1a347(%rip),%xmm8 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -31067,16 +31493,16 @@ _sk_load_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,64 // movsd (%r8,%rax,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 2031d <_sk_load_u16_be_sse41+0xf9>
+ .byte 117,13 // jne 20b2f <_sk_load_u16_be_sse41+0xf9>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,59,255,255,255 // jmpq 20258 <_sk_load_u16_be_sse41+0x34>
+ .byte 233,59,255,255,255 // jmpq 20a6a <_sk_load_u16_be_sse41+0x34>
.byte 102,65,15,22,68,64,8 // movhpd 0x8(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,38,255,255,255 // jb 20258 <_sk_load_u16_be_sse41+0x34>
+ .byte 15,130,38,255,255,255 // jb 20a6a <_sk_load_u16_be_sse41+0x34>
.byte 243,65,15,126,76,64,16 // movq 0x10(%r8,%rax,2),%xmm1
- .byte 233,26,255,255,255 // jmpq 20258 <_sk_load_u16_be_sse41+0x34>
+ .byte 233,26,255,255,255 // jmpq 20a6a <_sk_load_u16_be_sse41+0x34>
HIDDEN _sk_load_rgb_u16_be_sse41
.globl _sk_load_rgb_u16_be_sse41
@@ -31093,7 +31519,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,170,0,0,0 // jne 20413 <_sk_load_rgb_u16_be_sse41+0xd5>
+ .byte 15,133,170,0,0,0 // jne 20c25 <_sk_load_rgb_u16_be_sse41+0xd5>
.byte 243,65,15,111,20,64 // movdqu (%r8,%rax,2),%xmm2
.byte 243,65,15,111,92,64,8 // movdqu 0x8(%r8,%rax,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -31113,7 +31539,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,8,160,1,0 // movaps 0x1a008(%rip),%xmm8 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe7c>
+ .byte 68,15,40,5,22,162,1,0 // movaps 0x1a216(%rip),%xmm8 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -31130,27 +31556,27 @@ _sk_load_rgb_u16_be_sse41:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,31,157,1,0 // movaps 0x19d1f(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,29,45,159,1,0 // movaps 0x19f2d(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,84,64,4,2 // pinsrw $0x2,0x4(%r8,%rax,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 20438 <_sk_load_rgb_u16_be_sse41+0xfa>
+ .byte 117,13 // jne 20c4a <_sk_load_rgb_u16_be_sse41+0xfa>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,85,255,255,255 // jmpq 2038d <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,85,255,255,255 // jmpq 20b9f <_sk_load_rgb_u16_be_sse41+0x4f>
.byte 102,65,15,110,68,64,6 // movd 0x6(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,68,64,10,2 // pinsrw $0x2,0xa(%r8,%rax,2),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 20469 <_sk_load_rgb_u16_be_sse41+0x12b>
+ .byte 114,24 // jb 20c7b <_sk_load_rgb_u16_be_sse41+0x12b>
.byte 102,65,15,110,92,64,12 // movd 0xc(%r8,%rax,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,92,64,16,2 // pinsrw $0x2,0x10(%r8,%rax,2),%xmm3
- .byte 233,36,255,255,255 // jmpq 2038d <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,36,255,255,255 // jmpq 20b9f <_sk_load_rgb_u16_be_sse41+0x4f>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,27,255,255,255 // jmpq 2038d <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,27,255,255,255 // jmpq 20b9f <_sk_load_rgb_u16_be_sse41+0x4f>
HIDDEN _sk_store_u16_be_sse41
.globl _sk_store_u16_be_sse41
@@ -31164,58 +31590,68 @@ _sk_store_u16_be_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 68,15,40,21,232,161,1,0 // movaps 0x1a1e8(%rip),%xmm10 # 3a680 <_sk_srcover_bgra_8888_sse2_lowp+0x112c>
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 69,15,89,194 // mulps %xmm10,%xmm8
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 68,15,95,192 // maxps %xmm0,%xmm8
+ .byte 68,15,40,21,154,158,1,0 // movaps 0x19e9a(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,93,194 // minps %xmm10,%xmm8
+ .byte 68,15,40,29,222,163,1,0 // movaps 0x1a3de(%rip),%xmm11 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1138>
+ .byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,65,15,113,241,8 // psllw $0x8,%xmm9
+ .byte 102,69,15,111,224 // movdqa %xmm8,%xmm12
+ .byte 102,65,15,113,244,8 // psllw $0x8,%xmm12
.byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 69,15,89,202 // mulps %xmm10,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 102,68,15,56,43,200 // packusdw %xmm0,%xmm9
- .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
- .byte 102,65,15,113,243,8 // psllw $0x8,%xmm11
- .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
- .byte 102,69,15,235,203 // por %xmm11,%xmm9
- .byte 102,69,15,97,193 // punpcklwd %xmm9,%xmm8
- .byte 68,15,40,202 // movaps %xmm2,%xmm9
- .byte 69,15,89,202 // mulps %xmm10,%xmm9
+ .byte 102,69,15,235,196 // por %xmm12,%xmm8
+ .byte 102,69,15,239,228 // pxor %xmm12,%xmm12
+ .byte 68,15,95,225 // maxps %xmm1,%xmm12
+ .byte 69,15,93,226 // minps %xmm10,%xmm12
+ .byte 69,15,89,227 // mulps %xmm11,%xmm12
+ .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
+ .byte 102,68,15,56,43,224 // packusdw %xmm0,%xmm12
+ .byte 102,69,15,111,236 // movdqa %xmm12,%xmm13
+ .byte 102,65,15,113,245,8 // psllw $0x8,%xmm13
+ .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12
+ .byte 102,69,15,235,229 // por %xmm13,%xmm12
+ .byte 102,69,15,97,196 // punpcklwd %xmm12,%xmm8
+ .byte 102,69,15,239,228 // pxor %xmm12,%xmm12
+ .byte 68,15,95,226 // maxps %xmm2,%xmm12
+ .byte 69,15,93,226 // minps %xmm10,%xmm12
+ .byte 69,15,89,227 // mulps %xmm11,%xmm12
+ .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
+ .byte 102,68,15,56,43,224 // packusdw %xmm0,%xmm12
+ .byte 102,69,15,111,236 // movdqa %xmm12,%xmm13
+ .byte 102,65,15,113,245,8 // psllw $0x8,%xmm13
+ .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12
+ .byte 102,69,15,235,229 // por %xmm13,%xmm12
+ .byte 68,15,95,203 // maxps %xmm3,%xmm9
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,68,15,56,43,200 // packusdw %xmm0,%xmm9
- .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
- .byte 102,65,15,113,243,8 // psllw $0x8,%xmm11
+ .byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
+ .byte 102,65,15,113,242,8 // psllw $0x8,%xmm10
.byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
- .byte 102,69,15,235,203 // por %xmm11,%xmm9
- .byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
- .byte 102,68,15,56,43,208 // packusdw %xmm0,%xmm10
- .byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
- .byte 102,65,15,113,243,8 // psllw $0x8,%xmm11
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,69,15,97,202 // punpcklwd %xmm10,%xmm9
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,69,15,98,209 // punpckldq %xmm9,%xmm10
+ .byte 102,69,15,235,202 // por %xmm10,%xmm9
+ .byte 102,69,15,97,225 // punpcklwd %xmm9,%xmm12
+ .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
+ .byte 102,69,15,98,204 // punpckldq %xmm12,%xmm9
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 20566 <_sk_store_u16_be_sse41+0xf4>
- .byte 69,15,17,20,64 // movups %xmm10,(%r8,%rax,2)
- .byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
+ .byte 117,21 // jne 20da6 <_sk_store_u16_be_sse41+0x122>
+ .byte 69,15,17,12,64 // movups %xmm9,(%r8,%rax,2)
+ .byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
.byte 243,69,15,127,68,64,16 // movdqu %xmm8,0x10(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
- .byte 102,69,15,214,20,64 // movq %xmm10,(%r8,%rax,2)
+ .byte 102,69,15,214,12,64 // movq %xmm9,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 20562 <_sk_store_u16_be_sse41+0xf0>
- .byte 102,69,15,23,84,64,8 // movhpd %xmm10,0x8(%r8,%rax,2)
+ .byte 116,240 // je 20da2 <_sk_store_u16_be_sse41+0x11e>
+ .byte 102,69,15,23,76,64,8 // movhpd %xmm9,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 20562 <_sk_store_u16_be_sse41+0xf0>
- .byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
+ .byte 114,227 // jb 20da2 <_sk_store_u16_be_sse41+0x11e>
+ .byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
.byte 102,69,15,214,68,64,16 // movq %xmm8,0x10(%r8,%rax,2)
- .byte 235,213 // jmp 20562 <_sk_store_u16_be_sse41+0xf0>
+ .byte 235,213 // jmp 20da2 <_sk_store_u16_be_sse41+0x11e>
HIDDEN _sk_load_f32_sse41
.globl _sk_load_f32_sse41
@@ -31231,7 +31667,7 @@ _sk_load_f32_sse41:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 205f8 <_sk_load_f32_sse41+0x6b>
+ .byte 117,66 // jne 20e38 <_sk_load_f32_sse41+0x6b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -31251,17 +31687,17 @@ _sk_load_f32_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 2060a <_sk_load_f32_sse41+0x7d>
+ .byte 117,8 // jne 20e4a <_sk_load_f32_sse41+0x7d>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 205c8 <_sk_load_f32_sse41+0x3b>
+ .byte 235,190 // jmp 20e08 <_sk_load_f32_sse41+0x3b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 2061e <_sk_load_f32_sse41+0x91>
+ .byte 114,8 // jb 20e5e <_sk_load_f32_sse41+0x91>
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
- .byte 235,170 // jmp 205c8 <_sk_load_f32_sse41+0x3b>
+ .byte 235,170 // jmp 20e08 <_sk_load_f32_sse41+0x3b>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 205c8 <_sk_load_f32_sse41+0x3b>
+ .byte 235,165 // jmp 20e08 <_sk_load_f32_sse41+0x3b>
HIDDEN _sk_load_f32_dst_sse41
.globl _sk_load_f32_dst_sse41
@@ -31277,7 +31713,7 @@ _sk_load_f32_dst_sse41:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 2068e <_sk_load_f32_dst_sse41+0x6b>
+ .byte 117,66 // jne 20ece <_sk_load_f32_dst_sse41+0x6b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -31297,17 +31733,17 @@ _sk_load_f32_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 206a0 <_sk_load_f32_dst_sse41+0x7d>
+ .byte 117,8 // jne 20ee0 <_sk_load_f32_dst_sse41+0x7d>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 2065e <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,190 // jmp 20e9e <_sk_load_f32_dst_sse41+0x3b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 206b4 <_sk_load_f32_dst_sse41+0x91>
+ .byte 114,8 // jb 20ef4 <_sk_load_f32_dst_sse41+0x91>
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
- .byte 235,170 // jmp 2065e <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,170 // jmp 20e9e <_sk_load_f32_dst_sse41+0x3b>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 2065e <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,165 // jmp 20e9e <_sk_load_f32_dst_sse41+0x3b>
HIDDEN _sk_store_f32_sse41
.globl _sk_store_f32_sse41
@@ -31336,7 +31772,7 @@ _sk_store_f32_sse41:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,69,15,17,36,128 // movupd %xmm12,(%r8,%rax,4)
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 20736 <_sk_store_f32_sse41+0x7d>
+ .byte 117,29 // jne 20f76 <_sk_store_f32_sse41+0x7d>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
@@ -31344,12 +31780,12 @@ _sk_store_f32_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 20732 <_sk_store_f32_sse41+0x79>
+ .byte 116,246 // je 20f72 <_sk_store_f32_sse41+0x79>
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 20732 <_sk_store_f32_sse41+0x79>
+ .byte 114,234 // jb 20f72 <_sk_store_f32_sse41+0x79>
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
- .byte 235,225 // jmp 20732 <_sk_store_f32_sse41+0x79>
+ .byte 235,225 // jmp 20f72 <_sk_store_f32_sse41+0x79>
HIDDEN _sk_repeat_x_sse41
.globl _sk_repeat_x_sse41
@@ -31395,7 +31831,7 @@ _sk_mirror_x_sse41:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,38,144,1,0 // mulss 0x19026(%rip),%xmm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,250,145,1,0 // mulss 0x191fa(%rip),%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -31420,7 +31856,7 @@ _sk_mirror_y_sse41:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,205,143,1,0 // mulss 0x18fcd(%rip),%xmm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,161,145,1,0 // mulss 0x191a1(%rip),%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -31439,7 +31875,7 @@ FUNCTION(_sk_clamp_x_1_sse41)
_sk_clamp_x_1_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,193,152,1,0 // minps 0x198c1(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,93,5,161,154,1,0 // minps 0x19aa1(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -31452,7 +31888,7 @@ _sk_repeat_x_1_sse41:
.byte 65,15,92,192 // subps %xmm8,%xmm0
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,158,152,1,0 // minps 0x1989e(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,93,5,126,154,1,0 // minps 0x19a7e(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -31461,9 +31897,9 @@ HIDDEN _sk_mirror_x_1_sse41
.globl _sk_mirror_x_1_sse41
FUNCTION(_sk_mirror_x_1_sse41)
_sk_mirror_x_1_sse41:
- .byte 68,15,40,5,238,152,1,0 // movaps 0x198ee(%rip),%xmm8 # 3a190 <_sk_srcover_bgra_8888_sse2_lowp+0xc3c>
+ .byte 68,15,40,5,206,154,1,0 // movaps 0x19ace(%rip),%xmm8 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,13,114,152,1,0 // movaps 0x19872(%rip),%xmm9 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,40,13,82,154,1,0 // movaps 0x19a52(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
.byte 69,15,88,201 // addps %xmm9,%xmm9
@@ -31474,7 +31910,7 @@ _sk_mirror_x_1_sse41:
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 68,15,84,200 // andps %xmm0,%xmm9
.byte 69,15,95,193 // maxps %xmm9,%xmm8
- .byte 68,15,93,5,79,152,1,0 // minps 0x1984f(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,93,5,47,154,1,0 // minps 0x19a2f(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -31484,10 +31920,10 @@ HIDDEN _sk_luminance_to_alpha_sse41
FUNCTION(_sk_luminance_to_alpha_sse41)
_sk_luminance_to_alpha_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,157,157,1,0 // mulps 0x19d9d(%rip),%xmm0 # 3a690 <_sk_srcover_bgra_8888_sse2_lowp+0x113c>
- .byte 15,89,13,166,157,1,0 // mulps 0x19da6(%rip),%xmm1 # 3a6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x114c>
+ .byte 15,89,5,125,159,1,0 // mulps 0x19f7d(%rip),%xmm0 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1148>
+ .byte 15,89,13,134,159,1,0 // mulps 0x19f86(%rip),%xmm1 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1158>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,172,157,1,0 // mulps 0x19dac(%rip),%xmm3 # 3a6b0 <_sk_srcover_bgra_8888_sse2_lowp+0x115c>
+ .byte 15,89,29,140,159,1,0 // mulps 0x19f8c(%rip),%xmm3 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1168>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -31799,9 +32235,9 @@ _sk_evenly_spaced_gradient_sse41:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 20da4 <_sk_evenly_spaced_gradient_sse41+0x18>
+ .byte 120,7 // js 215e4 <_sk_evenly_spaced_gradient_sse41+0x18>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 20db9 <_sk_evenly_spaced_gradient_sse41+0x2d>
+ .byte 235,21 // jmp 215f9 <_sk_evenly_spaced_gradient_sse41+0x2d>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -31894,7 +32330,7 @@ _sk_gradient_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 20f96 <_sk_gradient_sse41+0x38>
+ .byte 114,41 // jb 217d6 <_sk_gradient_sse41+0x38>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 73,255,200 // dec %r8
.byte 73,131,193,4 // add $0x4,%r9
@@ -31905,7 +32341,7 @@ _sk_gradient_sse41:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 73,131,193,4 // add $0x4,%r9
.byte 73,255,200 // dec %r8
- .byte 117,230 // jne 20f7c <_sk_gradient_sse41+0x1e>
+ .byte 117,230 // jne 217bc <_sk_gradient_sse41+0x1e>
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
@@ -32036,26 +32472,26 @@ _sk_xy_to_unit_angle_sse41:
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,237 // mulps %xmm13,%xmm13
- .byte 68,15,40,21,214,148,1,0 // movaps 0x194d6(%rip),%xmm10 # 3a6c0 <_sk_srcover_bgra_8888_sse2_lowp+0x116c>
+ .byte 68,15,40,21,182,150,1,0 // movaps 0x196b6(%rip),%xmm10 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,218,148,1,0 // addps 0x194da(%rip),%xmm10 # 3a6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x117c>
+ .byte 68,15,88,21,186,150,1,0 // addps 0x196ba(%rip),%xmm10 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,222,148,1,0 // addps 0x194de(%rip),%xmm10 # 3a6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x118c>
+ .byte 68,15,88,21,190,150,1,0 // addps 0x196be(%rip),%xmm10 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,226,148,1,0 // addps 0x194e2(%rip),%xmm10 # 3a6f0 <_sk_srcover_bgra_8888_sse2_lowp+0x119c>
+ .byte 68,15,88,21,194,150,1,0 // addps 0x196c2(%rip),%xmm10 # 3b110 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 68,15,40,29,225,148,1,0 // movaps 0x194e1(%rip),%xmm11 # 3a700 <_sk_srcover_bgra_8888_sse2_lowp+0x11ac>
+ .byte 68,15,40,29,193,150,1,0 // movaps 0x196c1(%rip),%xmm11 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9
- .byte 68,15,40,29,234,142,1,0 // movaps 0x18eea(%rip),%xmm11 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,40,29,202,144,1,0 // movaps 0x190ca(%rip),%xmm11 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,194,192,1 // cmpltps %xmm8,%xmm0
- .byte 68,15,40,13,220,142,1,0 // movaps 0x18edc(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,13,188,144,1,0 // movaps 0x190bc(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 102,69,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm10
.byte 69,15,194,194,7 // cmpordps %xmm10,%xmm8
@@ -32090,7 +32526,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 68,15,89,13,82,148,1,0 // mulps 0x19452(%rip),%xmm9 # 3a710 <_sk_srcover_bgra_8888_sse2_lowp+0x11bc>
+ .byte 68,15,89,13,50,150,1,0 // mulps 0x19632(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -32098,7 +32534,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,60,148,1,0 // mulps 0x1943c(%rip),%xmm10 # 3a720 <_sk_srcover_bgra_8888_sse2_lowp+0x11cc>
+ .byte 68,15,89,21,28,150,1,0 // mulps 0x1961c(%rip),%xmm10 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
@@ -32106,7 +32542,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse41:
.byte 69,15,81,192 // sqrtps %xmm8,%xmm8
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
.byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 15,89,5,25,142,1,0 // mulps 0x18e19(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,89,5,249,143,1,0 // mulps 0x18ff9(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32125,7 +32561,7 @@ _sk_xy_to_2pt_conical_quadratic_second_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 68,15,89,13,201,147,1,0 // mulps 0x193c9(%rip),%xmm9 # 3a710 <_sk_srcover_bgra_8888_sse2_lowp+0x11bc>
+ .byte 68,15,89,13,169,149,1,0 // mulps 0x195a9(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -32133,16 +32569,16 @@ _sk_xy_to_2pt_conical_quadratic_second_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,179,147,1,0 // mulps 0x193b3(%rip),%xmm10 # 3a720 <_sk_srcover_bgra_8888_sse2_lowp+0x11cc>
+ .byte 68,15,89,21,147,149,1,0 // mulps 0x19593(%rip),%xmm10 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 69,15,88,194 // addps %xmm10,%xmm8
.byte 69,15,81,192 // sqrtps %xmm8,%xmm8
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 68,15,87,13,179,146,1,0 // xorps 0x192b3(%rip),%xmm9 # 3a640 <_sk_srcover_bgra_8888_sse2_lowp+0x10ec>
+ .byte 68,15,87,13,147,148,1,0 // xorps 0x19493(%rip),%xmm9 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 15,89,5,136,141,1,0 // mulps 0x18d88(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,89,5,104,143,1,0 // mulps 0x18f68(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32157,7 +32593,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,76,147,1,0 // mulps 0x1934c(%rip),%xmm9 # 3a710 <_sk_srcover_bgra_8888_sse2_lowp+0x11bc>
+ .byte 68,15,89,13,44,149,1,0 // mulps 0x1952c(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -32165,7 +32601,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,88,146,1,0 // xorps 0x19258(%rip),%xmm0 # 3a640 <_sk_srcover_bgra_8888_sse2_lowp+0x10ec>
+ .byte 15,87,5,56,148,1,0 // xorps 0x19438(%rip),%xmm0 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32213,7 +32649,7 @@ HIDDEN _sk_save_xy_sse41
FUNCTION(_sk_save_xy_sse41)
_sk_save_xy_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,183,140,1,0 // movaps 0x18cb7(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,40,5,151,142,1,0 // movaps 0x18e97(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -32257,8 +32693,8 @@ _sk_bilinear_nx_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,48,146,1,0 // addps 0x19230(%rip),%xmm0 # 3a730 <_sk_srcover_bgra_8888_sse2_lowp+0x11dc>
- .byte 68,15,40,13,40,140,1,0 // movaps 0x18c28(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,88,5,16,148,1,0 // addps 0x19410(%rip),%xmm0 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,40,13,8,142,1,0 // movaps 0x18e08(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -32271,7 +32707,7 @@ _sk_bilinear_px_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,244,139,1,0 // addps 0x18bf4(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,88,5,212,141,1,0 // addps 0x18dd4(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32283,8 +32719,8 @@ _sk_bilinear_ny_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,227,145,1,0 // addps 0x191e3(%rip),%xmm1 # 3a730 <_sk_srcover_bgra_8888_sse2_lowp+0x11dc>
- .byte 68,15,40,13,219,139,1,0 // movaps 0x18bdb(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,88,13,195,147,1,0 // addps 0x193c3(%rip),%xmm1 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,40,13,187,141,1,0 // movaps 0x18dbb(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -32297,7 +32733,7 @@ _sk_bilinear_py_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,166,139,1,0 // addps 0x18ba6(%rip),%xmm1 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,88,13,134,141,1,0 // addps 0x18d86(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32309,13 +32745,13 @@ _sk_bicubic_n3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,166,145,1,0 // addps 0x191a6(%rip),%xmm0 # 3a740 <_sk_srcover_bgra_8888_sse2_lowp+0x11ec>
- .byte 68,15,40,13,142,139,1,0 // movaps 0x18b8e(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,88,5,134,147,1,0 // addps 0x19386(%rip),%xmm0 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
+ .byte 68,15,40,13,110,141,1,0 // movaps 0x18d6e(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,154,145,1,0 // mulps 0x1919a(%rip),%xmm9 # 3a750 <_sk_srcover_bgra_8888_sse2_lowp+0x11fc>
- .byte 68,15,88,13,114,141,1,0 // addps 0x18d72(%rip),%xmm9 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc>
+ .byte 68,15,89,13,122,147,1,0 // mulps 0x1937a(%rip),%xmm9 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,88,13,82,143,1,0 // addps 0x18f52(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -32328,16 +32764,16 @@ _sk_bicubic_n1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,78,145,1,0 // addps 0x1914e(%rip),%xmm0 # 3a730 <_sk_srcover_bgra_8888_sse2_lowp+0x11dc>
- .byte 68,15,40,13,70,139,1,0 // movaps 0x18b46(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,88,5,46,147,1,0 // addps 0x1932e(%rip),%xmm0 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,40,13,38,141,1,0 // movaps 0x18d26(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,106,145,1,0 // movaps 0x1916a(%rip),%xmm8 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x120c>
+ .byte 68,15,40,5,74,147,1,0 // movaps 0x1934a(%rip),%xmm8 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,110,145,1,0 // addps 0x1916e(%rip),%xmm8 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c>
+ .byte 68,15,88,5,78,147,1,0 // addps 0x1934e(%rip),%xmm8 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,18,139,1,0 // addps 0x18b12(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,88,5,242,140,1,0 // addps 0x18cf2(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,102,145,1,0 // addps 0x19166(%rip),%xmm8 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x122c>
+ .byte 68,15,88,5,70,147,1,0 // addps 0x19346(%rip),%xmm8 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32347,17 +32783,17 @@ HIDDEN _sk_bicubic_p1x_sse41
FUNCTION(_sk_bicubic_p1x_sse41)
_sk_bicubic_p1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,240,138,1,0 // movaps 0x18af0(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,40,5,208,140,1,0 // movaps 0x18cd0(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,136,128,0,0,0 // movups 0x80(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,25,145,1,0 // movaps 0x19119(%rip),%xmm10 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x120c>
+ .byte 68,15,40,21,249,146,1,0 // movaps 0x192f9(%rip),%xmm10 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,29,145,1,0 // addps 0x1911d(%rip),%xmm10 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c>
+ .byte 68,15,88,21,253,146,1,0 // addps 0x192fd(%rip),%xmm10 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,25,145,1,0 // addps 0x19119(%rip),%xmm10 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x122c>
+ .byte 68,15,88,21,249,146,1,0 // addps 0x192f9(%rip),%xmm10 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 68,15,17,144,0,1,0,0 // movups %xmm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32369,11 +32805,11 @@ _sk_bicubic_p3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,233,144,1,0 // addps 0x190e9(%rip),%xmm0 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c>
+ .byte 15,88,5,201,146,1,0 // addps 0x192c9(%rip),%xmm0 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,185,144,1,0 // mulps 0x190b9(%rip),%xmm8 # 3a750 <_sk_srcover_bgra_8888_sse2_lowp+0x11fc>
- .byte 68,15,88,5,145,140,1,0 // addps 0x18c91(%rip),%xmm8 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc>
+ .byte 68,15,89,5,153,146,1,0 // mulps 0x19299(%rip),%xmm8 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,88,5,113,142,1,0 // addps 0x18e71(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -32386,13 +32822,13 @@ _sk_bicubic_n3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,124,144,1,0 // addps 0x1907c(%rip),%xmm1 # 3a740 <_sk_srcover_bgra_8888_sse2_lowp+0x11ec>
- .byte 68,15,40,13,100,138,1,0 // movaps 0x18a64(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,88,13,92,146,1,0 // addps 0x1925c(%rip),%xmm1 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
+ .byte 68,15,40,13,68,140,1,0 // movaps 0x18c44(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,112,144,1,0 // mulps 0x19070(%rip),%xmm9 # 3a750 <_sk_srcover_bgra_8888_sse2_lowp+0x11fc>
- .byte 68,15,88,13,72,140,1,0 // addps 0x18c48(%rip),%xmm9 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc>
+ .byte 68,15,89,13,80,146,1,0 // mulps 0x19250(%rip),%xmm9 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,88,13,40,142,1,0 // addps 0x18e28(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -32405,16 +32841,16 @@ _sk_bicubic_n1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,35,144,1,0 // addps 0x19023(%rip),%xmm1 # 3a730 <_sk_srcover_bgra_8888_sse2_lowp+0x11dc>
- .byte 68,15,40,13,27,138,1,0 // movaps 0x18a1b(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,88,13,3,146,1,0 // addps 0x19203(%rip),%xmm1 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,40,13,251,139,1,0 // movaps 0x18bfb(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,63,144,1,0 // movaps 0x1903f(%rip),%xmm8 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x120c>
+ .byte 68,15,40,5,31,146,1,0 // movaps 0x1921f(%rip),%xmm8 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,67,144,1,0 // addps 0x19043(%rip),%xmm8 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c>
+ .byte 68,15,88,5,35,146,1,0 // addps 0x19223(%rip),%xmm8 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,231,137,1,0 // addps 0x189e7(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,88,5,199,139,1,0 // addps 0x18bc7(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,59,144,1,0 // addps 0x1903b(%rip),%xmm8 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x122c>
+ .byte 68,15,88,5,27,146,1,0 // addps 0x1921b(%rip),%xmm8 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32424,17 +32860,17 @@ HIDDEN _sk_bicubic_p1y_sse41
FUNCTION(_sk_bicubic_p1y_sse41)
_sk_bicubic_p1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,197,137,1,0 // movaps 0x189c5(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,40,5,165,139,1,0 // movaps 0x18ba5(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,136,192,0,0,0 // movups 0xc0(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,237,143,1,0 // movaps 0x18fed(%rip),%xmm10 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x120c>
+ .byte 68,15,40,21,205,145,1,0 // movaps 0x191cd(%rip),%xmm10 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,241,143,1,0 // addps 0x18ff1(%rip),%xmm10 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c>
+ .byte 68,15,88,21,209,145,1,0 // addps 0x191d1(%rip),%xmm10 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,237,143,1,0 // addps 0x18fed(%rip),%xmm10 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x122c>
+ .byte 68,15,88,21,205,145,1,0 // addps 0x191cd(%rip),%xmm10 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 68,15,17,144,64,1,0,0 // movups %xmm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -32446,11 +32882,11 @@ _sk_bicubic_p3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,188,143,1,0 // addps 0x18fbc(%rip),%xmm1 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c>
+ .byte 15,88,13,156,145,1,0 // addps 0x1919c(%rip),%xmm1 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,140,143,1,0 // mulps 0x18f8c(%rip),%xmm8 # 3a750 <_sk_srcover_bgra_8888_sse2_lowp+0x11fc>
- .byte 68,15,88,5,100,139,1,0 // addps 0x18b64(%rip),%xmm8 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc>
+ .byte 68,15,89,5,108,145,1,0 // mulps 0x1916c(%rip),%xmm8 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,88,5,68,141,1,0 // addps 0x18d44(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -32561,7 +32997,7 @@ _sk_clut_3D_sse41:
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,68,36,208 // movaps %xmm0,-0x30(%rsp)
.byte 243,15,91,240 // cvttps2dq %xmm0,%xmm6
- .byte 15,40,37,119,142,1,0 // movaps 0x18e77(%rip),%xmm4 # 3a790 <_sk_srcover_bgra_8888_sse2_lowp+0x123c>
+ .byte 15,40,37,87,144,1,0 // movaps 0x19057(%rip),%xmm4 # 3b1b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
.byte 15,88,196 // addps %xmm4,%xmm0
.byte 15,41,68,36,176 // movaps %xmm0,-0x50(%rsp)
.byte 102,65,15,110,208 // movd %r8d,%xmm2
@@ -32600,7 +33036,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,56,64,192 // pmulld %xmm0,%xmm8
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,68,15,111,37,206,141,1,0 // movdqa 0x18dce(%rip),%xmm12 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c>
+ .byte 102,68,15,111,37,174,143,1,0 // movdqa 0x18fae(%rip),%xmm12 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,65,15,56,64,220 // pmulld %xmm12,%xmm3
.byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
@@ -32623,7 +33059,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,15,111,37,18,135,1,0 // movdqa 0x18712(%rip),%xmm4 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,15,111,37,242,136,1,0 // movdqa 0x188f2(%rip),%xmm4 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,254,220 // paddd %xmm4,%xmm3
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
@@ -32796,7 +33232,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,254,202 // paddd %xmm2,%xmm9
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,65,15,254,193 // paddd %xmm9,%xmm0
- .byte 102,15,111,45,221,137,1,0 // movdqa 0x189dd(%rip),%xmm5 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c>
+ .byte 102,15,111,45,189,139,1,0 // movdqa 0x18bbd(%rip),%xmm5 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,56,64,197 // pmulld %xmm5,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -32817,7 +33253,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,61,46,131,1,0 // movdqa 0x1832e(%rip),%xmm7 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,15,111,61,14,133,1,0 // movdqa 0x1850e(%rip),%xmm7 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,254,199 // paddd %xmm7,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -32883,7 +33319,7 @@ _sk_clut_3D_sse41:
.byte 15,88,248 // addps %xmm0,%xmm7
.byte 102,68,15,254,210 // paddd %xmm2,%xmm10
.byte 102,69,15,254,194 // paddd %xmm10,%xmm8
- .byte 102,15,111,13,25,136,1,0 // movdqa 0x18819(%rip),%xmm1 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c>
+ .byte 102,15,111,13,249,137,1,0 // movdqa 0x189f9(%rip),%xmm1 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,68,15,56,64,193 // pmulld %xmm1,%xmm8
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
@@ -32904,7 +33340,7 @@ _sk_clut_3D_sse41:
.byte 102,69,15,58,22,193,1 // pextrd $0x1,%xmm8,%r9d
.byte 102,69,15,58,22,194,2 // pextrd $0x2,%xmm8,%r10d
.byte 102,69,15,58,22,195,3 // pextrd $0x3,%xmm8,%r11d
- .byte 102,15,111,21,100,129,1,0 // movdqa 0x18164(%rip),%xmm2 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,15,111,21,68,131,1,0 // movdqa 0x18344(%rip),%xmm2 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,68,15,254,194 // paddd %xmm2,%xmm8
.byte 102,76,15,58,22,193,1 // pextrq $0x1,%xmm8,%rcx
.byte 102,76,15,126,195 // movq %xmm8,%rbx
@@ -33031,7 +33467,7 @@ _sk_clut_4D_sse41:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,41,76,36,48 // movaps %xmm1,0x30(%rsp)
.byte 243,15,91,249 // cvttps2dq %xmm1,%xmm7
- .byte 15,40,29,119,133,1,0 // movaps 0x18577(%rip),%xmm3 # 3a790 <_sk_srcover_bgra_8888_sse2_lowp+0x123c>
+ .byte 15,40,29,87,135,1,0 // movaps 0x18757(%rip),%xmm3 # 3b1b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
.byte 15,88,203 // addps %xmm3,%xmm1
.byte 15,41,76,36,160 // movaps %xmm1,-0x60(%rsp)
.byte 102,65,15,110,232 // movd %r8d,%xmm5
@@ -33088,7 +33524,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,56,64,253 // pmulld %xmm5,%xmm15
.byte 102,65,15,111,223 // movdqa %xmm15,%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,29,118,132,1,0 // movdqa 0x18476(%rip),%xmm11 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c>
+ .byte 102,68,15,111,29,86,134,1,0 // movdqa 0x18656(%rip),%xmm11 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,65,15,56,64,219 // pmulld %xmm11,%xmm3
.byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
.byte 102,15,111,243 // movdqa %xmm3,%xmm6
@@ -33110,7 +33546,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,68,15,111,21,190,125,1,0 // movdqa 0x17dbe(%rip),%xmm10 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,68,15,111,21,158,127,1,0 // movdqa 0x17f9e(%rip),%xmm10 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,65,15,254,218 // paddd %xmm10,%xmm3
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
@@ -33128,7 +33564,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,201 // paddd %xmm9,%xmm1
.byte 102,65,15,56,64,203 // pmulld %xmm11,%xmm1
.byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,250,29,172,131,1,0 // psubd 0x183ac(%rip),%xmm3 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c>
+ .byte 102,15,250,29,140,133,1,0 // psubd 0x1858c(%rip),%xmm3 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
.byte 65,137,223 // mov %ebx,%r15d
@@ -33183,7 +33619,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,199 // paddd %xmm15,%xmm0
.byte 102,65,15,56,64,195 // pmulld %xmm11,%xmm0
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,250,45,140,130,1,0 // psubd 0x1828c(%rip),%xmm5 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c>
+ .byte 102,15,250,45,108,132,1,0 // psubd 0x1846c(%rip),%xmm5 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
.byte 102,72,15,58,22,233,1 // pextrq $0x1,%xmm5,%rcx
.byte 102,72,15,126,237 // movq %xmm5,%rbp
@@ -33308,7 +33744,7 @@ _sk_clut_4D_sse41:
.byte 72,193,233,32 // shr $0x20,%rcx
.byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4
.byte 102,68,15,58,33,220,48 // insertps $0x30,%xmm4,%xmm11
- .byte 102,15,111,61,176,121,1,0 // movdqa 0x179b0(%rip),%xmm7 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,15,111,61,144,123,1,0 // movdqa 0x17b90(%rip),%xmm7 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,254,223 // paddd %xmm7,%xmm3
.byte 102,72,15,58,22,217,1 // pextrq $0x1,%xmm3,%rcx
.byte 102,72,15,126,221 // movq %xmm3,%rbp
@@ -33394,7 +33830,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,68,15,111,21,244,119,1,0 // movdqa 0x177f4(%rip),%xmm10 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,68,15,111,21,212,121,1,0 // movdqa 0x179d4(%rip),%xmm10 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -33490,7 +33926,7 @@ _sk_clut_4D_sse41:
.byte 102,15,111,124,36,192 // movdqa -0x40(%rsp),%xmm7
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,21,78,124,1,0 // movdqa 0x17c4e(%rip),%xmm2 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c>
+ .byte 102,15,111,21,46,126,1,0 // movdqa 0x17e2e(%rip),%xmm2 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,56,64,194 // pmulld %xmm2,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
@@ -33511,7 +33947,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,37,157,117,1,0 // movdqa 0x1759d(%rip),%xmm4 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,15,111,37,125,119,1,0 // movdqa 0x1777d(%rip),%xmm4 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,254,196 // paddd %xmm4,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -33583,7 +34019,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,65,15,56,64,204 // pmulld %xmm12,%xmm1
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,250,21,121,122,1,0 // psubd 0x17a79(%rip),%xmm2 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c>
+ .byte 102,15,250,21,89,124,1,0 // psubd 0x17c59(%rip),%xmm2 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx
.byte 102,72,15,126,213 // movq %xmm2,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -33617,7 +34053,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,249 // movdqa %xmm9,%xmm7
.byte 102,69,15,56,64,236 // pmulld %xmm12,%xmm13
.byte 102,65,15,111,205 // movdqa %xmm13,%xmm1
- .byte 102,15,250,13,197,121,1,0 // psubd 0x179c5(%rip),%xmm1 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c>
+ .byte 102,15,250,13,165,123,1,0 // psubd 0x17ba5(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -33682,7 +34118,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
.byte 102,15,111,108,36,192 // movdqa -0x40(%rsp),%xmm5
.byte 102,15,254,205 // paddd %xmm5,%xmm1
- .byte 102,15,111,37,92,120,1,0 // movdqa 0x1785c(%rip),%xmm4 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c>
+ .byte 102,15,111,37,60,122,1,0 // movdqa 0x17a3c(%rip),%xmm4 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,56,64,204 // pmulld %xmm4,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -33703,7 +34139,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,15,111,29,173,113,1,0 // movdqa 0x171ad(%rip),%xmm3 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,15,111,29,141,115,1,0 // movdqa 0x1738d(%rip),%xmm3 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -33775,7 +34211,7 @@ _sk_clut_4D_sse41:
.byte 102,15,56,64,239 // pmulld %xmm7,%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,141,118,1,0 // psubd 0x1768d(%rip),%xmm0 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c>
+ .byte 102,15,250,5,109,120,1,0 // psubd 0x1786d(%rip),%xmm0 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -33793,7 +34229,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,254,5,219,111,1,0 // paddd 0x16fdb(%rip),%xmm0 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,15,254,5,187,113,1,0 // paddd 0x171bb(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -33809,7 +34245,7 @@ _sk_clut_4D_sse41:
.byte 102,15,254,84,36,176 // paddd -0x50(%rsp),%xmm2
.byte 102,15,56,64,215 // pmulld %xmm7,%xmm2
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,250,5,212,117,1,0 // psubd 0x175d4(%rip),%xmm0 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c>
+ .byte 102,15,250,5,180,119,1,0 // psubd 0x177b4(%rip),%xmm0 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -33827,7 +34263,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,199,1 // pextrd $0x1,%xmm0,%r15d
.byte 102,65,15,58,22,196,2 // pextrd $0x2,%xmm0,%r12d
.byte 102,65,15,58,22,198,3 // pextrd $0x3,%xmm0,%r14d
- .byte 102,15,254,5,34,111,1,0 // paddd 0x16f22(%rip),%xmm0 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,15,254,5,2,113,1,0 // paddd 0x17102(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,72,15,58,22,195,1 // pextrq $0x1,%xmm0,%rbx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,233 // mov %ebp,%ecx
@@ -33890,7 +34326,7 @@ _sk_clut_4D_sse41:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,211 // addps %xmm11,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,223,109,1,0 // movaps 0x16ddf(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,29,191,111,1,0 // movaps 0x16fbf(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,139,76,36,248 // mov -0x8(%rsp),%rcx
.byte 15,40,100,36,64 // movaps 0x40(%rsp),%xmm4
.byte 15,40,108,36,80 // movaps 0x50(%rsp),%xmm5
@@ -33909,15 +34345,15 @@ HIDDEN _sk_gauss_a_to_rgba_sse41
.globl _sk_gauss_a_to_rgba_sse41
FUNCTION(_sk_gauss_a_to_rgba_sse41)
_sk_gauss_a_to_rgba_sse41:
- .byte 15,40,5,60,116,1,0 // movaps 0x1743c(%rip),%xmm0 # 3a7c0 <_sk_srcover_bgra_8888_sse2_lowp+0x126c>
+ .byte 15,40,5,28,118,1,0 // movaps 0x1761c(%rip),%xmm0 # 3b1e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,66,116,1,0 // addps 0x17442(%rip),%xmm0 # 3a7d0 <_sk_srcover_bgra_8888_sse2_lowp+0x127c>
+ .byte 15,88,5,34,118,1,0 // addps 0x17622(%rip),%xmm0 # 3b1f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1288>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,72,116,1,0 // addps 0x17448(%rip),%xmm0 # 3a7e0 <_sk_srcover_bgra_8888_sse2_lowp+0x128c>
+ .byte 15,88,5,40,118,1,0 // addps 0x17628(%rip),%xmm0 # 3b200 <_sk_srcover_bgra_8888_sse2_lowp+0x1298>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,78,116,1,0 // addps 0x1744e(%rip),%xmm0 # 3a7f0 <_sk_srcover_bgra_8888_sse2_lowp+0x129c>
+ .byte 15,88,5,46,118,1,0 // addps 0x1762e(%rip),%xmm0 # 3b210 <_sk_srcover_bgra_8888_sse2_lowp+0x12a8>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,84,116,1,0 // addps 0x17454(%rip),%xmm0 # 3a800 <_sk_srcover_bgra_8888_sse2_lowp+0x12ac>
+ .byte 15,88,5,52,118,1,0 // addps 0x17634(%rip),%xmm0 # 3b220 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
@@ -33945,13 +34381,13 @@ _sk_start_pipeline_sse2:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 2346f <_sk_start_pipeline_sse2+0xb6>
+ .byte 15,131,131,0,0,0 // jae 23caf <_sk_start_pipeline_sse2+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,4 // lea 0x4(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 2343d <_sk_start_pipeline_sse2+0x84>
+ .byte 119,59 // ja 23c7d <_sk_start_pipeline_sse2+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -33970,10 +34406,10 @@ _sk_start_pipeline_sse2:
.byte 73,131,196,8 // add $0x8,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 23406 <_sk_start_pipeline_sse2+0x4d>
+ .byte 118,201 // jbe 23c46 <_sk_start_pipeline_sse2+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 23466 <_sk_start_pipeline_sse2+0xad>
+ .byte 116,33 // je 23ca6 <_sk_start_pipeline_sse2+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -33987,7 +34423,7 @@ _sk_start_pipeline_sse2:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 233f8 <_sk_start_pipeline_sse2+0x3f>
+ .byte 117,137 // jne 23c38 <_sk_start_pipeline_sse2+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -34016,9 +34452,9 @@ _sk_seed_shader_sse2:
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,122,108,1,0 // addps 0x16c7a(%rip),%xmm1 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,88,13,90,110,1,0 // addps 0x16e5a(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,129,108,1,0 // movaps 0x16c81(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,21,97,110,1,0 // movaps 0x16e61(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -34033,18 +34469,18 @@ _sk_dither_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,42,108,1,0 // paddd 0x16c2a(%rip),%xmm8 # 3a100 <_sk_srcover_bgra_8888_sse2_lowp+0xbac>
+ .byte 102,68,15,254,5,10,110,1,0 // paddd 0x16e0a(%rip),%xmm8 # 3ab20 <_sk_srcover_bgra_8888_sse2_lowp+0xbb8>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,81,108,1,0 // movdqa 0x16c51(%rip),%xmm10 # 3a140 <_sk_srcover_bgra_8888_sse2_lowp+0xbec>
+ .byte 102,68,15,111,21,49,110,1,0 // movdqa 0x16e31(%rip),%xmm10 # 3ab60 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,61,108,1,0 // movdqa 0x16c3d(%rip),%xmm12 # 3a150 <_sk_srcover_bgra_8888_sse2_lowp+0xbfc>
- .byte 102,68,15,111,45,68,108,1,0 // movdqa 0x16c44(%rip),%xmm13 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,68,15,111,37,29,110,1,0 // movdqa 0x16e1d(%rip),%xmm12 # 3ab70 <_sk_srcover_bgra_8888_sse2_lowp+0xc08>
+ .byte 102,68,15,111,45,36,110,1,0 // movdqa 0x16e24(%rip),%xmm13 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -34060,8 +34496,8 @@ _sk_dither_sse2:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,255,107,1,0 // mulps 0x16bff(%rip),%xmm8 # 3a170 <_sk_srcover_bgra_8888_sse2_lowp+0xc1c>
- .byte 68,15,88,5,7,108,1,0 // addps 0x16c07(%rip),%xmm8 # 3a180 <_sk_srcover_bgra_8888_sse2_lowp+0xc2c>
+ .byte 68,15,89,5,223,109,1,0 // mulps 0x16ddf(%rip),%xmm8 # 3ab90 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
+ .byte 68,15,88,5,231,109,1,0 // addps 0x16de7(%rip),%xmm8 # 3aba0 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -34103,7 +34539,7 @@ HIDDEN _sk_black_color_sse2
FUNCTION(_sk_black_color_sse2)
_sk_black_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,61,107,1,0 // movaps 0x16b3d(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,29,29,109,1,0 // movaps 0x16d1d(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -34114,7 +34550,7 @@ HIDDEN _sk_white_color_sse2
FUNCTION(_sk_white_color_sse2)
_sk_white_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,41,107,1,0 // movaps 0x16b29(%rip),%xmm0 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,5,9,109,1,0 // movaps 0x16d09(%rip),%xmm0 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -34160,7 +34596,7 @@ HIDDEN _sk_srcatop_sse2
FUNCTION(_sk_srcatop_sse2)
_sk_srcatop_sse2:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,217,106,1,0 // movaps 0x16ad9(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,185,108,1,0 // movaps 0x16cb9(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -34185,7 +34621,7 @@ FUNCTION(_sk_dstatop_sse2)
_sk_dstatop_sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,140,106,1,0 // movaps 0x16a8c(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,13,108,108,1,0 // movaps 0x16c6c(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -34232,7 +34668,7 @@ HIDDEN _sk_srcout_sse2
.globl _sk_srcout_sse2
FUNCTION(_sk_srcout_sse2)
_sk_srcout_sse2:
- .byte 68,15,40,5,32,106,1,0 // movaps 0x16a20(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,0,108,1,0 // movaps 0x16c00(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -34245,7 +34681,7 @@ HIDDEN _sk_dstout_sse2
.globl _sk_dstout_sse2
FUNCTION(_sk_dstout_sse2)
_sk_dstout_sse2:
- .byte 68,15,40,5,0,106,1,0 // movaps 0x16a00(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,224,107,1,0 // movaps 0x16be0(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -34262,7 +34698,7 @@ HIDDEN _sk_srcover_sse2
.globl _sk_srcover_sse2
FUNCTION(_sk_srcover_sse2)
_sk_srcover_sse2:
- .byte 68,15,40,5,211,105,1,0 // movaps 0x169d3(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,179,107,1,0 // movaps 0x16bb3(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -34282,7 +34718,7 @@ HIDDEN _sk_dstover_sse2
.globl _sk_dstover_sse2
FUNCTION(_sk_dstover_sse2)
_sk_dstover_sse2:
- .byte 68,15,40,5,151,105,1,0 // movaps 0x16997(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,119,107,1,0 // movaps 0x16b77(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -34310,7 +34746,7 @@ HIDDEN _sk_multiply_sse2
.globl _sk_multiply_sse2
FUNCTION(_sk_multiply_sse2)
_sk_multiply_sse2:
- .byte 68,15,40,5,91,105,1,0 // movaps 0x1695b(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,59,107,1,0 // movaps 0x16b3b(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -34348,7 +34784,7 @@ HIDDEN _sk_plus__sse2
FUNCTION(_sk_plus__sse2)
_sk_plus__sse2:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,220,104,1,0 // movaps 0x168dc(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,188,106,1,0 // movaps 0x16abc(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -34390,7 +34826,7 @@ HIDDEN _sk_xor__sse2
FUNCTION(_sk_xor__sse2)
_sk_xor__sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,104,104,1,0 // movaps 0x16868(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,29,72,106,1,0 // movaps 0x16a48(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -34438,7 +34874,7 @@ _sk_darken_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,195,103,1,0 // movaps 0x167c3(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,21,163,105,1,0 // movaps 0x169a3(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34472,7 +34908,7 @@ _sk_lighten_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,88,103,1,0 // movaps 0x16758(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,21,56,105,1,0 // movaps 0x16938(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34509,7 +34945,7 @@ _sk_difference_sse2:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,226,102,1,0 // movaps 0x166e2(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,21,194,104,1,0 // movaps 0x168c2(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34537,7 +34973,7 @@ _sk_exclusion_sse2:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,146,102,1,0 // movaps 0x16692(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,21,114,104,1,0 // movaps 0x16872(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34550,7 +34986,7 @@ HIDDEN _sk_colorburn_sse2
FUNCTION(_sk_colorburn_sse2)
_sk_colorburn_sse2:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,13,117,102,1,0 // movaps 0x16675(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,13,85,104,1,0 // movaps 0x16855(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -34645,7 +35081,7 @@ HIDDEN _sk_colordodge_sse2
FUNCTION(_sk_colordodge_sse2)
_sk_colordodge_sse2:
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,29,101,1,0 // movaps 0x1651d(%rip),%xmm10 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,21,253,102,1,0 // movaps 0x166fd(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -34737,7 +35173,7 @@ _sk_hardlight_sse2:
.byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp)
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 68,15,40,29,198,99,1,0 // movaps 0x163c6(%rip),%xmm11 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,29,166,101,1,0 // movaps 0x165a6(%rip),%xmm11 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,194 // movaps %xmm10,%xmm8
@@ -34825,7 +35261,7 @@ FUNCTION(_sk_overlay_sse2)
_sk_overlay_sse2:
.byte 68,15,40,193 // movaps %xmm1,%xmm8
.byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 68,15,40,13,132,98,1,0 // movaps 0x16284(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,13,100,100,1,0 // movaps 0x16464(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -34916,7 +35352,7 @@ _sk_softlight_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 68,15,94,215 // divps %xmm7,%xmm10
.byte 69,15,84,212 // andps %xmm12,%xmm10
- .byte 68,15,40,13,49,97,1,0 // movaps 0x16131(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,13,17,99,1,0 // movaps 0x16311(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 69,15,92,250 // subps %xmm10,%xmm15
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -34929,10 +35365,10 @@ _sk_softlight_sse2:
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,53,91,97,1,0 // movaps 0x1615b(%rip),%xmm14 # 3a190 <_sk_srcover_bgra_8888_sse2_lowp+0xc3c>
+ .byte 68,15,40,53,59,99,1,0 // movaps 0x1633b(%rip),%xmm14 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
.byte 69,15,88,222 // addps %xmm14,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,40,21,91,97,1,0 // movaps 0x1615b(%rip),%xmm10 # 3a1a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc4c>
+ .byte 68,15,40,21,59,99,1,0 // movaps 0x1633b(%rip),%xmm10 # 3abc0 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
.byte 69,15,89,234 // mulps %xmm10,%xmm13
.byte 69,15,88,235 // addps %xmm11,%xmm13
.byte 15,88,228 // addps %xmm4,%xmm4
@@ -35077,7 +35513,7 @@ _sk_hue_sse2:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 68,15,40,5,238,94,1,0 // movaps 0x15eee(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,206,96,1,0 // movaps 0x160ce(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 15,40,207 // movaps %xmm7,%xmm1
.byte 68,15,92,217 // subps %xmm1,%xmm11
@@ -35125,12 +35561,12 @@ _sk_hue_sse2:
.byte 69,15,84,206 // andps %xmm14,%xmm9
.byte 69,15,84,214 // andps %xmm14,%xmm10
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,61,171,94,1,0 // movaps 0x15eab(%rip),%xmm15 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c>
+ .byte 68,15,40,61,139,96,1,0 // movaps 0x1608b(%rip),%xmm15 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 65,15,89,231 // mulps %xmm15,%xmm4
- .byte 15,40,5,176,94,1,0 // movaps 0x15eb0(%rip),%xmm0 # 3a1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc6c>
+ .byte 15,40,5,144,96,1,0 // movaps 0x16090(%rip),%xmm0 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
- .byte 68,15,40,53,178,94,1,0 // movaps 0x15eb2(%rip),%xmm14 # 3a1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xc7c>
+ .byte 68,15,40,53,146,96,1,0 // movaps 0x16092(%rip),%xmm14 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 68,15,40,239 // movaps %xmm7,%xmm13
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 68,15,88,238 // addps %xmm6,%xmm13
@@ -35308,14 +35744,14 @@ _sk_saturation_sse2:
.byte 68,15,84,211 // andps %xmm3,%xmm10
.byte 68,15,84,203 // andps %xmm3,%xmm9
.byte 15,84,195 // andps %xmm3,%xmm0
- .byte 68,15,40,5,4,92,1,0 // movaps 0x15c04(%rip),%xmm8 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c>
+ .byte 68,15,40,5,228,93,1,0 // movaps 0x15de4(%rip),%xmm8 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 15,40,214 // movaps %xmm6,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,40,13,6,92,1,0 // movaps 0x15c06(%rip),%xmm1 # 3a1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc6c>
+ .byte 15,40,13,230,93,1,0 // movaps 0x15de6(%rip),%xmm1 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,217 // mulps %xmm1,%xmm3
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 68,15,40,37,5,92,1,0 // movaps 0x15c05(%rip),%xmm12 # 3a1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xc7c>
+ .byte 68,15,40,37,229,93,1,0 // movaps 0x15de5(%rip),%xmm12 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
.byte 65,15,40,210 // movaps %xmm10,%xmm2
@@ -35360,7 +35796,7 @@ _sk_saturation_sse2:
.byte 15,40,223 // movaps %xmm7,%xmm3
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 68,15,40,5,186,90,1,0 // movaps 0x15aba(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,154,92,1,0 // movaps 0x15c9a(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 15,88,253 // addps %xmm5,%xmm7
@@ -35461,14 +35897,14 @@ _sk_color_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 68,15,40,45,200,89,1,0 // movaps 0x159c8(%rip),%xmm13 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c>
+ .byte 68,15,40,45,168,91,1,0 // movaps 0x15ba8(%rip),%xmm13 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 68,15,40,198 // movaps %xmm6,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,40,53,200,89,1,0 // movaps 0x159c8(%rip),%xmm14 # 3a1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc6c>
+ .byte 68,15,40,53,168,91,1,0 // movaps 0x15ba8(%rip),%xmm14 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,29,196,89,1,0 // movaps 0x159c4(%rip),%xmm11 # 3a1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xc7c>
+ .byte 68,15,40,29,164,91,1,0 // movaps 0x15ba4(%rip),%xmm11 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
.byte 69,15,89,227 // mulps %xmm11,%xmm12
.byte 68,15,88,224 // addps %xmm0,%xmm12
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -35476,7 +35912,7 @@ _sk_color_sse2:
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 68,15,40,5,0,89,1,0 // movaps 0x15900(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,224,90,1,0 // movaps 0x15ae0(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
.byte 15,89,252 // mulps %xmm4,%xmm7
@@ -35612,15 +36048,15 @@ _sk_luminosity_sse2:
.byte 68,15,40,205 // movaps %xmm5,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
.byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 68,15,40,37,135,87,1,0 // movaps 0x15787(%rip),%xmm12 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c>
+ .byte 68,15,40,37,103,89,1,0 // movaps 0x15967(%rip),%xmm12 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 68,15,40,199 // movaps %xmm7,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,135,87,1,0 // movaps 0x15787(%rip),%xmm13 # 3a1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc6c>
+ .byte 68,15,40,45,103,89,1,0 // movaps 0x15967(%rip),%xmm13 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
.byte 68,15,40,241 // movaps %xmm1,%xmm14
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,88,240 // addps %xmm8,%xmm14
- .byte 68,15,40,29,131,87,1,0 // movaps 0x15783(%rip),%xmm11 # 3a1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xc7c>
- .byte 68,15,40,5,219,86,1,0 // movaps 0x156db(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,29,99,89,1,0 // movaps 0x15963(%rip),%xmm11 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
+ .byte 68,15,40,5,187,88,1,0 // movaps 0x158bb(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 68,15,92,248 // subps %xmm0,%xmm15
@@ -35753,6 +36189,7 @@ HIDDEN _sk_srcover_rgba_8888_sse2
.globl _sk_srcover_rgba_8888_sse2
FUNCTION(_sk_srcover_rgba_8888_sse2)
_sk_srcover_rgba_8888_sse2:
+ .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,99,72,8 // movslq 0x8(%rax),%r9
.byte 76,99,193 // movslq %ecx,%r8
@@ -35761,93 +36198,105 @@ _sk_srcover_rgba_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,228,0,0,0 // jne 24d40 <_sk_srcover_rgba_8888_sse2+0x104>
- .byte 243,69,15,111,4,128 // movdqu (%r8,%rax,4),%xmm8
+ .byte 15,133,4,1,0,0 // jne 255a5 <_sk_srcover_rgba_8888_sse2+0x129>
+ .byte 243,65,15,111,4,128 // movdqu (%r8,%rax,4),%xmm0
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,53,115,85,1,0 // movdqa 0x15573(%rip),%xmm6 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
- .byte 102,65,15,111,224 // movdqa %xmm8,%xmm4
+ .byte 102,15,111,53,78,87,1,0 // movdqa 0x1574e(%rip),%xmm6 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,111,224 // movdqa %xmm0,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 102,65,15,111,232 // movdqa %xmm8,%xmm5
+ .byte 102,15,111,232 // movdqa %xmm0,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
+ .byte 102,15,111,248 // movdqa %xmm0,%xmm7
.byte 102,15,114,215,16 // psrld $0x10,%xmm7
.byte 102,15,219,254 // pand %xmm6,%xmm7
+ .byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
- .byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
- .byte 65,15,91,248 // cvtdq2ps %xmm8,%xmm7
- .byte 68,15,40,5,131,84,1,0 // movaps 0x15483(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 102,15,114,208,24 // psrld $0x18,%xmm0
+ .byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
+ .byte 68,15,40,5,95,86,1,0 // movaps 0x1565f(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,87,85,1,0 // movaps 0x15557(%rip),%xmm12 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
- .byte 65,15,89,196 // mulps %xmm12,%xmm0
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,204 // mulps %xmm4,%xmm9
- .byte 68,15,88,200 // addps %xmm0,%xmm9
+ .byte 68,15,40,37,51,87,1,0 // movaps 0x15733(%rip),%xmm12 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 69,15,89,204 // mulps %xmm12,%xmm9
+ .byte 65,15,40,192 // movaps %xmm8,%xmm0
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 65,15,88,193 // addps %xmm9,%xmm0
.byte 65,15,89,204 // mulps %xmm12,%xmm1
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 68,15,89,213 // mulps %xmm5,%xmm10
- .byte 68,15,88,209 // addps %xmm1,%xmm10
+ .byte 69,15,40,200 // movaps %xmm8,%xmm9
+ .byte 68,15,89,205 // mulps %xmm5,%xmm9
+ .byte 68,15,88,201 // addps %xmm1,%xmm9
.byte 65,15,89,212 // mulps %xmm12,%xmm2
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 68,15,89,222 // mulps %xmm6,%xmm11
- .byte 68,15,88,218 // addps %xmm2,%xmm11
+ .byte 69,15,40,208 // movaps %xmm8,%xmm10
+ .byte 68,15,89,214 // mulps %xmm6,%xmm10
+ .byte 68,15,88,210 // addps %xmm2,%xmm10
.byte 65,15,89,220 // mulps %xmm12,%xmm3
.byte 68,15,89,199 // mulps %xmm7,%xmm8
.byte 68,15,88,195 // addps %xmm3,%xmm8
- .byte 102,65,15,91,193 // cvtps2dq %xmm9,%xmm0
- .byte 102,65,15,91,202 // cvtps2dq %xmm10,%xmm1
- .byte 102,15,114,241,8 // pslld $0x8,%xmm1
- .byte 102,15,235,200 // por %xmm0,%xmm1
- .byte 102,65,15,91,211 // cvtps2dq %xmm11,%xmm2
- .byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,65,15,91,192 // cvtps2dq %xmm8,%xmm0
- .byte 102,15,114,240,24 // pslld $0x18,%xmm0
- .byte 102,15,235,194 // por %xmm2,%xmm0
- .byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 117,84 // jne 24d7a <_sk_srcover_rgba_8888_sse2+0x13e>
- .byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4)
+ .byte 15,87,201 // xorps %xmm1,%xmm1
+ .byte 15,95,200 // maxps %xmm0,%xmm1
+ .byte 65,15,93,204 // minps %xmm12,%xmm1
+ .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
+ .byte 15,87,210 // xorps %xmm2,%xmm2
+ .byte 65,15,95,209 // maxps %xmm9,%xmm2
+ .byte 65,15,93,212 // minps %xmm12,%xmm2
+ .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
+ .byte 102,15,114,242,8 // pslld $0x8,%xmm2
+ .byte 102,15,235,209 // por %xmm1,%xmm2
+ .byte 102,15,87,201 // xorpd %xmm1,%xmm1
+ .byte 65,15,95,202 // maxps %xmm10,%xmm1
+ .byte 65,15,93,204 // minps %xmm12,%xmm1
+ .byte 102,15,91,217 // cvtps2dq %xmm1,%xmm3
+ .byte 102,15,114,243,16 // pslld $0x10,%xmm3
+ .byte 69,15,95,216 // maxps %xmm8,%xmm11
+ .byte 69,15,93,220 // minps %xmm12,%xmm11
+ .byte 102,65,15,91,203 // cvtps2dq %xmm11,%xmm1
+ .byte 102,15,114,241,24 // pslld $0x18,%xmm1
+ .byte 102,15,235,203 // por %xmm3,%xmm1
+ .byte 102,15,235,202 // por %xmm2,%xmm1
+ .byte 117,78 // jne 255dd <_sk_srcover_rgba_8888_sse2+0x161>
+ .byte 243,65,15,127,12,128 // movdqu %xmm1,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 65,15,40,211 // movaps %xmm11,%xmm2
+ .byte 65,15,40,201 // movaps %xmm9,%xmm1
+ .byte 65,15,40,210 // movaps %xmm10,%xmm2
.byte 65,15,40,216 // movaps %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,90 // je 24da7 <_sk_srcover_rgba_8888_sse2+0x16b>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
+ .byte 116,88 // je 2560a <_sk_srcover_rgba_8888_sse2+0x18e>
+ .byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 24d6f <_sk_srcover_rgba_8888_sse2+0x133>
+ .byte 116,22 // je 255d2 <_sk_srcover_rgba_8888_sse2+0x156>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,0,255,255,255 // jne 24c62 <_sk_srcover_rgba_8888_sse2+0x26>
- .byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 102,69,15,18,4,128 // movlpd (%r8,%rax,4),%xmm8
- .byte 233,232,254,255,255 // jmpq 24c62 <_sk_srcover_rgba_8888_sse2+0x26>
+ .byte 15,133,225,254,255,255 // jne 254a7 <_sk_srcover_rgba_8888_sse2+0x2b>
+ .byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
+ .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
+ .byte 102,65,15,18,4,128 // movlpd (%r8,%rax,4),%xmm0
+ .byte 233,202,254,255,255 // jmpq 254a7 <_sk_srcover_rgba_8888_sse2+0x2b>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,43 // je 24db2 <_sk_srcover_rgba_8888_sse2+0x176>
+ .byte 116,43 // je 25615 <_sk_srcover_rgba_8888_sse2+0x199>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 24d9f <_sk_srcover_rgba_8888_sse2+0x163>
+ .byte 116,18 // je 25602 <_sk_srcover_rgba_8888_sse2+0x186>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,153 // jne 24d2c <_sk_srcover_rgba_8888_sse2+0xf0>
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,65,15,126,76,128,8 // movd %xmm1,0x8(%r8,%rax,4)
- .byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4)
- .byte 235,133 // jmp 24d2c <_sk_srcover_rgba_8888_sse2+0xf0>
- .byte 102,69,15,110,4,128 // movd (%r8,%rax,4),%xmm8
- .byte 233,176,254,255,255 // jmpq 24c62 <_sk_srcover_rgba_8888_sse2+0x26>
- .byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4)
- .byte 233,111,255,255,255 // jmpq 24d2c <_sk_srcover_rgba_8888_sse2+0xf0>
+ .byte 117,159 // jne 25595 <_sk_srcover_rgba_8888_sse2+0x119>
+ .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
+ .byte 102,65,15,126,84,128,8 // movd %xmm2,0x8(%r8,%rax,4)
+ .byte 102,65,15,214,12,128 // movq %xmm1,(%r8,%rax,4)
+ .byte 235,139 // jmp 25595 <_sk_srcover_rgba_8888_sse2+0x119>
+ .byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0
+ .byte 233,146,254,255,255 // jmpq 254a7 <_sk_srcover_rgba_8888_sse2+0x2b>
+ .byte 102,65,15,126,12,128 // movd %xmm1,(%r8,%rax,4)
+ .byte 233,117,255,255,255 // jmpq 25595 <_sk_srcover_rgba_8888_sse2+0x119>
HIDDEN _sk_srcover_bgra_8888_sse2
.globl _sk_srcover_bgra_8888_sse2
FUNCTION(_sk_srcover_bgra_8888_sse2)
_sk_srcover_bgra_8888_sse2:
+ .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,99,72,8 // movslq 0x8(%rax),%r9
.byte 76,99,193 // movslq %ecx,%r8
@@ -35856,88 +36305,99 @@ _sk_srcover_bgra_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,228,0,0,0 // jne 24ec1 <_sk_srcover_bgra_8888_sse2+0x104>
- .byte 243,69,15,111,4,128 // movdqu (%r8,%rax,4),%xmm8
+ .byte 15,133,4,1,0,0 // jne 25749 <_sk_srcover_bgra_8888_sse2+0x129>
+ .byte 243,65,15,111,4,128 // movdqu (%r8,%rax,4),%xmm0
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,242,83,1,0 // movdqa 0x153f2(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
- .byte 102,65,15,111,232 // movdqa %xmm8,%xmm5
+ .byte 102,15,111,37,170,85,1,0 // movdqa 0x155aa(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
+ .byte 102,15,111,232 // movdqa %xmm0,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 102,65,15,111,232 // movdqa %xmm8,%xmm5
+ .byte 102,15,111,232 // movdqa %xmm0,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
+ .byte 102,15,111,248 // movdqa %xmm0,%xmm7
.byte 102,15,114,215,16 // psrld $0x10,%xmm7
.byte 102,15,219,252 // pand %xmm4,%xmm7
+ .byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 15,91,231 // cvtdq2ps %xmm7,%xmm4
- .byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
- .byte 65,15,91,248 // cvtdq2ps %xmm8,%xmm7
- .byte 68,15,40,5,2,83,1,0 // movaps 0x15302(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 102,15,114,208,24 // psrld $0x18,%xmm0
+ .byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
+ .byte 68,15,40,5,187,84,1,0 // movaps 0x154bb(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,214,83,1,0 // movaps 0x153d6(%rip),%xmm12 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
- .byte 65,15,89,196 // mulps %xmm12,%xmm0
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,204 // mulps %xmm4,%xmm9
- .byte 68,15,88,200 // addps %xmm0,%xmm9
+ .byte 68,15,40,37,143,85,1,0 // movaps 0x1558f(%rip),%xmm12 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 69,15,89,204 // mulps %xmm12,%xmm9
+ .byte 65,15,40,192 // movaps %xmm8,%xmm0
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 65,15,88,193 // addps %xmm9,%xmm0
.byte 65,15,89,204 // mulps %xmm12,%xmm1
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 68,15,89,213 // mulps %xmm5,%xmm10
- .byte 68,15,88,209 // addps %xmm1,%xmm10
+ .byte 69,15,40,200 // movaps %xmm8,%xmm9
+ .byte 68,15,89,205 // mulps %xmm5,%xmm9
+ .byte 68,15,88,201 // addps %xmm1,%xmm9
.byte 65,15,89,212 // mulps %xmm12,%xmm2
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 68,15,89,222 // mulps %xmm6,%xmm11
- .byte 68,15,88,218 // addps %xmm2,%xmm11
+ .byte 69,15,40,208 // movaps %xmm8,%xmm10
+ .byte 68,15,89,214 // mulps %xmm6,%xmm10
+ .byte 68,15,88,210 // addps %xmm2,%xmm10
.byte 65,15,89,220 // mulps %xmm12,%xmm3
.byte 68,15,89,199 // mulps %xmm7,%xmm8
.byte 68,15,88,195 // addps %xmm3,%xmm8
- .byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
- .byte 102,65,15,91,202 // cvtps2dq %xmm10,%xmm1
- .byte 102,15,114,241,8 // pslld $0x8,%xmm1
- .byte 102,15,235,200 // por %xmm0,%xmm1
- .byte 102,65,15,91,209 // cvtps2dq %xmm9,%xmm2
- .byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,65,15,91,192 // cvtps2dq %xmm8,%xmm0
- .byte 102,15,114,240,24 // pslld $0x18,%xmm0
- .byte 102,15,235,194 // por %xmm2,%xmm0
- .byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 117,84 // jne 24efb <_sk_srcover_bgra_8888_sse2+0x13e>
- .byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4)
+ .byte 15,87,201 // xorps %xmm1,%xmm1
+ .byte 65,15,95,202 // maxps %xmm10,%xmm1
+ .byte 65,15,93,204 // minps %xmm12,%xmm1
+ .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
+ .byte 15,87,210 // xorps %xmm2,%xmm2
+ .byte 65,15,95,209 // maxps %xmm9,%xmm2
+ .byte 65,15,93,212 // minps %xmm12,%xmm2
+ .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
+ .byte 102,15,114,242,8 // pslld $0x8,%xmm2
+ .byte 102,15,235,209 // por %xmm1,%xmm2
+ .byte 102,15,87,201 // xorpd %xmm1,%xmm1
+ .byte 15,95,200 // maxps %xmm0,%xmm1
+ .byte 65,15,93,204 // minps %xmm12,%xmm1
+ .byte 102,15,91,217 // cvtps2dq %xmm1,%xmm3
+ .byte 102,15,114,243,16 // pslld $0x10,%xmm3
+ .byte 69,15,95,216 // maxps %xmm8,%xmm11
+ .byte 69,15,93,220 // minps %xmm12,%xmm11
+ .byte 102,65,15,91,203 // cvtps2dq %xmm11,%xmm1
+ .byte 102,15,114,241,24 // pslld $0x18,%xmm1
+ .byte 102,15,235,203 // por %xmm3,%xmm1
+ .byte 102,15,235,202 // por %xmm2,%xmm1
+ .byte 117,78 // jne 25781 <_sk_srcover_bgra_8888_sse2+0x161>
+ .byte 243,65,15,127,12,128 // movdqu %xmm1,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 65,15,40,211 // movaps %xmm11,%xmm2
+ .byte 65,15,40,201 // movaps %xmm9,%xmm1
+ .byte 65,15,40,210 // movaps %xmm10,%xmm2
.byte 65,15,40,216 // movaps %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,90 // je 24f28 <_sk_srcover_bgra_8888_sse2+0x16b>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
+ .byte 116,88 // je 257ae <_sk_srcover_bgra_8888_sse2+0x18e>
+ .byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 24ef0 <_sk_srcover_bgra_8888_sse2+0x133>
+ .byte 116,22 // je 25776 <_sk_srcover_bgra_8888_sse2+0x156>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,0,255,255,255 // jne 24de3 <_sk_srcover_bgra_8888_sse2+0x26>
- .byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 102,69,15,18,4,128 // movlpd (%r8,%rax,4),%xmm8
- .byte 233,232,254,255,255 // jmpq 24de3 <_sk_srcover_bgra_8888_sse2+0x26>
+ .byte 15,133,225,254,255,255 // jne 2564b <_sk_srcover_bgra_8888_sse2+0x2b>
+ .byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
+ .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
+ .byte 102,65,15,18,4,128 // movlpd (%r8,%rax,4),%xmm0
+ .byte 233,202,254,255,255 // jmpq 2564b <_sk_srcover_bgra_8888_sse2+0x2b>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,43 // je 24f33 <_sk_srcover_bgra_8888_sse2+0x176>
+ .byte 116,43 // je 257b9 <_sk_srcover_bgra_8888_sse2+0x199>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 24f20 <_sk_srcover_bgra_8888_sse2+0x163>
+ .byte 116,18 // je 257a6 <_sk_srcover_bgra_8888_sse2+0x186>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,153 // jne 24ead <_sk_srcover_bgra_8888_sse2+0xf0>
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,65,15,126,76,128,8 // movd %xmm1,0x8(%r8,%rax,4)
- .byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4)
- .byte 235,133 // jmp 24ead <_sk_srcover_bgra_8888_sse2+0xf0>
- .byte 102,69,15,110,4,128 // movd (%r8,%rax,4),%xmm8
- .byte 233,176,254,255,255 // jmpq 24de3 <_sk_srcover_bgra_8888_sse2+0x26>
- .byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4)
- .byte 233,111,255,255,255 // jmpq 24ead <_sk_srcover_bgra_8888_sse2+0xf0>
+ .byte 117,159 // jne 25739 <_sk_srcover_bgra_8888_sse2+0x119>
+ .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
+ .byte 102,65,15,126,84,128,8 // movd %xmm2,0x8(%r8,%rax,4)
+ .byte 102,65,15,214,12,128 // movq %xmm1,(%r8,%rax,4)
+ .byte 235,139 // jmp 25739 <_sk_srcover_bgra_8888_sse2+0x119>
+ .byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0
+ .byte 233,146,254,255,255 // jmpq 2564b <_sk_srcover_bgra_8888_sse2+0x2b>
+ .byte 102,65,15,126,12,128 // movd %xmm1,(%r8,%rax,4)
+ .byte 233,117,255,255,255 // jmpq 25739 <_sk_srcover_bgra_8888_sse2+0x119>
HIDDEN _sk_clamp_0_sse2
.globl _sk_clamp_0_sse2
@@ -35955,7 +36415,7 @@ HIDDEN _sk_clamp_1_sse2
.globl _sk_clamp_1_sse2
FUNCTION(_sk_clamp_1_sse2)
_sk_clamp_1_sse2:
- .byte 68,15,40,5,210,81,1,0 // movaps 0x151d2(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,108,83,1,0 // movaps 0x1536c(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -35967,7 +36427,7 @@ HIDDEN _sk_clamp_a_sse2
.globl _sk_clamp_a_sse2
FUNCTION(_sk_clamp_a_sse2)
_sk_clamp_a_sse2:
- .byte 15,93,29,183,81,1,0 // minps 0x151b7(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,93,29,81,83,1,0 // minps 0x15351(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -35978,7 +36438,7 @@ HIDDEN _sk_clamp_a_dst_sse2
.globl _sk_clamp_a_dst_sse2
FUNCTION(_sk_clamp_a_dst_sse2)
_sk_clamp_a_dst_sse2:
- .byte 15,93,61,163,81,1,0 // minps 0x151a3(%rip),%xmm7 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,93,61,61,83,1,0 // minps 0x1533d(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -36013,7 +36473,7 @@ HIDDEN _sk_invert_sse2
.globl _sk_invert_sse2
FUNCTION(_sk_invert_sse2)
_sk_invert_sse2:
- .byte 68,15,40,5,95,81,1,0 // movaps 0x1515f(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,249,82,1,0 // movaps 0x152f9(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -36074,10 +36534,10 @@ HIDDEN _sk_unpremul_sse2
.globl _sk_unpremul_sse2
FUNCTION(_sk_unpremul_sse2)
_sk_unpremul_sse2:
- .byte 68,15,40,5,237,80,1,0 // movaps 0x150ed(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,135,82,1,0 // movaps 0x15287(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,94,195 // divps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,194,13,204,81,1,0,1 // cmpltps 0x151cc(%rip),%xmm9 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0xccc>
+ .byte 68,15,194,13,102,83,1,0,1 // cmpltps 0x15366(%rip),%xmm9 # 3ac40 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
.byte 69,15,84,200 // andps %xmm8,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,201 // mulps %xmm9,%xmm1
@@ -36089,20 +36549,20 @@ HIDDEN _sk_from_srgb_sse2
.globl _sk_from_srgb_sse2
FUNCTION(_sk_from_srgb_sse2)
_sk_from_srgb_sse2:
- .byte 68,15,40,5,192,81,1,0 // movaps 0x151c0(%rip),%xmm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0xcdc>
+ .byte 68,15,40,5,90,83,1,0 // movaps 0x1535a(%rip),%xmm8 # 3ac50 <_sk_srcover_bgra_8888_sse2_lowp+0xce8>
.byte 68,15,40,232 // movaps %xmm0,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,40,81,1,0 // movaps 0x15128(%rip),%xmm9 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c>
+ .byte 68,15,40,13,194,82,1,0 // movaps 0x152c2(%rip),%xmm9 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,168,81,1,0 // movaps 0x151a8(%rip),%xmm10 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0xcec>
+ .byte 68,15,40,21,66,83,1,0 // movaps 0x15342(%rip),%xmm10 # 3ac60 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,168,81,1,0 // movaps 0x151a8(%rip),%xmm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0xcfc>
+ .byte 68,15,40,29,66,83,1,0 // movaps 0x15342(%rip),%xmm11 # 3ac70 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,172,81,1,0 // movaps 0x151ac(%rip),%xmm12 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0xd0c>
+ .byte 68,15,40,37,70,83,1,0 // movaps 0x15346(%rip),%xmm12 # 3ac80 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
.byte 65,15,194,196,1 // cmpltps %xmm12,%xmm0
.byte 68,15,84,232 // andps %xmm0,%xmm13
.byte 65,15,85,198 // andnps %xmm14,%xmm0
@@ -36138,20 +36598,20 @@ HIDDEN _sk_from_srgb_dst_sse2
.globl _sk_from_srgb_dst_sse2
FUNCTION(_sk_from_srgb_dst_sse2)
_sk_from_srgb_dst_sse2:
- .byte 68,15,40,5,253,80,1,0 // movaps 0x150fd(%rip),%xmm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0xcdc>
+ .byte 68,15,40,5,151,82,1,0 // movaps 0x15297(%rip),%xmm8 # 3ac50 <_sk_srcover_bgra_8888_sse2_lowp+0xce8>
.byte 68,15,40,236 // movaps %xmm4,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,220 // movaps %xmm4,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,101,80,1,0 // movaps 0x15065(%rip),%xmm9 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c>
+ .byte 68,15,40,13,255,81,1,0 // movaps 0x151ff(%rip),%xmm9 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
.byte 68,15,40,244 // movaps %xmm4,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,229,80,1,0 // movaps 0x150e5(%rip),%xmm10 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0xcec>
+ .byte 68,15,40,21,127,82,1,0 // movaps 0x1527f(%rip),%xmm10 # 3ac60 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,229,80,1,0 // movaps 0x150e5(%rip),%xmm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0xcfc>
+ .byte 68,15,40,29,127,82,1,0 // movaps 0x1527f(%rip),%xmm11 # 3ac70 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,233,80,1,0 // movaps 0x150e9(%rip),%xmm12 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0xd0c>
+ .byte 68,15,40,37,131,82,1,0 // movaps 0x15283(%rip),%xmm12 # 3ac80 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
.byte 65,15,194,228,1 // cmpltps %xmm12,%xmm4
.byte 68,15,84,236 // andps %xmm4,%xmm13
.byte 65,15,85,230 // andnps %xmm14,%xmm4
@@ -36188,22 +36648,22 @@ HIDDEN _sk_to_srgb_sse2
FUNCTION(_sk_to_srgb_sse2)
_sk_to_srgb_sse2:
.byte 68,15,82,232 // rsqrtps %xmm0,%xmm13
- .byte 68,15,40,5,118,80,1,0 // movaps 0x15076(%rip),%xmm8 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0xd1c>
+ .byte 68,15,40,5,16,82,1,0 // movaps 0x15210(%rip),%xmm8 # 3ac90 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,240 // mulps %xmm8,%xmm14
- .byte 68,15,40,13,118,80,1,0 // movaps 0x15076(%rip),%xmm9 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0xd2c>
+ .byte 68,15,40,13,16,82,1,0 // movaps 0x15210(%rip),%xmm9 # 3aca0 <_sk_srcover_bgra_8888_sse2_lowp+0xd38>
.byte 69,15,40,253 // movaps %xmm13,%xmm15
.byte 69,15,89,249 // mulps %xmm9,%xmm15
- .byte 68,15,40,21,118,80,1,0 // movaps 0x15076(%rip),%xmm10 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0xd3c>
+ .byte 68,15,40,21,16,82,1,0 // movaps 0x15210(%rip),%xmm10 # 3acb0 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,253 // mulps %xmm13,%xmm15
- .byte 68,15,40,29,118,80,1,0 // movaps 0x15076(%rip),%xmm11 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0xd4c>
+ .byte 68,15,40,29,16,82,1,0 // movaps 0x15210(%rip),%xmm11 # 3acc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
.byte 69,15,88,251 // addps %xmm11,%xmm15
- .byte 68,15,40,37,122,80,1,0 // movaps 0x1507a(%rip),%xmm12 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd5c>
+ .byte 68,15,40,37,20,82,1,0 // movaps 0x15214(%rip),%xmm12 # 3acd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
.byte 69,15,88,236 // addps %xmm12,%xmm13
.byte 69,15,83,237 // rcpps %xmm13,%xmm13
.byte 69,15,89,239 // mulps %xmm15,%xmm13
- .byte 68,15,40,61,118,80,1,0 // movaps 0x15076(%rip),%xmm15 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0xd6c>
+ .byte 68,15,40,61,16,82,1,0 // movaps 0x15210(%rip),%xmm15 # 3ace0 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,197 // andnps %xmm13,%xmm0
@@ -36255,7 +36715,7 @@ _sk_rgb_to_hsl_sse2:
.byte 68,15,93,216 // minps %xmm0,%xmm11
.byte 65,15,40,202 // movaps %xmm10,%xmm1
.byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 68,15,40,45,41,78,1,0 // movaps 0x14e29(%rip),%xmm13 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,45,195,79,1,0 // movaps 0x14fc3(%rip),%xmm13 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 68,15,94,233 // divps %xmm1,%xmm13
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,194,192,0 // cmpeqps %xmm8,%xmm0
@@ -36264,30 +36724,30 @@ _sk_rgb_to_hsl_sse2:
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,40,241 // movaps %xmm9,%xmm14
.byte 68,15,194,242,1 // cmpltps %xmm2,%xmm14
- .byte 68,15,84,53,159,79,1,0 // andps 0x14f9f(%rip),%xmm14 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd7c>
+ .byte 68,15,84,53,57,81,1,0 // andps 0x15139(%rip),%xmm14 # 3acf0 <_sk_srcover_bgra_8888_sse2_lowp+0xd88>
.byte 69,15,88,244 // addps %xmm12,%xmm14
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,194,249,0 // cmpeqps %xmm9,%xmm15
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 68,15,40,37,146,79,1,0 // movaps 0x14f92(%rip),%xmm12 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd8c>
+ .byte 68,15,40,37,44,81,1,0 // movaps 0x1512c(%rip),%xmm12 # 3ad00 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
.byte 65,15,88,212 // addps %xmm12,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,88,5,142,79,1,0 // addps 0x14f8e(%rip),%xmm8 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd9c>
+ .byte 68,15,88,5,40,81,1,0 // addps 0x15128(%rip),%xmm8 # 3ad10 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
.byte 65,15,84,215 // andps %xmm15,%xmm2
.byte 69,15,85,248 // andnps %xmm8,%xmm15
.byte 68,15,86,250 // orps %xmm2,%xmm15
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,199 // andnps %xmm15,%xmm0
.byte 65,15,86,198 // orps %xmm14,%xmm0
- .byte 15,89,5,127,79,1,0 // mulps 0x14f7f(%rip),%xmm0 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0xdac>
+ .byte 15,89,5,25,81,1,0 // mulps 0x15119(%rip),%xmm0 # 3ad20 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
.byte 69,15,40,194 // movaps %xmm10,%xmm8
.byte 69,15,194,195,4 // cmpneqps %xmm11,%xmm8
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 69,15,92,226 // subps %xmm10,%xmm12
.byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 68,15,40,13,130,77,1,0 // movaps 0x14d82(%rip),%xmm9 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,40,13,28,79,1,0 // movaps 0x14f1c(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 65,15,40,210 // movaps %xmm10,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 68,15,194,202,1 // cmpltps %xmm2,%xmm9
@@ -36311,7 +36771,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,218 // movaps %xmm2,%xmm11
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,13,49,77,1,0 // movaps 0x14d31(%rip),%xmm9 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,40,13,203,78,1,0 // movaps 0x14ecb(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,194,211,2 // cmpleps %xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
@@ -36328,28 +36788,28 @@ _sk_hsl_to_rgb_sse2:
.byte 69,15,88,211 // addps %xmm11,%xmm10
.byte 69,15,88,219 // addps %xmm11,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 15,40,5,218,78,1,0 // movaps 0x14eda(%rip),%xmm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0xdbc>
+ .byte 15,40,5,116,80,1,0 // movaps 0x15074(%rip),%xmm0 # 3ad30 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8>
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,194,217,1 // cmpltps %xmm1,%xmm3
- .byte 15,84,29,226,76,1,0 // andps 0x14ce2(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,84,29,124,78,1,0 // andps 0x14e7c(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 68,15,40,45,196,78,1,0 // movaps 0x14ec4(%rip),%xmm13 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0xdcc>
+ .byte 68,15,40,45,94,80,1,0 // movaps 0x1505e(%rip),%xmm13 # 3ad40 <_sk_srcover_bgra_8888_sse2_lowp+0xdd8>
.byte 69,15,40,197 // movaps %xmm13,%xmm8
.byte 68,15,194,192,2 // cmpleps %xmm0,%xmm8
.byte 69,15,40,242 // movaps %xmm10,%xmm14
.byte 69,15,92,243 // subps %xmm11,%xmm14
.byte 65,15,40,217 // movaps %xmm9,%xmm3
.byte 15,194,216,2 // cmpleps %xmm0,%xmm3
- .byte 15,40,21,132,78,1,0 // movaps 0x14e84(%rip),%xmm2 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0xdac>
+ .byte 15,40,21,30,80,1,0 // movaps 0x1501e(%rip),%xmm2 # 3ad20 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
.byte 68,15,40,250 // movaps %xmm2,%xmm15
.byte 68,15,194,248,2 // cmpleps %xmm0,%xmm15
- .byte 15,40,13,68,78,1,0 // movaps 0x14e44(%rip),%xmm1 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd7c>
+ .byte 15,40,13,222,79,1,0 // movaps 0x14fde(%rip),%xmm1 # 3acf0 <_sk_srcover_bgra_8888_sse2_lowp+0xd88>
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,45,90,78,1,0 // movaps 0x14e5a(%rip),%xmm5 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd9c>
+ .byte 15,40,45,244,79,1,0 // movaps 0x14ff4(%rip),%xmm5 # 3ad10 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 65,15,89,230 // mulps %xmm14,%xmm4
@@ -36372,7 +36832,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,63,76,1,0 // andps 0x14c3f(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,84,29,217,77,1,0 // andps 0x14dd9(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 68,15,40,230 // movaps %xmm6,%xmm12
.byte 68,15,92,224 // subps %xmm0,%xmm12
@@ -36402,12 +36862,12 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,124,36,136 // movaps -0x78(%rsp),%xmm7
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 15,85,227 // andnps %xmm3,%xmm4
- .byte 15,88,53,199,77,1,0 // addps 0x14dc7(%rip),%xmm6 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc>
+ .byte 15,88,53,97,79,1,0 // addps 0x14f61(%rip),%xmm6 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 243,15,91,198 // cvttps2dq %xmm6,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,178,75,1,0 // andps 0x14bb2(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,84,29,76,77,1,0 // andps 0x14d4c(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,89,206 // mulps %xmm6,%xmm1
@@ -36471,13 +36931,13 @@ _sk_scale_u8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,61 // jne 2567f <_sk_scale_u8_sse2+0x55>
+ .byte 117,61 // jne 25f05 <_sk_scale_u8_sse2+0x55>
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,133,75,1,0 // pand 0x14b85(%rip),%xmm8 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,68,15,219,5,31,77,1,0 // pand 0x14d1f(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,217,76,1,0 // mulps 0x14cd9(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 68,15,89,5,115,78,1,0 // mulps 0x14e73(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -36488,12 +36948,12 @@ _sk_scale_u8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,61 // je 256c9 <_sk_scale_u8_sse2+0x9f>
+ .byte 116,61 // je 25f4f <_sk_scale_u8_sse2+0x9f>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 256ae <_sk_scale_u8_sse2+0x84>
+ .byte 116,23 // je 25f34 <_sk_scale_u8_sse2+0x84>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,181 // jne 25652 <_sk_scale_u8_sse2+0x28>
+ .byte 117,181 // jne 25ed8 <_sk_scale_u8_sse2+0x28>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -36502,10 +36962,10 @@ _sk_scale_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 235,137 // jmp 25652 <_sk_scale_u8_sse2+0x28>
+ .byte 235,137 // jmp 25ed8 <_sk_scale_u8_sse2+0x28>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,122,255,255,255 // jmpq 25652 <_sk_scale_u8_sse2+0x28>
+ .byte 233,122,255,255,255 // jmpq 25ed8 <_sk_scale_u8_sse2+0x28>
HIDDEN _sk_scale_565_sse2
.globl _sk_scale_565_sse2
@@ -36519,20 +36979,20 @@ _sk_scale_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 257a4 <_sk_scale_565_sse2+0xcc>
+ .byte 15,133,173,0,0,0 // jne 2602a <_sk_scale_565_sse2+0xcc>
.byte 243,71,15,126,20,80 // movq (%r8,%r10,2),%xmm10
.byte 102,68,15,97,208 // punpcklwd %xmm0,%xmm10
- .byte 102,68,15,111,5,69,76,1,0 // movdqa 0x14c45(%rip),%xmm8 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc>
+ .byte 102,68,15,111,5,223,77,1,0 // movdqa 0x14ddf(%rip),%xmm8 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,69,15,219,194 // pand %xmm10,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,68,76,1,0 // mulps 0x14c44(%rip),%xmm8 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c>
- .byte 102,68,15,111,13,75,76,1,0 // movdqa 0x14c4b(%rip),%xmm9 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c>
+ .byte 68,15,89,5,222,77,1,0 // mulps 0x14dde(%rip),%xmm8 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,68,15,111,13,229,77,1,0 // movdqa 0x14de5(%rip),%xmm9 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,69,15,219,202 // pand %xmm10,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,74,76,1,0 // mulps 0x14c4a(%rip),%xmm9 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c>
- .byte 102,68,15,219,21,81,76,1,0 // pand 0x14c51(%rip),%xmm10 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c>
+ .byte 68,15,89,13,228,77,1,0 // mulps 0x14de4(%rip),%xmm9 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,68,15,219,21,235,77,1,0 // pand 0x14deb(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,85,76,1,0 // mulps 0x14c55(%rip),%xmm10 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c>
+ .byte 68,15,89,21,239,77,1,0 // mulps 0x14def(%rip),%xmm10 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 68,15,40,219 // movaps %xmm3,%xmm11
.byte 68,15,194,223,1 // cmpltps %xmm7,%xmm11
.byte 69,15,40,225 // movaps %xmm9,%xmm12
@@ -36559,22 +37019,22 @@ _sk_scale_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 257ed <_sk_scale_565_sse2+0x115>
+ .byte 116,60 // je 26073 <_sk_scale_565_sse2+0x115>
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,27 // je 257d7 <_sk_scale_565_sse2+0xff>
+ .byte 116,27 // je 2605d <_sk_scale_565_sse2+0xff>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,60,255,255,255 // jne 25702 <_sk_scale_565_sse2+0x2a>
+ .byte 15,133,60,255,255,255 // jne 25f88 <_sk_scale_565_sse2+0x2a>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,208,69 // pshufd $0x45,%xmm8,%xmm10
.byte 102,71,15,110,4,80 // movd (%r8,%r10,2),%xmm8
.byte 242,69,15,112,192,212 // pshuflw $0xd4,%xmm8,%xmm8
.byte 242,69,15,16,208 // movsd %xmm8,%xmm10
- .byte 233,21,255,255,255 // jmpq 25702 <_sk_scale_565_sse2+0x2a>
+ .byte 233,21,255,255,255 // jmpq 25f88 <_sk_scale_565_sse2+0x2a>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,6,255,255,255 // jmpq 25702 <_sk_scale_565_sse2+0x2a>
+ .byte 233,6,255,255,255 // jmpq 25f88 <_sk_scale_565_sse2+0x2a>
HIDDEN _sk_lerp_1_float_sse2
.globl _sk_lerp_1_float_sse2
@@ -36609,13 +37069,13 @@ _sk_lerp_u8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,81 // jne 2589d <_sk_lerp_u8_sse2+0x69>
+ .byte 117,81 // jne 26123 <_sk_lerp_u8_sse2+0x69>
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,123,73,1,0 // pand 0x1497b(%rip),%xmm8 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,68,15,219,5,21,75,1,0 // pand 0x14b15(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,207,74,1,0 // mulps 0x14acf(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 68,15,89,5,105,76,1,0 // mulps 0x14c69(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -36633,12 +37093,12 @@ _sk_lerp_u8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,64 // je 258ea <_sk_lerp_u8_sse2+0xb6>
+ .byte 116,64 // je 26170 <_sk_lerp_u8_sse2+0xb6>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 258cc <_sk_lerp_u8_sse2+0x98>
+ .byte 116,23 // je 26152 <_sk_lerp_u8_sse2+0x98>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,161 // jne 2585c <_sk_lerp_u8_sse2+0x28>
+ .byte 117,161 // jne 260e2 <_sk_lerp_u8_sse2+0x28>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -36647,10 +37107,10 @@ _sk_lerp_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,114,255,255,255 // jmpq 2585c <_sk_lerp_u8_sse2+0x28>
+ .byte 233,114,255,255,255 // jmpq 260e2 <_sk_lerp_u8_sse2+0x28>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,99,255,255,255 // jmpq 2585c <_sk_lerp_u8_sse2+0x28>
+ .byte 233,99,255,255,255 // jmpq 260e2 <_sk_lerp_u8_sse2+0x28>
HIDDEN _sk_lerp_565_sse2
.globl _sk_lerp_565_sse2
@@ -36664,20 +37124,20 @@ _sk_lerp_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 259c5 <_sk_lerp_565_sse2+0xcc>
+ .byte 15,133,173,0,0,0 // jne 2624b <_sk_lerp_565_sse2+0xcc>
.byte 243,71,15,126,4,80 // movq (%r8,%r10,2),%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,111,13,36,74,1,0 // movdqa 0x14a24(%rip),%xmm9 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc>
+ .byte 102,68,15,111,13,190,75,1,0 // movdqa 0x14bbe(%rip),%xmm9 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,69,15,219,200 // pand %xmm8,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,35,74,1,0 // mulps 0x14a23(%rip),%xmm9 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c>
- .byte 102,68,15,111,21,42,74,1,0 // movdqa 0x14a2a(%rip),%xmm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c>
+ .byte 68,15,89,13,189,75,1,0 // mulps 0x14bbd(%rip),%xmm9 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,68,15,111,21,196,75,1,0 // movdqa 0x14bc4(%rip),%xmm10 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
- .byte 68,15,89,29,41,74,1,0 // mulps 0x14a29(%rip),%xmm11 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c>
- .byte 102,68,15,219,5,48,74,1,0 // pand 0x14a30(%rip),%xmm8 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c>
+ .byte 68,15,89,29,195,75,1,0 // mulps 0x14bc3(%rip),%xmm11 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,68,15,219,5,202,75,1,0 // pand 0x14bca(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,52,74,1,0 // mulps 0x14a34(%rip),%xmm8 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c>
+ .byte 68,15,89,5,206,75,1,0 // mulps 0x14bce(%rip),%xmm8 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 68,15,40,211 // movaps %xmm3,%xmm10
.byte 68,15,194,215,1 // cmpltps %xmm7,%xmm10
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -36706,22 +37166,22 @@ _sk_lerp_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 25a0e <_sk_lerp_565_sse2+0x115>
+ .byte 116,60 // je 26294 <_sk_lerp_565_sse2+0x115>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,27 // je 259f8 <_sk_lerp_565_sse2+0xff>
+ .byte 116,27 // je 2627e <_sk_lerp_565_sse2+0xff>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,60,255,255,255 // jne 25923 <_sk_lerp_565_sse2+0x2a>
+ .byte 15,133,60,255,255,255 // jne 261a9 <_sk_lerp_565_sse2+0x2a>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
.byte 102,71,15,110,12,80 // movd (%r8,%r10,2),%xmm9
.byte 242,69,15,112,201,212 // pshuflw $0xd4,%xmm9,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,21,255,255,255 // jmpq 25923 <_sk_lerp_565_sse2+0x2a>
+ .byte 233,21,255,255,255 // jmpq 261a9 <_sk_lerp_565_sse2+0x2a>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,6,255,255,255 // jmpq 25923 <_sk_lerp_565_sse2+0x2a>
+ .byte 233,6,255,255,255 // jmpq 261a9 <_sk_lerp_565_sse2+0x2a>
HIDDEN _sk_load_tables_sse2
.globl _sk_load_tables_sse2
@@ -36730,11 +37190,11 @@ _sk_load_tables_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,34,1,0,0 // jne 25b4d <_sk_load_tables_sse2+0x130>
+ .byte 15,133,34,1,0,0 // jne 263d3 <_sk_load_tables_sse2+0x130>
.byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,68,15,111,5,163,71,1,0 // movdqa 0x147a3(%rip),%xmm8 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,68,15,111,5,61,73,1,0 // movdqa 0x1493d(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -36790,7 +37250,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
.byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 15,89,29,250,71,1,0 // mulps 0x147fa(%rip),%xmm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 15,89,29,148,73,1,0 // mulps 0x14994(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -36798,18 +37258,18 @@ _sk_load_tables_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 25b87 <_sk_load_tables_sse2+0x16a>
+ .byte 116,45 // je 2640d <_sk_load_tables_sse2+0x16a>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 25b7c <_sk_load_tables_sse2+0x15f>
+ .byte 116,23 // je 26402 <_sk_load_tables_sse2+0x15f>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,194,254,255,255 // jne 25a31 <_sk_load_tables_sse2+0x14>
+ .byte 15,133,194,254,255,255 // jne 262b7 <_sk_load_tables_sse2+0x14>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,170,254,255,255 // jmpq 25a31 <_sk_load_tables_sse2+0x14>
+ .byte 233,170,254,255,255 // jmpq 262b7 <_sk_load_tables_sse2+0x14>
.byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,159,254,255,255 // jmpq 25a31 <_sk_load_tables_sse2+0x14>
+ .byte 233,159,254,255,255 // jmpq 262b7 <_sk_load_tables_sse2+0x14>
HIDDEN _sk_load_tables_u16_be_sse2
.globl _sk_load_tables_u16_be_sse2
@@ -36819,7 +37279,7 @@ _sk_load_tables_u16_be_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,93,1,0,0 // jne 25d05 <_sk_load_tables_u16_be_sse2+0x173>
+ .byte 15,133,93,1,0,0 // jne 2658b <_sk_load_tables_u16_be_sse2+0x173>
.byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
.byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
.byte 65,86 // push %r14
@@ -36830,7 +37290,7 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,15,111,21,212,71,1,0 // movdqa 0x147d4(%rip),%xmm2 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe5c>
+ .byte 102,15,111,21,110,73,1,0 // movdqa 0x1496e(%rip),%xmm2 # 3add0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
.byte 102,15,112,217,238 // pshufd $0xee,%xmm1,%xmm3
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
@@ -36891,23 +37351,23 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,235,217 // por %xmm9,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,210,70,1,0 // mulps 0x146d2(%rip),%xmm3 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe7c>
+ .byte 15,89,29,108,72,1,0 // mulps 0x1486c(%rip),%xmm3 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 25d1e <_sk_load_tables_u16_be_sse2+0x18c>
+ .byte 117,13 // jne 265a4 <_sk_load_tables_u16_be_sse2+0x18c>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,151,254,255,255 // jmpq 25bb5 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,151,254,255,255 // jmpq 2643b <_sk_load_tables_u16_be_sse2+0x23>
.byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,130,254,255,255 // jb 25bb5 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 15,130,130,254,255,255 // jb 2643b <_sk_load_tables_u16_be_sse2+0x23>
.byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,118,254,255,255 // jmpq 25bb5 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,118,254,255,255 // jmpq 2643b <_sk_load_tables_u16_be_sse2+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse2
.globl _sk_load_tables_rgb_u16_be_sse2
@@ -36917,7 +37377,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,81,1,0,0 // jne 25ea2 <_sk_load_tables_rgb_u16_be_sse2+0x163>
+ .byte 15,133,81,1,0,0 // jne 26728 <_sk_load_tables_rgb_u16_be_sse2+0x163>
.byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
.byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -36932,7 +37392,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,65,15,97,194 // punpcklwd %xmm10,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,68,15,111,5,22,70,1,0 // movdqa 0x14616(%rip),%xmm8 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe5c>
+ .byte 102,68,15,111,5,176,71,1,0 // movdqa 0x147b0(%rip),%xmm8 # 3add0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
@@ -36987,7 +37447,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 65,15,20,216 // unpcklps %xmm8,%xmm3
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,147,66,1,0 // movaps 0x14293(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,29,45,68,1,0 // movaps 0x1442d(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -36995,21 +37455,21 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 25ec8 <_sk_load_tables_rgb_u16_be_sse2+0x189>
+ .byte 117,14 // jne 2674e <_sk_load_tables_rgb_u16_be_sse2+0x189>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
- .byte 233,175,254,255,255 // jmpq 25d77 <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,175,254,255,255 // jmpq 265fd <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,71,15,110,84,72,6 // movd 0x6(%r8,%r9,2),%xmm10
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,71,15,196,84,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm10
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 25ef9 <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
+ .byte 114,24 // jb 2677f <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
.byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,126,254,255,255 // jmpq 25d77 <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,126,254,255,255 // jmpq 265fd <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,117,254,255,255 // jmpq 25d77 <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,117,254,255,255 // jmpq 265fd <_sk_load_tables_rgb_u16_be_sse2+0x38>
HIDDEN _sk_byte_tables_sse2
.globl _sk_byte_tables_sse2
@@ -37019,9 +37479,14 @@ _sk_byte_tables_sse2:
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,0,67,1,0 // movaps 0x14300(%rip),%xmm8 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
+ .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
+ .byte 69,15,87,219 // xorps %xmm11,%xmm11
+ .byte 68,15,95,216 // maxps %xmm0,%xmm11
+ .byte 68,15,40,13,173,67,1,0 // movaps 0x143ad(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,93,217 // minps %xmm9,%xmm11
+ .byte 68,15,40,21,129,68,1,0 // movaps 0x14481(%rip),%xmm10 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 69,15,89,218 // mulps %xmm10,%xmm11
+ .byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
.byte 69,137,193 // mov %r8d,%r9d
.byte 77,137,194 // mov %r8,%r10
@@ -37043,14 +37508,16 @@ _sk_byte_tables_sse2:
.byte 68,9,203 // or %r9d,%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,196,197,1 // pinsrw $0x1,%ebp,%xmm0
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
- .byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
+ .byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
+ .byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,21,187,67,1,0 // movaps 0x143bb(%rip),%xmm10 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
- .byte 65,15,89,194 // mulps %xmm10,%xmm0
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
+ .byte 68,15,40,29,64,69,1,0 // movaps 0x14540(%rip),%xmm11 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 65,15,89,195 // mulps %xmm11,%xmm0
+ .byte 69,15,87,228 // xorps %xmm12,%xmm12
+ .byte 68,15,95,225 // maxps %xmm1,%xmm12
+ .byte 69,15,93,225 // minps %xmm9,%xmm12
+ .byte 69,15,89,226 // mulps %xmm10,%xmm12
+ .byte 102,65,15,91,204 // cvtps2dq %xmm12,%xmm1
.byte 102,72,15,126,205 // movq %xmm1,%rbp
.byte 65,137,233 // mov %ebp,%r9d
.byte 72,193,237,32 // shr $0x20,%rbp
@@ -37068,13 +37535,16 @@ _sk_byte_tables_sse2:
.byte 68,9,205 // or %r9d,%ebp
.byte 102,15,110,205 // movd %ebp,%xmm1
.byte 102,15,196,203,1 // pinsrw $0x1,%ebx,%xmm1
- .byte 102,65,15,96,201 // punpcklbw %xmm9,%xmm1
- .byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
+ .byte 102,65,15,96,200 // punpcklbw %xmm8,%xmm1
+ .byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,202 // mulps %xmm10,%xmm1
+ .byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
+ .byte 69,15,87,228 // xorps %xmm12,%xmm12
+ .byte 68,15,95,226 // maxps %xmm2,%xmm12
+ .byte 69,15,93,225 // minps %xmm9,%xmm12
+ .byte 69,15,89,226 // mulps %xmm10,%xmm12
+ .byte 102,65,15,91,212 // cvtps2dq %xmm12,%xmm2
.byte 102,72,15,126,211 // movq %xmm2,%rbx
.byte 65,137,216 // mov %ebx,%r8d
.byte 72,193,235,32 // shr $0x20,%rbx
@@ -37092,13 +37562,16 @@ _sk_byte_tables_sse2:
.byte 68,9,195 // or %r8d,%ebx
.byte 102,15,110,211 // movd %ebx,%xmm2
.byte 102,15,196,213,1 // pinsrw $0x1,%ebp,%xmm2
- .byte 102,65,15,96,209 // punpcklbw %xmm9,%xmm2
- .byte 102,65,15,97,209 // punpcklwd %xmm9,%xmm2
+ .byte 102,65,15,96,208 // punpcklbw %xmm8,%xmm2
+ .byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 65,15,89,210 // mulps %xmm10,%xmm2
+ .byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3
+ .byte 69,15,87,228 // xorps %xmm12,%xmm12
+ .byte 68,15,95,227 // maxps %xmm3,%xmm12
+ .byte 69,15,93,225 // minps %xmm9,%xmm12
+ .byte 69,15,89,226 // mulps %xmm10,%xmm12
+ .byte 102,65,15,91,220 // cvtps2dq %xmm12,%xmm3
.byte 102,72,15,126,221 // movq %xmm3,%rbp
.byte 65,137,232 // mov %ebp,%r8d
.byte 72,193,237,32 // shr $0x20,%rbp
@@ -37116,10 +37589,10 @@ _sk_byte_tables_sse2:
.byte 68,9,192 // or %r8d,%eax
.byte 102,15,110,216 // movd %eax,%xmm3
.byte 102,15,196,219,1 // pinsrw $0x1,%ebx,%xmm3
- .byte 102,65,15,96,217 // punpcklbw %xmm9,%xmm3
- .byte 102,65,15,97,217 // punpcklwd %xmm9,%xmm3
+ .byte 102,65,15,96,216 // punpcklbw %xmm8,%xmm3
+ .byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 65,15,89,218 // mulps %xmm10,%xmm3
+ .byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -37138,9 +37611,14 @@ _sk_byte_tables_rgb_sse2:
.byte 65,255,200 // dec %r8d
.byte 102,69,15,110,192 // movd %r8d,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
+ .byte 69,15,91,200 // cvtdq2ps %xmm8,%xmm9
+ .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
+ .byte 69,15,87,219 // xorps %xmm11,%xmm11
+ .byte 68,15,95,216 // maxps %xmm0,%xmm11
+ .byte 68,15,40,21,169,65,1,0 // movaps 0x141a9(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,93,218 // minps %xmm10,%xmm11
+ .byte 69,15,89,217 // mulps %xmm9,%xmm11
+ .byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
.byte 69,137,193 // mov %r8d,%r9d
.byte 77,137,194 // mov %r8,%r10
@@ -37162,14 +37640,16 @@ _sk_byte_tables_rgb_sse2:
.byte 68,9,203 // or %r9d,%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,196,197,1 // pinsrw $0x1,%ebp,%xmm0
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
- .byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
+ .byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
+ .byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,21,251,65,1,0 // movaps 0x141fb(%rip),%xmm10 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
- .byte 65,15,89,194 // mulps %xmm10,%xmm0
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
+ .byte 68,15,40,29,68,67,1,0 // movaps 0x14344(%rip),%xmm11 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
+ .byte 65,15,89,195 // mulps %xmm11,%xmm0
+ .byte 69,15,87,228 // xorps %xmm12,%xmm12
+ .byte 68,15,95,225 // maxps %xmm1,%xmm12
+ .byte 69,15,93,226 // minps %xmm10,%xmm12
+ .byte 69,15,89,225 // mulps %xmm9,%xmm12
+ .byte 102,65,15,91,204 // cvtps2dq %xmm12,%xmm1
.byte 102,72,15,126,205 // movq %xmm1,%rbp
.byte 65,137,233 // mov %ebp,%r9d
.byte 72,193,237,32 // shr $0x20,%rbp
@@ -37187,13 +37667,16 @@ _sk_byte_tables_rgb_sse2:
.byte 68,9,205 // or %r9d,%ebp
.byte 102,15,110,205 // movd %ebp,%xmm1
.byte 102,15,196,203,1 // pinsrw $0x1,%ebx,%xmm1
- .byte 102,65,15,96,201 // punpcklbw %xmm9,%xmm1
- .byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
+ .byte 102,65,15,96,200 // punpcklbw %xmm8,%xmm1
+ .byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,202 // mulps %xmm10,%xmm1
+ .byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 72,139,64,16 // mov 0x10(%rax),%rax
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
+ .byte 69,15,87,228 // xorps %xmm12,%xmm12
+ .byte 68,15,95,226 // maxps %xmm2,%xmm12
+ .byte 69,15,93,226 // minps %xmm10,%xmm12
+ .byte 69,15,89,225 // mulps %xmm9,%xmm12
+ .byte 102,65,15,91,212 // cvtps2dq %xmm12,%xmm2
.byte 102,72,15,126,213 // movq %xmm2,%rbp
.byte 65,137,232 // mov %ebp,%r8d
.byte 72,193,237,32 // shr $0x20,%rbp
@@ -37211,10 +37694,10 @@ _sk_byte_tables_rgb_sse2:
.byte 68,9,192 // or %r8d,%eax
.byte 102,15,110,208 // movd %eax,%xmm2
.byte 102,15,196,211,1 // pinsrw $0x1,%ebx,%xmm2
- .byte 102,65,15,96,209 // punpcklbw %xmm9,%xmm2
- .byte 102,65,15,97,209 // punpcklwd %xmm9,%xmm2
+ .byte 102,65,15,96,208 // punpcklbw %xmm8,%xmm2
+ .byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 65,15,89,210 // mulps %xmm10,%xmm2
+ .byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -37232,8 +37715,11 @@ _sk_table_r_sse2:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,200 // maxps %xmm0,%xmm9
+ .byte 68,15,93,13,37,64,1,0 // minps 0x14025(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
.byte 102,65,15,112,192,78 // pshufd $0x4e,%xmm8,%xmm0
.byte 102,72,15,126,192 // movq %xmm0,%rax
.byte 65,137,193 // mov %eax,%r9d
@@ -37262,8 +37748,11 @@ _sk_table_g_sse2:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,193 // mulps %xmm1,%xmm8
- .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,201 // maxps %xmm1,%xmm9
+ .byte 68,15,93,13,172,63,1,0 // minps 0x13fac(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
.byte 102,65,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm1
.byte 102,72,15,126,200 // movq %xmm1,%rax
.byte 65,137,193 // mov %eax,%r9d
@@ -37292,8 +37781,11 @@ _sk_table_b_sse2:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,194 // mulps %xmm2,%xmm8
- .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,202 // maxps %xmm2,%xmm9
+ .byte 68,15,93,13,51,63,1,0 // minps 0x13f33(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
.byte 102,65,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm2
.byte 102,72,15,126,208 // movq %xmm2,%rax
.byte 65,137,193 // mov %eax,%r9d
@@ -37322,8 +37814,11 @@ _sk_table_a_sse2:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,195 // mulps %xmm3,%xmm8
- .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,203 // maxps %xmm3,%xmm9
+ .byte 68,15,93,13,186,62,1,0 // minps 0x13eba(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
.byte 102,65,15,112,216,78 // pshufd $0x4e,%xmm8,%xmm3
.byte 102,72,15,126,216 // movq %xmm3,%rax
.byte 65,137,193 // mov %eax,%r9d
@@ -37365,16 +37860,16 @@ _sk_parametric_r_sse2:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,195,63,1,0 // mulps 0x13fc3(%rip),%xmm11 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c>
- .byte 68,15,40,45,203,63,1,0 // movaps 0x13fcb(%rip),%xmm13 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c>
+ .byte 68,15,89,29,178,64,1,0 // mulps 0x140b2(%rip),%xmm11 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,45,186,64,1,0 // movaps 0x140ba(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,239,60,1,0 // orps 0x13cef(%rip),%xmm13 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
- .byte 68,15,88,29,199,63,1,0 // addps 0x13fc7(%rip),%xmm11 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
- .byte 68,15,40,53,207,63,1,0 // movaps 0x13fcf(%rip),%xmm14 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc>
+ .byte 68,15,86,45,222,61,1,0 // orps 0x13dde(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,29,182,64,1,0 // addps 0x140b6(%rip),%xmm11 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,53,190,64,1,0 // movaps 0x140be(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,207,63,1,0 // addps 0x13fcf(%rip),%xmm13 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc>
- .byte 68,15,40,53,215,63,1,0 // movaps 0x13fd7(%rip),%xmm14 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc>
+ .byte 68,15,88,45,190,64,1,0 // addps 0x140be(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,40,53,198,64,1,0 // movaps 0x140c6(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
.byte 69,15,89,220 // mulps %xmm12,%xmm11
@@ -37382,21 +37877,21 @@ _sk_parametric_r_sse2:
.byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,177,60,1,0 // movaps 0x13cb1(%rip),%xmm12 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,37,160,61,1,0 // movaps 0x13da0(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,84,244 // andps %xmm12,%xmm14
.byte 69,15,92,238 // subps %xmm14,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,169,63,1,0 // addps 0x13fa9(%rip),%xmm11 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec>
- .byte 68,15,40,45,177,63,1,0 // movaps 0x13fb1(%rip),%xmm13 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc>
+ .byte 68,15,88,29,152,64,1,0 // addps 0x14098(%rip),%xmm11 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,40,45,160,64,1,0 // movaps 0x140a0(%rip),%xmm13 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,177,63,1,0 // movaps 0x13fb1(%rip),%xmm13 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c>
+ .byte 68,15,40,45,160,64,1,0 // movaps 0x140a0(%rip),%xmm13 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,181,63,1,0 // movaps 0x13fb5(%rip),%xmm14 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c>
+ .byte 68,15,40,53,164,64,1,0 // movaps 0x140a4(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,181,63,1,0 // mulps 0x13fb5(%rip),%xmm14 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c>
+ .byte 68,15,89,53,164,64,1,0 // mulps 0x140a4(%rip),%xmm14 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
.byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -37435,16 +37930,16 @@ _sk_parametric_g_sse2:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,120,62,1,0 // mulps 0x13e78(%rip),%xmm11 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c>
- .byte 68,15,40,45,128,62,1,0 // movaps 0x13e80(%rip),%xmm13 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c>
+ .byte 68,15,89,29,103,63,1,0 // mulps 0x13f67(%rip),%xmm11 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,45,111,63,1,0 // movaps 0x13f6f(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,164,59,1,0 // orps 0x13ba4(%rip),%xmm13 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
- .byte 68,15,88,29,124,62,1,0 // addps 0x13e7c(%rip),%xmm11 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
- .byte 68,15,40,53,132,62,1,0 // movaps 0x13e84(%rip),%xmm14 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc>
+ .byte 68,15,86,45,147,60,1,0 // orps 0x13c93(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,29,107,63,1,0 // addps 0x13f6b(%rip),%xmm11 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,53,115,63,1,0 // movaps 0x13f73(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,132,62,1,0 // addps 0x13e84(%rip),%xmm13 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc>
- .byte 68,15,40,53,140,62,1,0 // movaps 0x13e8c(%rip),%xmm14 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc>
+ .byte 68,15,88,45,115,63,1,0 // addps 0x13f73(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,40,53,123,63,1,0 // movaps 0x13f7b(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
.byte 69,15,89,220 // mulps %xmm12,%xmm11
@@ -37452,21 +37947,21 @@ _sk_parametric_g_sse2:
.byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,102,59,1,0 // movaps 0x13b66(%rip),%xmm12 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,37,85,60,1,0 // movaps 0x13c55(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,84,244 // andps %xmm12,%xmm14
.byte 69,15,92,238 // subps %xmm14,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,94,62,1,0 // addps 0x13e5e(%rip),%xmm11 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec>
- .byte 68,15,40,45,102,62,1,0 // movaps 0x13e66(%rip),%xmm13 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc>
+ .byte 68,15,88,29,77,63,1,0 // addps 0x13f4d(%rip),%xmm11 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,40,45,85,63,1,0 // movaps 0x13f55(%rip),%xmm13 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,102,62,1,0 // movaps 0x13e66(%rip),%xmm13 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c>
+ .byte 68,15,40,45,85,63,1,0 // movaps 0x13f55(%rip),%xmm13 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,106,62,1,0 // movaps 0x13e6a(%rip),%xmm14 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c>
+ .byte 68,15,40,53,89,63,1,0 // movaps 0x13f59(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,106,62,1,0 // mulps 0x13e6a(%rip),%xmm14 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c>
+ .byte 68,15,89,53,89,63,1,0 // mulps 0x13f59(%rip),%xmm14 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
.byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -37505,16 +38000,16 @@ _sk_parametric_b_sse2:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,45,61,1,0 // mulps 0x13d2d(%rip),%xmm11 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c>
- .byte 68,15,40,45,53,61,1,0 // movaps 0x13d35(%rip),%xmm13 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c>
+ .byte 68,15,89,29,28,62,1,0 // mulps 0x13e1c(%rip),%xmm11 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,45,36,62,1,0 // movaps 0x13e24(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,89,58,1,0 // orps 0x13a59(%rip),%xmm13 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
- .byte 68,15,88,29,49,61,1,0 // addps 0x13d31(%rip),%xmm11 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
- .byte 68,15,40,53,57,61,1,0 // movaps 0x13d39(%rip),%xmm14 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc>
+ .byte 68,15,86,45,72,59,1,0 // orps 0x13b48(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,29,32,62,1,0 // addps 0x13e20(%rip),%xmm11 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,53,40,62,1,0 // movaps 0x13e28(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,57,61,1,0 // addps 0x13d39(%rip),%xmm13 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc>
- .byte 68,15,40,53,65,61,1,0 // movaps 0x13d41(%rip),%xmm14 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc>
+ .byte 68,15,88,45,40,62,1,0 // addps 0x13e28(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,40,53,48,62,1,0 // movaps 0x13e30(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
.byte 69,15,89,220 // mulps %xmm12,%xmm11
@@ -37522,21 +38017,21 @@ _sk_parametric_b_sse2:
.byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,27,58,1,0 // movaps 0x13a1b(%rip),%xmm12 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,37,10,59,1,0 // movaps 0x13b0a(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,84,244 // andps %xmm12,%xmm14
.byte 69,15,92,238 // subps %xmm14,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,19,61,1,0 // addps 0x13d13(%rip),%xmm11 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec>
- .byte 68,15,40,45,27,61,1,0 // movaps 0x13d1b(%rip),%xmm13 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc>
+ .byte 68,15,88,29,2,62,1,0 // addps 0x13e02(%rip),%xmm11 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,40,45,10,62,1,0 // movaps 0x13e0a(%rip),%xmm13 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,27,61,1,0 // movaps 0x13d1b(%rip),%xmm13 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c>
+ .byte 68,15,40,45,10,62,1,0 // movaps 0x13e0a(%rip),%xmm13 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,31,61,1,0 // movaps 0x13d1f(%rip),%xmm14 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c>
+ .byte 68,15,40,53,14,62,1,0 // movaps 0x13e0e(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,31,61,1,0 // mulps 0x13d1f(%rip),%xmm14 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c>
+ .byte 68,15,89,53,14,62,1,0 // mulps 0x13e0e(%rip),%xmm14 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
.byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -37575,16 +38070,16 @@ _sk_parametric_a_sse2:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,226,59,1,0 // mulps 0x13be2(%rip),%xmm11 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c>
- .byte 68,15,40,45,234,59,1,0 // movaps 0x13bea(%rip),%xmm13 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c>
+ .byte 68,15,89,29,209,60,1,0 // mulps 0x13cd1(%rip),%xmm11 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
+ .byte 68,15,40,45,217,60,1,0 // movaps 0x13cd9(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,14,57,1,0 // orps 0x1390e(%rip),%xmm13 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
- .byte 68,15,88,29,230,59,1,0 // addps 0x13be6(%rip),%xmm11 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
- .byte 68,15,40,53,238,59,1,0 // movaps 0x13bee(%rip),%xmm14 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc>
+ .byte 68,15,86,45,253,57,1,0 // orps 0x139fd(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 68,15,88,29,213,60,1,0 // addps 0x13cd5(%rip),%xmm11 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,53,221,60,1,0 // movaps 0x13cdd(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,238,59,1,0 // addps 0x13bee(%rip),%xmm13 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc>
- .byte 68,15,40,53,246,59,1,0 // movaps 0x13bf6(%rip),%xmm14 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc>
+ .byte 68,15,88,45,221,60,1,0 // addps 0x13cdd(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
+ .byte 68,15,40,53,229,60,1,0 // movaps 0x13ce5(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,92,222 // subps %xmm14,%xmm11
.byte 69,15,89,220 // mulps %xmm12,%xmm11
@@ -37592,21 +38087,21 @@ _sk_parametric_a_sse2:
.byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,208,56,1,0 // movaps 0x138d0(%rip),%xmm12 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,37,191,57,1,0 // movaps 0x139bf(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,84,244 // andps %xmm12,%xmm14
.byte 69,15,92,238 // subps %xmm14,%xmm13
.byte 69,15,40,243 // movaps %xmm11,%xmm14
.byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,200,59,1,0 // addps 0x13bc8(%rip),%xmm11 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec>
- .byte 68,15,40,45,208,59,1,0 // movaps 0x13bd0(%rip),%xmm13 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc>
+ .byte 68,15,88,29,183,60,1,0 // addps 0x13cb7(%rip),%xmm11 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 68,15,40,45,191,60,1,0 // movaps 0x13cbf(%rip),%xmm13 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,208,59,1,0 // movaps 0x13bd0(%rip),%xmm13 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c>
+ .byte 68,15,40,45,191,60,1,0 // movaps 0x13cbf(%rip),%xmm13 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,212,59,1,0 // movaps 0x13bd4(%rip),%xmm14 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c>
+ .byte 68,15,40,53,195,60,1,0 // movaps 0x13cc3(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 69,15,94,245 // divps %xmm13,%xmm14
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,212,59,1,0 // mulps 0x13bd4(%rip),%xmm14 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c>
+ .byte 68,15,89,53,195,60,1,0 // mulps 0x13cc3(%rip),%xmm14 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
.byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -37634,21 +38129,21 @@ _sk_gamma_sse2:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 15,40,5,209,58,1,0 // movaps 0x13ad1(%rip),%xmm0 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c>
+ .byte 15,40,5,192,59,1,0 // movaps 0x13bc0(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 68,15,40,5,211,58,1,0 // movaps 0x13ad3(%rip),%xmm8 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c>
+ .byte 68,15,40,5,194,59,1,0 // movaps 0x13bc2(%rip),%xmm8 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,245,55,1,0 // orps 0x137f5(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
- .byte 15,88,53,206,58,1,0 // addps 0x13ace(%rip),%xmm6 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
- .byte 68,15,40,29,214,58,1,0 // movaps 0x13ad6(%rip),%xmm11 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc>
+ .byte 15,86,5,228,56,1,0 // orps 0x138e4(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,88,53,189,59,1,0 // addps 0x13bbd(%rip),%xmm6 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,29,197,59,1,0 // movaps 0x13bc5(%rip),%xmm11 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 15,92,241 // subps %xmm1,%xmm6
- .byte 68,15,40,61,212,58,1,0 // movaps 0x13ad4(%rip),%xmm15 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc>
+ .byte 68,15,40,61,195,59,1,0 // movaps 0x13bc3(%rip),%xmm15 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,45,216,58,1,0 // movaps 0x13ad8(%rip),%xmm13 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc>
+ .byte 68,15,40,45,199,59,1,0 // movaps 0x13bc7(%rip),%xmm13 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 65,15,40,205 // movaps %xmm13,%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,92,241 // subps %xmm1,%xmm6
@@ -37660,23 +38155,23 @@ _sk_gamma_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,13,172,55,1,0 // andps 0x137ac(%rip),%xmm1 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,84,13,155,56,1,0 // andps 0x1389b(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,53,172,58,1,0 // addps 0x13aac(%rip),%xmm6 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec>
- .byte 15,40,21,197,58,1,0 // movaps 0x13ac5(%rip),%xmm2 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c>
+ .byte 15,88,53,155,59,1,0 // addps 0x13b9b(%rip),%xmm6 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 15,40,21,180,59,1,0 // movaps 0x13bb4(%rip),%xmm2 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,163,58,1,0 // movaps 0x13aa3(%rip),%xmm1 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc>
+ .byte 15,40,13,146,59,1,0 // movaps 0x13b92(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
- .byte 68,15,40,53,181,58,1,0 // movaps 0x13ab5(%rip),%xmm14 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c>
+ .byte 68,15,40,53,164,59,1,0 // movaps 0x13ba4(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 68,15,40,13,178,58,1,0 // movaps 0x13ab2(%rip),%xmm9 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c>
+ .byte 68,15,40,13,161,59,1,0 // movaps 0x13ba1(%rip),%xmm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,246 // xorps %xmm6,%xmm6
@@ -37686,9 +38181,9 @@ _sk_gamma_sse2:
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,53,42,55,1,0 // movaps 0x1372a(%rip),%xmm6 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,40,53,25,56,1,0 // movaps 0x13819(%rip),%xmm6 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,86,254 // orps %xmm6,%xmm7
- .byte 15,88,5,0,58,1,0 // addps 0x13a00(%rip),%xmm0 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
+ .byte 15,88,5,239,58,1,0 // addps 0x13aef(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 65,15,89,235 // mulps %xmm11,%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
@@ -37701,12 +38196,12 @@ _sk_gamma_sse2:
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,194,253,1 // cmpltps %xmm5,%xmm7
- .byte 68,15,40,61,255,54,1,0 // movaps 0x136ff(%rip),%xmm15 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,61,238,55,1,0 // movaps 0x137ee(%rip),%xmm15 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,84,255 // andps %xmm15,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,92,253 // subps %xmm5,%xmm7
- .byte 15,88,5,251,57,1,0 // addps 0x139fb(%rip),%xmm0 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec>
+ .byte 15,88,5,234,58,1,0 // addps 0x13aea(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,89,249 // mulps %xmm1,%xmm7
@@ -37720,13 +38215,13 @@ _sk_gamma_sse2:
.byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,102,57,1,0 // mulps 0x13966(%rip),%xmm0 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c>
+ .byte 15,89,5,85,58,1,0 // mulps 0x13a55(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,86,198 // orps %xmm6,%xmm8
- .byte 15,88,5,119,57,1,0 // addps 0x13977(%rip),%xmm0 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
+ .byte 15,88,5,102,58,1,0 // addps 0x13a66(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,135,57,1,0 // addps 0x13987(%rip),%xmm8 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc>
+ .byte 68,15,88,5,118,58,1,0 // addps 0x13a76(%rip),%xmm8 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 69,15,94,232 // divps %xmm8,%xmm13
.byte 65,15,92,197 // subps %xmm13,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
@@ -37738,7 +38233,7 @@ _sk_gamma_sse2:
.byte 15,92,221 // subps %xmm5,%xmm3
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,88,5,122,57,1,0 // addps 0x1397a(%rip),%xmm0 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec>
+ .byte 15,88,5,105,58,1,0 // addps 0x13a69(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 15,89,205 // mulps %xmm5,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,92,213 // subps %xmm5,%xmm2
@@ -37772,21 +38267,21 @@ _sk_gamma_dst_sse2:
.byte 15,41,76,36,184 // movaps %xmm1,-0x48(%rsp)
.byte 15,41,68,36,168 // movaps %xmm0,-0x58(%rsp)
.byte 15,91,221 // cvtdq2ps %xmm5,%xmm3
- .byte 15,40,5,161,56,1,0 // movaps 0x138a1(%rip),%xmm0 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c>
+ .byte 15,40,5,144,57,1,0 // movaps 0x13990(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,5,163,56,1,0 // movaps 0x138a3(%rip),%xmm8 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c>
+ .byte 68,15,40,5,146,57,1,0 // movaps 0x13992(%rip),%xmm8 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,197,53,1,0 // orps 0x135c5(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
- .byte 15,88,29,158,56,1,0 // addps 0x1389e(%rip),%xmm3 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
- .byte 68,15,40,29,166,56,1,0 // movaps 0x138a6(%rip),%xmm11 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc>
+ .byte 15,86,5,180,54,1,0 // orps 0x136b4(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
+ .byte 15,88,29,141,57,1,0 // addps 0x1398d(%rip),%xmm3 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
+ .byte 68,15,40,29,149,57,1,0 // movaps 0x13995(%rip),%xmm11 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 15,92,217 // subps %xmm1,%xmm3
- .byte 68,15,40,61,164,56,1,0 // movaps 0x138a4(%rip),%xmm15 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc>
+ .byte 68,15,40,61,147,57,1,0 // movaps 0x13993(%rip),%xmm15 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,45,168,56,1,0 // movaps 0x138a8(%rip),%xmm13 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc>
+ .byte 68,15,40,45,151,57,1,0 // movaps 0x13997(%rip),%xmm13 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
.byte 65,15,40,205 // movaps %xmm13,%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,92,217 // subps %xmm1,%xmm3
@@ -37798,23 +38293,23 @@ _sk_gamma_dst_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,13,124,53,1,0 // andps 0x1357c(%rip),%xmm1 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,84,13,107,54,1,0 // andps 0x1366b(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,29,124,56,1,0 // addps 0x1387c(%rip),%xmm3 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec>
- .byte 15,40,21,149,56,1,0 // movaps 0x13895(%rip),%xmm2 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c>
+ .byte 15,88,29,107,57,1,0 // addps 0x1396b(%rip),%xmm3 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
+ .byte 15,40,21,132,57,1,0 // movaps 0x13984(%rip),%xmm2 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,115,56,1,0 // movaps 0x13873(%rip),%xmm1 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc>
+ .byte 15,40,13,98,57,1,0 // movaps 0x13962(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,92,216 // subps %xmm0,%xmm3
- .byte 68,15,40,53,133,56,1,0 // movaps 0x13885(%rip),%xmm14 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c>
+ .byte 68,15,40,53,116,57,1,0 // movaps 0x13974(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 15,88,195 // addps %xmm3,%xmm0
- .byte 68,15,40,13,130,56,1,0 // movaps 0x13882(%rip),%xmm9 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c>
+ .byte 68,15,40,13,113,57,1,0 // movaps 0x13971(%rip),%xmm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,219 // xorps %xmm3,%xmm3
@@ -37824,9 +38319,9 @@ _sk_gamma_dst_sse2:
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,29,250,52,1,0 // movaps 0x134fa(%rip),%xmm3 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,40,29,233,53,1,0 // movaps 0x135e9(%rip),%xmm3 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,86,251 // orps %xmm3,%xmm7
- .byte 15,88,5,208,55,1,0 // addps 0x137d0(%rip),%xmm0 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
+ .byte 15,88,5,191,56,1,0 // addps 0x138bf(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
.byte 15,40,247 // movaps %xmm7,%xmm6
.byte 65,15,89,243 // mulps %xmm11,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
@@ -37839,12 +38334,12 @@ _sk_gamma_dst_sse2:
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 68,15,40,61,207,52,1,0 // movaps 0x134cf(%rip),%xmm15 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,61,190,53,1,0 // movaps 0x135be(%rip),%xmm15 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,84,255 // andps %xmm15,%xmm7
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,92,254 // subps %xmm6,%xmm7
- .byte 15,88,5,203,55,1,0 // addps 0x137cb(%rip),%xmm0 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec>
+ .byte 15,88,5,186,56,1,0 // addps 0x138ba(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 15,40,242 // movaps %xmm2,%xmm6
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,89,249 // mulps %xmm1,%xmm7
@@ -37858,13 +38353,13 @@ _sk_gamma_dst_sse2:
.byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,54,55,1,0 // mulps 0x13736(%rip),%xmm0 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c>
+ .byte 15,89,5,37,56,1,0 // mulps 0x13825(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,86,195 // orps %xmm3,%xmm8
- .byte 15,88,5,71,55,1,0 // addps 0x13747(%rip),%xmm0 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac>
+ .byte 15,88,5,54,56,1,0 // addps 0x13836(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,87,55,1,0 // addps 0x13757(%rip),%xmm8 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc>
+ .byte 68,15,88,5,70,56,1,0 // addps 0x13846(%rip),%xmm8 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
.byte 69,15,94,232 // divps %xmm8,%xmm13
.byte 65,15,92,197 // subps %xmm13,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -37876,7 +38371,7 @@ _sk_gamma_dst_sse2:
.byte 15,92,230 // subps %xmm6,%xmm4
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,5,74,55,1,0 // addps 0x1374a(%rip),%xmm0 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec>
+ .byte 15,88,5,57,56,1,0 // addps 0x13839(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,92,214 // subps %xmm6,%xmm2
@@ -37901,29 +38396,29 @@ HIDDEN _sk_lab_to_xyz_sse2
.globl _sk_lab_to_xyz_sse2
FUNCTION(_sk_lab_to_xyz_sse2)
_sk_lab_to_xyz_sse2:
- .byte 15,89,5,72,55,1,0 // mulps 0x13748(%rip),%xmm0 # 3a490 <_sk_srcover_bgra_8888_sse2_lowp+0xf3c>
- .byte 68,15,40,5,192,52,1,0 // movaps 0x134c0(%rip),%xmm8 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
+ .byte 15,89,5,55,56,1,0 // mulps 0x13837(%rip),%xmm0 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
+ .byte 68,15,40,5,175,53,1,0 // movaps 0x135af(%rip),%xmm8 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 68,15,40,13,68,55,1,0 // movaps 0x13744(%rip),%xmm9 # 3a4a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf4c>
+ .byte 68,15,40,13,51,56,1,0 // movaps 0x13833(%rip),%xmm9 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
.byte 65,15,88,201 // addps %xmm9,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 15,88,5,65,55,1,0 // addps 0x13741(%rip),%xmm0 # 3a4b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf5c>
- .byte 15,89,5,74,55,1,0 // mulps 0x1374a(%rip),%xmm0 # 3a4c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf6c>
- .byte 15,89,13,83,55,1,0 // mulps 0x13753(%rip),%xmm1 # 3a4d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf7c>
+ .byte 15,88,5,48,56,1,0 // addps 0x13830(%rip),%xmm0 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
+ .byte 15,89,5,57,56,1,0 // mulps 0x13839(%rip),%xmm0 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
+ .byte 15,89,13,66,56,1,0 // mulps 0x13842(%rip),%xmm1 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,21,89,55,1,0 // mulps 0x13759(%rip),%xmm2 # 3a4e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf8c>
+ .byte 15,89,21,72,56,1,0 // mulps 0x13848(%rip),%xmm2 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 68,15,92,202 // subps %xmm2,%xmm9
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
.byte 68,15,89,225 // mulps %xmm1,%xmm12
- .byte 15,40,21,78,55,1,0 // movaps 0x1374e(%rip),%xmm2 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf9c>
+ .byte 15,40,21,61,56,1,0 // movaps 0x1383d(%rip),%xmm2 # 3af10 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
.byte 68,15,40,194 // movaps %xmm2,%xmm8
.byte 69,15,194,196,1 // cmpltps %xmm12,%xmm8
- .byte 68,15,40,21,77,55,1,0 // movaps 0x1374d(%rip),%xmm10 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0xfac>
+ .byte 68,15,40,21,60,56,1,0 // movaps 0x1383c(%rip),%xmm10 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
.byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 68,15,40,29,81,55,1,0 // movaps 0x13751(%rip),%xmm11 # 3a510 <_sk_srcover_bgra_8888_sse2_lowp+0xfbc>
+ .byte 68,15,40,29,64,56,1,0 // movaps 0x13840(%rip),%xmm11 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 69,15,84,224 // andps %xmm8,%xmm12
.byte 68,15,85,193 // andnps %xmm1,%xmm8
@@ -37947,8 +38442,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,84,194 // andps %xmm2,%xmm0
.byte 65,15,85,209 // andnps %xmm9,%xmm2
.byte 15,86,208 // orps %xmm0,%xmm2
- .byte 68,15,89,5,1,55,1,0 // mulps 0x13701(%rip),%xmm8 # 3a520 <_sk_srcover_bgra_8888_sse2_lowp+0xfcc>
- .byte 15,89,21,10,55,1,0 // mulps 0x1370a(%rip),%xmm2 # 3a530 <_sk_srcover_bgra_8888_sse2_lowp+0xfdc>
+ .byte 68,15,89,5,240,55,1,0 // mulps 0x137f0(%rip),%xmm8 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
+ .byte 15,89,21,249,55,1,0 // mulps 0x137f9(%rip),%xmm2 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -37964,13 +38459,13 @@ _sk_load_a8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 26e74 <_sk_load_a8_sse2+0x46>
+ .byte 117,46 // jne 277a5 <_sk_load_a8_sse2+0x46>
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,132,51,1,0 // pand 0x13384(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,219,5,115,52,1,0 // pand 0x13473(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,218,52,1,0 // mulps 0x134da(%rip),%xmm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 15,89,29,201,53,1,0 // mulps 0x135c9(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
@@ -37979,12 +38474,12 @@ _sk_load_a8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 26eb7 <_sk_load_a8_sse2+0x89>
+ .byte 116,54 // je 277e8 <_sk_load_a8_sse2+0x89>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 26ea0 <_sk_load_a8_sse2+0x72>
+ .byte 116,21 // je 277d1 <_sk_load_a8_sse2+0x72>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 26e54 <_sk_load_a8_sse2+0x26>
+ .byte 117,195 // jne 27785 <_sk_load_a8_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -37993,10 +38488,10 @@ _sk_load_a8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,157 // jmp 26e54 <_sk_load_a8_sse2+0x26>
+ .byte 235,157 // jmp 27785 <_sk_load_a8_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,146 // jmp 26e54 <_sk_load_a8_sse2+0x26>
+ .byte 235,146 // jmp 27785 <_sk_load_a8_sse2+0x26>
HIDDEN _sk_load_a8_dst_sse2
.globl _sk_load_a8_dst_sse2
@@ -38009,13 +38504,13 @@ _sk_load_a8_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 26f08 <_sk_load_a8_dst_sse2+0x46>
+ .byte 117,46 // jne 27839 <_sk_load_a8_dst_sse2+0x46>
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,240,50,1,0 // pand 0x132f0(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,219,37,223,51,1,0 // pand 0x133df(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,70,52,1,0 // mulps 0x13446(%rip),%xmm7 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 15,89,61,53,53,1,0 // mulps 0x13535(%rip),%xmm7 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,87,237 // xorpd %xmm5,%xmm5
@@ -38024,12 +38519,12 @@ _sk_load_a8_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 26f4b <_sk_load_a8_dst_sse2+0x89>
+ .byte 116,54 // je 2787c <_sk_load_a8_dst_sse2+0x89>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 26f34 <_sk_load_a8_dst_sse2+0x72>
+ .byte 116,21 // je 27865 <_sk_load_a8_dst_sse2+0x72>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 26ee8 <_sk_load_a8_dst_sse2+0x26>
+ .byte 117,195 // jne 27819 <_sk_load_a8_dst_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -38038,10 +38533,10 @@ _sk_load_a8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,157 // jmp 26ee8 <_sk_load_a8_dst_sse2+0x26>
+ .byte 235,157 // jmp 27819 <_sk_load_a8_dst_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,146 // jmp 26ee8 <_sk_load_a8_dst_sse2+0x26>
+ .byte 235,146 // jmp 27819 <_sk_load_a8_dst_sse2+0x26>
HIDDEN _sk_gather_a8_sse2
.globl _sk_gather_a8_sse2
@@ -38094,7 +38589,7 @@ _sk_gather_a8_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,32,51,1,0 // mulps 0x13320(%rip),%xmm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 15,89,29,15,52,1,0 // mulps 0x1340f(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -38111,15 +38606,17 @@ _sk_store_a8_sse2:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,199,49,1,0 // movaps 0x131c7(%rip),%xmm8 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
- .byte 68,15,89,195 // mulps %xmm3,%xmm8
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 68,15,95,195 // maxps %xmm3,%xmm8
+ .byte 68,15,93,5,206,49,1,0 // minps 0x131ce(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 68,15,89,5,166,50,1,0 // mulps 0x132a6(%rip),%xmm8 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 2707a <_sk_store_a8_sse2+0x4c>
+ .byte 117,13 // jne 279b7 <_sk_store_a8_sse2+0x58>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,137,4,16 // mov %eax,(%r8,%r10,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -38129,22 +38626,22 @@ _sk_store_a8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 270c7 <_sk_store_a8_sse2+0x99>
+ .byte 116,54 // je 27a04 <_sk_store_a8_sse2+0xa5>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,17 // je 270a8 <_sk_store_a8_sse2+0x7a>
+ .byte 116,17 // je 279e5 <_sk_store_a8_sse2+0x86>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,217 // jne 27076 <_sk_store_a8_sse2+0x48>
+ .byte 117,217 // jne 279b3 <_sk_store_a8_sse2+0x54>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 67,136,68,16,2 // mov %al,0x2(%r8,%r10,1)
- .byte 102,68,15,219,5,47,49,1,0 // pand 0x1312f(%rip),%xmm8 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,68,15,219,5,18,50,1,0 // pand 0x13212(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,16 // mov %ax,(%r8,%r10,1)
- .byte 235,175 // jmp 27076 <_sk_store_a8_sse2+0x48>
+ .byte 235,175 // jmp 279b3 <_sk_store_a8_sse2+0x54>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,136,4,16 // mov %al,(%r8,%r10,1)
- .byte 235,164 // jmp 27076 <_sk_store_a8_sse2+0x48>
+ .byte 235,164 // jmp 279b3 <_sk_store_a8_sse2+0x54>
HIDDEN _sk_load_g8_sse2
.globl _sk_load_g8_sse2
@@ -38157,27 +38654,27 @@ _sk_load_g8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 2711b <_sk_load_g8_sse2+0x49>
+ .byte 117,49 // jne 27a58 <_sk_load_g8_sse2+0x49>
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,224,48,1,0 // pand 0x130e0(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,219,5,195,49,1,0 // pand 0x131c3(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,54,50,1,0 // mulps 0x13236(%rip),%xmm0 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 15,89,5,25,51,1,0 // mulps 0x13319(%rip),%xmm0 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,29,48,1,0 // movaps 0x1301d(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,29,0,49,1,0 // movaps 0x13100(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 2715e <_sk_load_g8_sse2+0x8c>
+ .byte 116,54 // je 27a9b <_sk_load_g8_sse2+0x8c>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 27147 <_sk_load_g8_sse2+0x75>
+ .byte 116,21 // je 27a84 <_sk_load_g8_sse2+0x75>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 270f8 <_sk_load_g8_sse2+0x26>
+ .byte 117,192 // jne 27a35 <_sk_load_g8_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -38186,10 +38683,10 @@ _sk_load_g8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,154 // jmp 270f8 <_sk_load_g8_sse2+0x26>
+ .byte 235,154 // jmp 27a35 <_sk_load_g8_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,143 // jmp 270f8 <_sk_load_g8_sse2+0x26>
+ .byte 235,143 // jmp 27a35 <_sk_load_g8_sse2+0x26>
HIDDEN _sk_load_g8_dst_sse2
.globl _sk_load_g8_dst_sse2
@@ -38202,27 +38699,27 @@ _sk_load_g8_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 271b2 <_sk_load_g8_dst_sse2+0x49>
+ .byte 117,49 // jne 27aef <_sk_load_g8_dst_sse2+0x49>
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,73,48,1,0 // pand 0x13049(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,219,37,44,49,1,0 // pand 0x1312c(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,159,49,1,0 // mulps 0x1319f(%rip),%xmm4 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 15,89,37,130,50,1,0 // mulps 0x13282(%rip),%xmm4 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,134,47,1,0 // movaps 0x12f86(%rip),%xmm7 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,61,105,48,1,0 // movaps 0x13069(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 271f5 <_sk_load_g8_dst_sse2+0x8c>
+ .byte 116,54 // je 27b32 <_sk_load_g8_dst_sse2+0x8c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 271de <_sk_load_g8_dst_sse2+0x75>
+ .byte 116,21 // je 27b1b <_sk_load_g8_dst_sse2+0x75>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 2718f <_sk_load_g8_dst_sse2+0x26>
+ .byte 117,192 // jne 27acc <_sk_load_g8_dst_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -38231,10 +38728,10 @@ _sk_load_g8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,154 // jmp 2718f <_sk_load_g8_dst_sse2+0x26>
+ .byte 235,154 // jmp 27acc <_sk_load_g8_dst_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,143 // jmp 2718f <_sk_load_g8_dst_sse2+0x26>
+ .byte 235,143 // jmp 27acc <_sk_load_g8_dst_sse2+0x26>
HIDDEN _sk_gather_g8_sse2
.globl _sk_gather_g8_sse2
@@ -38287,9 +38784,9 @@ _sk_gather_g8_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,118,48,1,0 // mulps 0x13076(%rip),%xmm0 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 15,89,5,89,49,1,0 // mulps 0x13159(%rip),%xmm0 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,93,46,1,0 // movaps 0x12e5d(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,29,64,47,1,0 // movaps 0x12f40(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -38306,42 +38803,42 @@ _sk_load_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 27349 <_sk_load_565_sse2+0x6e>
+ .byte 117,83 // jne 27c86 <_sk_load_565_sse2+0x6e>
.byte 243,67,15,126,20,80 // movq (%r8,%r10,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,5,72,48,1,0 // movdqa 0x13048(%rip),%xmm0 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc>
+ .byte 102,15,111,5,43,49,1,0 // movdqa 0x1312b(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,74,48,1,0 // mulps 0x1304a(%rip),%xmm0 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c>
- .byte 102,15,111,13,82,48,1,0 // movdqa 0x13052(%rip),%xmm1 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c>
+ .byte 15,89,5,45,49,1,0 // mulps 0x1312d(%rip),%xmm0 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,13,53,49,1,0 // movdqa 0x13135(%rip),%xmm1 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,84,48,1,0 // mulps 0x13054(%rip),%xmm1 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c>
- .byte 102,15,219,21,92,48,1,0 // pand 0x1305c(%rip),%xmm2 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c>
+ .byte 15,89,13,55,49,1,0 // mulps 0x13137(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,15,219,21,63,49,1,0 // pand 0x1313f(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,98,48,1,0 // mulps 0x13062(%rip),%xmm2 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c>
+ .byte 15,89,21,69,49,1,0 // mulps 0x13145(%rip),%xmm2 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,233,45,1,0 // movaps 0x12de9(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,29,204,46,1,0 // movaps 0x12ecc(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 27389 <_sk_load_565_sse2+0xae>
+ .byte 116,51 // je 27cc6 <_sk_load_565_sse2+0xae>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 27375 <_sk_load_565_sse2+0x9a>
+ .byte 116,21 // je 27cb2 <_sk_load_565_sse2+0x9a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 27300 <_sk_load_565_sse2+0x25>
+ .byte 117,154 // jne 27c3d <_sk_load_565_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,208 // movsd %xmm0,%xmm2
- .byte 233,119,255,255,255 // jmpq 27300 <_sk_load_565_sse2+0x25>
+ .byte 233,119,255,255,255 // jmpq 27c3d <_sk_load_565_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,105,255,255,255 // jmpq 27300 <_sk_load_565_sse2+0x25>
+ .byte 233,105,255,255,255 // jmpq 27c3d <_sk_load_565_sse2+0x25>
HIDDEN _sk_load_565_dst_sse2
.globl _sk_load_565_dst_sse2
@@ -38355,42 +38852,42 @@ _sk_load_565_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 27405 <_sk_load_565_dst_sse2+0x6e>
+ .byte 117,83 // jne 27d42 <_sk_load_565_dst_sse2+0x6e>
.byte 243,67,15,126,52,80 // movq (%r8,%r10,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,37,140,47,1,0 // movdqa 0x12f8c(%rip),%xmm4 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc>
+ .byte 102,15,111,37,111,48,1,0 // movdqa 0x1306f(%rip),%xmm4 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,142,47,1,0 // mulps 0x12f8e(%rip),%xmm4 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c>
- .byte 102,15,111,45,150,47,1,0 // movdqa 0x12f96(%rip),%xmm5 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c>
+ .byte 15,89,37,113,48,1,0 // mulps 0x13071(%rip),%xmm4 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,45,121,48,1,0 // movdqa 0x13079(%rip),%xmm5 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,152,47,1,0 // mulps 0x12f98(%rip),%xmm5 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c>
- .byte 102,15,219,53,160,47,1,0 // pand 0x12fa0(%rip),%xmm6 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c>
+ .byte 15,89,45,123,48,1,0 // mulps 0x1307b(%rip),%xmm5 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,15,219,53,131,48,1,0 // pand 0x13083(%rip),%xmm6 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,166,47,1,0 // mulps 0x12fa6(%rip),%xmm6 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c>
+ .byte 15,89,53,137,48,1,0 // mulps 0x13089(%rip),%xmm6 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,45,45,1,0 // movaps 0x12d2d(%rip),%xmm7 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,61,16,46,1,0 // movaps 0x12e10(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 27445 <_sk_load_565_dst_sse2+0xae>
+ .byte 116,51 // je 27d82 <_sk_load_565_dst_sse2+0xae>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 27431 <_sk_load_565_dst_sse2+0x9a>
+ .byte 116,21 // je 27d6e <_sk_load_565_dst_sse2+0x9a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 273bc <_sk_load_565_dst_sse2+0x25>
+ .byte 117,154 // jne 27cf9 <_sk_load_565_dst_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,244 // movsd %xmm4,%xmm6
- .byte 233,119,255,255,255 // jmpq 273bc <_sk_load_565_dst_sse2+0x25>
+ .byte 233,119,255,255,255 // jmpq 27cf9 <_sk_load_565_dst_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,105,255,255,255 // jmpq 273bc <_sk_load_565_dst_sse2+0x25>
+ .byte 233,105,255,255,255 // jmpq 27cf9 <_sk_load_565_dst_sse2+0x25>
HIDDEN _sk_gather_565_sse2
.globl _sk_gather_565_sse2
@@ -38439,19 +38936,19 @@ _sk_gather_565_sse2:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,208,3 // pinsrw $0x3,%eax,%xmm2
.byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2
- .byte 102,15,111,5,59,46,1,0 // movdqa 0x12e3b(%rip),%xmm0 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc>
+ .byte 102,15,111,5,30,47,1,0 // movdqa 0x12f1e(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,61,46,1,0 // mulps 0x12e3d(%rip),%xmm0 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c>
- .byte 102,15,111,13,69,46,1,0 // movdqa 0x12e45(%rip),%xmm1 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c>
+ .byte 15,89,5,32,47,1,0 // mulps 0x12f20(%rip),%xmm0 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
+ .byte 102,15,111,13,40,47,1,0 // movdqa 0x12f28(%rip),%xmm1 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,71,46,1,0 // mulps 0x12e47(%rip),%xmm1 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c>
- .byte 102,15,219,21,79,46,1,0 // pand 0x12e4f(%rip),%xmm2 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c>
+ .byte 15,89,13,42,47,1,0 // mulps 0x12f2a(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
+ .byte 102,15,219,21,50,47,1,0 // pand 0x12f32(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,85,46,1,0 // mulps 0x12e55(%rip),%xmm2 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c>
+ .byte 15,89,21,56,47,1,0 // mulps 0x12f38(%rip),%xmm2 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,220,43,1,0 // movaps 0x12bdc(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,29,191,44,1,0 // movaps 0x12cbf(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse2
@@ -38465,24 +38962,32 @@ _sk_store_565_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,220,47,1,0 // movaps 0x12fdc(%rip),%xmm8 # 3a550 <_sk_srcover_bgra_8888_sse2_lowp+0xffc>
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,200 // maxps %xmm0,%xmm9
+ .byte 68,15,40,21,147,44,1,0 // movaps 0x12c93(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 68,15,40,29,167,48,1,0 // movaps 0x130a7(%rip),%xmm11 # 3af70 <_sk_srcover_bgra_8888_sse2_lowp+0x1008>
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 68,15,40,21,209,47,1,0 // movaps 0x12fd1(%rip),%xmm10 # 3a560 <_sk_srcover_bgra_8888_sse2_lowp+0x100c>
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
- .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
- .byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
- .byte 102,69,15,235,209 // por %xmm9,%xmm10
- .byte 68,15,89,194 // mulps %xmm2,%xmm8
+ .byte 69,15,87,228 // xorps %xmm12,%xmm12
+ .byte 68,15,95,225 // maxps %xmm1,%xmm12
+ .byte 69,15,93,226 // minps %xmm10,%xmm12
+ .byte 68,15,89,37,148,48,1,0 // mulps 0x13094(%rip),%xmm12 # 3af80 <_sk_srcover_bgra_8888_sse2_lowp+0x1018>
+ .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
+ .byte 102,65,15,114,244,5 // pslld $0x5,%xmm12
+ .byte 68,15,95,194 // maxps %xmm2,%xmm8
+ .byte 69,15,93,194 // minps %xmm10,%xmm8
+ .byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
- .byte 102,69,15,86,194 // orpd %xmm10,%xmm8
+ .byte 102,69,15,86,193 // orpd %xmm9,%xmm8
+ .byte 102,69,15,86,196 // orpd %xmm12,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 275d1 <_sk_store_565_sse2+0x7b>
+ .byte 117,10 // jne 27f32 <_sk_store_565_sse2+0x9f>
.byte 102,71,15,214,4,80 // movq %xmm8,(%r8,%r10,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -38490,19 +38995,19 @@ _sk_store_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,38 // je 27609 <_sk_store_565_sse2+0xb3>
+ .byte 116,38 // je 27f6a <_sk_store_565_sse2+0xd7>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 275fb <_sk_store_565_sse2+0xa5>
+ .byte 116,18 // je 27f5c <_sk_store_565_sse2+0xc9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,222 // jne 275cd <_sk_store_565_sse2+0x77>
+ .byte 117,222 // jne 27f2e <_sk_store_565_sse2+0x9b>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,67,137,68,80,4 // mov %ax,0x4(%r8,%r10,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,71,15,126,4,80 // movd %xmm8,(%r8,%r10,2)
- .byte 235,196 // jmp 275cd <_sk_store_565_sse2+0x77>
+ .byte 235,196 // jmp 27f2e <_sk_store_565_sse2+0x9b>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,80 // mov %ax,(%r8,%r10,2)
- .byte 235,184 // jmp 275cd <_sk_store_565_sse2+0x77>
+ .byte 235,184 // jmp 27f2e <_sk_store_565_sse2+0x9b>
HIDDEN _sk_load_4444_sse2
.globl _sk_load_4444_sse2
@@ -38516,45 +39021,45 @@ _sk_load_4444_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 27692 <_sk_load_4444_sse2+0x7d>
+ .byte 117,98 // jne 27ff3 <_sk_load_4444_sse2+0x7d>
.byte 243,67,15,126,28,80 // movq (%r8,%r10,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,5,46,47,1,0 // movdqa 0x12f2e(%rip),%xmm0 # 3a570 <_sk_srcover_bgra_8888_sse2_lowp+0x101c>
+ .byte 102,15,111,5,237,47,1,0 // movdqa 0x12fed(%rip),%xmm0 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,48,47,1,0 // mulps 0x12f30(%rip),%xmm0 # 3a580 <_sk_srcover_bgra_8888_sse2_lowp+0x102c>
- .byte 102,15,111,13,56,47,1,0 // movdqa 0x12f38(%rip),%xmm1 # 3a590 <_sk_srcover_bgra_8888_sse2_lowp+0x103c>
+ .byte 15,89,5,239,47,1,0 // mulps 0x12fef(%rip),%xmm0 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
+ .byte 102,15,111,13,247,47,1,0 // movdqa 0x12ff7(%rip),%xmm1 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,58,47,1,0 // mulps 0x12f3a(%rip),%xmm1 # 3a5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x104c>
- .byte 102,15,111,21,66,47,1,0 // movdqa 0x12f42(%rip),%xmm2 # 3a5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x105c>
+ .byte 15,89,13,249,47,1,0 // mulps 0x12ff9(%rip),%xmm1 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
+ .byte 102,15,111,21,1,48,1,0 // movdqa 0x13001(%rip),%xmm2 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,68,47,1,0 // mulps 0x12f44(%rip),%xmm2 # 3a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x106c>
- .byte 102,15,219,29,76,47,1,0 // pand 0x12f4c(%rip),%xmm3 # 3a5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x107c>
+ .byte 15,89,21,3,48,1,0 // mulps 0x13003(%rip),%xmm2 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
+ .byte 102,15,219,29,11,48,1,0 // pand 0x1300b(%rip),%xmm3 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,82,47,1,0 // mulps 0x12f52(%rip),%xmm3 # 3a5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x108c>
+ .byte 15,89,29,17,48,1,0 // mulps 0x13011(%rip),%xmm3 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 276d2 <_sk_load_4444_sse2+0xbd>
+ .byte 116,51 // je 28033 <_sk_load_4444_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 276be <_sk_load_4444_sse2+0xa9>
+ .byte 116,21 // je 2801f <_sk_load_4444_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 2763a <_sk_load_4444_sse2+0x25>
+ .byte 117,139 // jne 27f9b <_sk_load_4444_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,104,255,255,255 // jmpq 2763a <_sk_load_4444_sse2+0x25>
+ .byte 233,104,255,255,255 // jmpq 27f9b <_sk_load_4444_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,90,255,255,255 // jmpq 2763a <_sk_load_4444_sse2+0x25>
+ .byte 233,90,255,255,255 // jmpq 27f9b <_sk_load_4444_sse2+0x25>
HIDDEN _sk_load_4444_dst_sse2
.globl _sk_load_4444_dst_sse2
@@ -38568,45 +39073,45 @@ _sk_load_4444_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 2775d <_sk_load_4444_dst_sse2+0x7d>
+ .byte 117,98 // jne 280be <_sk_load_4444_dst_sse2+0x7d>
.byte 243,67,15,126,60,80 // movq (%r8,%r10,2),%xmm7
.byte 102,15,97,248 // punpcklwd %xmm0,%xmm7
- .byte 102,15,111,37,99,46,1,0 // movdqa 0x12e63(%rip),%xmm4 # 3a570 <_sk_srcover_bgra_8888_sse2_lowp+0x101c>
+ .byte 102,15,111,37,34,47,1,0 // movdqa 0x12f22(%rip),%xmm4 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,101,46,1,0 // mulps 0x12e65(%rip),%xmm4 # 3a580 <_sk_srcover_bgra_8888_sse2_lowp+0x102c>
- .byte 102,15,111,45,109,46,1,0 // movdqa 0x12e6d(%rip),%xmm5 # 3a590 <_sk_srcover_bgra_8888_sse2_lowp+0x103c>
+ .byte 15,89,37,36,47,1,0 // mulps 0x12f24(%rip),%xmm4 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
+ .byte 102,15,111,45,44,47,1,0 // movdqa 0x12f2c(%rip),%xmm5 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,111,46,1,0 // mulps 0x12e6f(%rip),%xmm5 # 3a5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x104c>
- .byte 102,15,111,53,119,46,1,0 // movdqa 0x12e77(%rip),%xmm6 # 3a5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x105c>
+ .byte 15,89,45,46,47,1,0 // mulps 0x12f2e(%rip),%xmm5 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
+ .byte 102,15,111,53,54,47,1,0 // movdqa 0x12f36(%rip),%xmm6 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,121,46,1,0 // mulps 0x12e79(%rip),%xmm6 # 3a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x106c>
- .byte 102,15,219,61,129,46,1,0 // pand 0x12e81(%rip),%xmm7 # 3a5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x107c>
+ .byte 15,89,53,56,47,1,0 // mulps 0x12f38(%rip),%xmm6 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
+ .byte 102,15,219,61,64,47,1,0 // pand 0x12f40(%rip),%xmm7 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,135,46,1,0 // mulps 0x12e87(%rip),%xmm7 # 3a5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x108c>
+ .byte 15,89,61,70,47,1,0 // mulps 0x12f46(%rip),%xmm7 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 2779d <_sk_load_4444_dst_sse2+0xbd>
+ .byte 116,51 // je 280fe <_sk_load_4444_dst_sse2+0xbd>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 27789 <_sk_load_4444_dst_sse2+0xa9>
+ .byte 116,21 // je 280ea <_sk_load_4444_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 27705 <_sk_load_4444_dst_sse2+0x25>
+ .byte 117,139 // jne 28066 <_sk_load_4444_dst_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 233,104,255,255,255 // jmpq 27705 <_sk_load_4444_dst_sse2+0x25>
+ .byte 233,104,255,255,255 // jmpq 28066 <_sk_load_4444_dst_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,90,255,255,255 // jmpq 27705 <_sk_load_4444_dst_sse2+0x25>
+ .byte 233,90,255,255,255 // jmpq 28066 <_sk_load_4444_dst_sse2+0x25>
HIDDEN _sk_gather_4444_sse2
.globl _sk_gather_4444_sse2
@@ -38655,21 +39160,21 @@ _sk_gather_4444_sse2:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,216,3 // pinsrw $0x3,%eax,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
- .byte 102,15,111,5,3,45,1,0 // movdqa 0x12d03(%rip),%xmm0 # 3a570 <_sk_srcover_bgra_8888_sse2_lowp+0x101c>
+ .byte 102,15,111,5,194,45,1,0 // movdqa 0x12dc2(%rip),%xmm0 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,5,45,1,0 // mulps 0x12d05(%rip),%xmm0 # 3a580 <_sk_srcover_bgra_8888_sse2_lowp+0x102c>
- .byte 102,15,111,13,13,45,1,0 // movdqa 0x12d0d(%rip),%xmm1 # 3a590 <_sk_srcover_bgra_8888_sse2_lowp+0x103c>
+ .byte 15,89,5,196,45,1,0 // mulps 0x12dc4(%rip),%xmm0 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
+ .byte 102,15,111,13,204,45,1,0 // movdqa 0x12dcc(%rip),%xmm1 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,15,45,1,0 // mulps 0x12d0f(%rip),%xmm1 # 3a5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x104c>
- .byte 102,15,111,21,23,45,1,0 // movdqa 0x12d17(%rip),%xmm2 # 3a5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x105c>
+ .byte 15,89,13,206,45,1,0 // mulps 0x12dce(%rip),%xmm1 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
+ .byte 102,15,111,21,214,45,1,0 // movdqa 0x12dd6(%rip),%xmm2 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,25,45,1,0 // mulps 0x12d19(%rip),%xmm2 # 3a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x106c>
- .byte 102,15,219,29,33,45,1,0 // pand 0x12d21(%rip),%xmm3 # 3a5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x107c>
+ .byte 15,89,21,216,45,1,0 // mulps 0x12dd8(%rip),%xmm2 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
+ .byte 102,15,219,29,224,45,1,0 // pand 0x12de0(%rip),%xmm3 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,39,45,1,0 // mulps 0x12d27(%rip),%xmm3 # 3a5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x108c>
+ .byte 15,89,29,230,45,1,0 // mulps 0x12de6(%rip),%xmm3 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -38684,29 +39189,39 @@ _sk_store_4444_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,21,45,1,0 // movaps 0x12d15(%rip),%xmm8 # 3a5f0 <_sk_srcover_bgra_8888_sse2_lowp+0x109c>
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,200 // maxps %xmm0,%xmm9
+ .byte 68,15,40,21,8,41,1,0 // movaps 0x12908(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 68,15,40,29,188,45,1,0 // movaps 0x12dbc(%rip),%xmm11 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8>
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,12 // pslld $0xc,%xmm9
- .byte 68,15,40,209 // movaps %xmm1,%xmm10
- .byte 69,15,89,208 // mulps %xmm8,%xmm10
- .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
- .byte 102,65,15,114,242,8 // pslld $0x8,%xmm10
- .byte 102,69,15,235,209 // por %xmm9,%xmm10
- .byte 68,15,40,202 // movaps %xmm2,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 69,15,87,228 // xorps %xmm12,%xmm12
+ .byte 68,15,95,225 // maxps %xmm1,%xmm12
+ .byte 69,15,93,226 // minps %xmm10,%xmm12
+ .byte 69,15,89,227 // mulps %xmm11,%xmm12
+ .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
+ .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12
+ .byte 102,69,15,235,225 // por %xmm9,%xmm12
+ .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
+ .byte 68,15,95,202 // maxps %xmm2,%xmm9
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,4 // pslld $0x4,%xmm9
- .byte 68,15,89,195 // mulps %xmm3,%xmm8
+ .byte 68,15,95,195 // maxps %xmm3,%xmm8
+ .byte 69,15,93,194 // minps %xmm10,%xmm8
+ .byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,69,15,86,193 // orpd %xmm9,%xmm8
- .byte 102,69,15,86,194 // orpd %xmm10,%xmm8
+ .byte 102,69,15,86,196 // orpd %xmm12,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 2794c <_sk_store_4444_sse2+0x8f>
+ .byte 117,10 // jne 282da <_sk_store_4444_sse2+0xbc>
.byte 102,71,15,214,4,80 // movq %xmm8,(%r8,%r10,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -38714,19 +39229,19 @@ _sk_store_4444_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,38 // je 27984 <_sk_store_4444_sse2+0xc7>
+ .byte 116,38 // je 28312 <_sk_store_4444_sse2+0xf4>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 27976 <_sk_store_4444_sse2+0xb9>
+ .byte 116,18 // je 28304 <_sk_store_4444_sse2+0xe6>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,222 // jne 27948 <_sk_store_4444_sse2+0x8b>
+ .byte 117,222 // jne 282d6 <_sk_store_4444_sse2+0xb8>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,67,137,68,80,4 // mov %ax,0x4(%r8,%r10,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,71,15,126,4,80 // movd %xmm8,(%r8,%r10,2)
- .byte 235,196 // jmp 27948 <_sk_store_4444_sse2+0x8b>
+ .byte 235,196 // jmp 282d6 <_sk_store_4444_sse2+0xb8>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,80 // mov %ax,(%r8,%r10,2)
- .byte 235,184 // jmp 27948 <_sk_store_4444_sse2+0x8b>
+ .byte 235,184 // jmp 282d6 <_sk_store_4444_sse2+0xb8>
HIDDEN _sk_load_8888_sse2
.globl _sk_load_8888_sse2
@@ -38740,13 +39255,13 @@ _sk_load_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 27a0e <_sk_load_8888_sse2+0x7e>
+ .byte 117,98 // jne 2839c <_sk_load_8888_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,21,38,40,1,0 // movdqa 0x12826(%rip),%xmm2 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,111,21,184,40,1,0 // movdqa 0x128b8(%rip),%xmm2 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,114,41,1,0 // movaps 0x12972(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 68,15,40,5,4,42,1,0 // movaps 0x12a04(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -38766,18 +39281,18 @@ _sk_load_8888_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 27a44 <_sk_load_8888_sse2+0xb4>
+ .byte 116,41 // je 283d2 <_sk_load_8888_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 27a39 <_sk_load_8888_sse2+0xa9>
+ .byte 116,19 // je 283c7 <_sk_load_8888_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 279b2 <_sk_load_8888_sse2+0x22>
+ .byte 117,134 // jne 28340 <_sk_load_8888_sse2+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 279b2 <_sk_load_8888_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 28340 <_sk_load_8888_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 279b2 <_sk_load_8888_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 28340 <_sk_load_8888_sse2+0x22>
HIDDEN _sk_load_8888_dst_sse2
.globl _sk_load_8888_dst_sse2
@@ -38791,13 +39306,13 @@ _sk_load_8888_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 27acd <_sk_load_8888_dst_sse2+0x7e>
+ .byte 117,98 // jne 2845b <_sk_load_8888_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,53,103,39,1,0 // movdqa 0x12767(%rip),%xmm6 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,111,53,249,39,1,0 // movdqa 0x127f9(%rip),%xmm6 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,65,15,111,225 // movdqa %xmm9,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,179,40,1,0 // movaps 0x128b3(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 68,15,40,5,69,41,1,0 // movaps 0x12945(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -38817,18 +39332,18 @@ _sk_load_8888_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 27b03 <_sk_load_8888_dst_sse2+0xb4>
+ .byte 116,41 // je 28491 <_sk_load_8888_dst_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 27af8 <_sk_load_8888_dst_sse2+0xa9>
+ .byte 116,19 // je 28486 <_sk_load_8888_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 27a71 <_sk_load_8888_dst_sse2+0x22>
+ .byte 117,134 // jne 283ff <_sk_load_8888_dst_sse2+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 27a71 <_sk_load_8888_dst_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 283ff <_sk_load_8888_dst_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 27a71 <_sk_load_8888_dst_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 283ff <_sk_load_8888_dst_sse2+0x22>
HIDDEN _sk_gather_8888_sse2
.globl _sk_gather_8888_sse2
@@ -38874,11 +39389,11 @@ _sk_gather_8888_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,21,26,38,1,0 // movdqa 0x1261a(%rip),%xmm2 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,111,21,172,38,1,0 // movdqa 0x126ac(%rip),%xmm2 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,102,39,1,0 // movaps 0x12766(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 68,15,40,5,248,39,1,0 // movaps 0x127f8(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -38907,43 +39422,53 @@ _sk_store_8888_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,215,37,1,0 // movaps 0x125d7(%rip),%xmm8 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,200 // maxps %xmm0,%xmm9
+ .byte 68,15,40,21,125,37,1,0 // movaps 0x1257d(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 68,15,40,29,81,38,1,0 // movaps 0x12651(%rip),%xmm11 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 68,15,40,209 // movaps %xmm1,%xmm10
- .byte 69,15,89,208 // mulps %xmm8,%xmm10
- .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
- .byte 102,65,15,114,242,8 // pslld $0x8,%xmm10
- .byte 102,69,15,235,209 // por %xmm9,%xmm10
- .byte 68,15,40,202 // movaps %xmm2,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 69,15,87,228 // xorps %xmm12,%xmm12
+ .byte 68,15,95,225 // maxps %xmm1,%xmm12
+ .byte 69,15,93,226 // minps %xmm10,%xmm12
+ .byte 69,15,89,227 // mulps %xmm11,%xmm12
+ .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
+ .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12
+ .byte 102,69,15,235,225 // por %xmm9,%xmm12
+ .byte 102,69,15,87,201 // xorpd %xmm9,%xmm9
+ .byte 68,15,95,202 // maxps %xmm2,%xmm9
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,16 // pslld $0x10,%xmm9
- .byte 68,15,89,195 // mulps %xmm3,%xmm8
+ .byte 68,15,95,195 // maxps %xmm3,%xmm8
+ .byte 69,15,93,194 // minps %xmm10,%xmm8
+ .byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,24 // pslld $0x18,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 102,69,15,235,194 // por %xmm10,%xmm8
+ .byte 102,69,15,235,196 // por %xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 27c99 <_sk_store_8888_sse2+0x7f>
+ .byte 117,10 // jne 28654 <_sk_store_8888_sse2+0xac>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,33 // je 27cc7 <_sk_store_8888_sse2+0xad>
+ .byte 116,33 // je 28682 <_sk_store_8888_sse2+0xda>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 27cbf <_sk_store_8888_sse2+0xa5>
+ .byte 116,19 // je 2867a <_sk_store_8888_sse2+0xd2>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 27c95 <_sk_store_8888_sse2+0x7b>
+ .byte 117,227 // jne 28650 <_sk_store_8888_sse2+0xa8>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,128,8 // movd %xmm9,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,206 // jmp 27c95 <_sk_store_8888_sse2+0x7b>
+ .byte 235,206 // jmp 28650 <_sk_store_8888_sse2+0xa8>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,198 // jmp 27c95 <_sk_store_8888_sse2+0x7b>
+ .byte 235,198 // jmp 28650 <_sk_store_8888_sse2+0xa8>
HIDDEN _sk_load_bgra_sse2
.globl _sk_load_bgra_sse2
@@ -38957,13 +39482,13 @@ _sk_load_bgra_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 27d4d <_sk_load_bgra_sse2+0x7e>
+ .byte 117,98 // jne 28708 <_sk_load_bgra_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,5,231,36,1,0 // movdqa 0x124e7(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,111,5,76,37,1,0 // movdqa 0x1254c(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,51,38,1,0 // movaps 0x12633(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 68,15,40,5,152,38,1,0 // movaps 0x12698(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -38983,18 +39508,18 @@ _sk_load_bgra_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 27d83 <_sk_load_bgra_sse2+0xb4>
+ .byte 116,41 // je 2873e <_sk_load_bgra_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 27d78 <_sk_load_bgra_sse2+0xa9>
+ .byte 116,19 // je 28733 <_sk_load_bgra_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 27cf1 <_sk_load_bgra_sse2+0x22>
+ .byte 117,134 // jne 286ac <_sk_load_bgra_sse2+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 27cf1 <_sk_load_bgra_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 286ac <_sk_load_bgra_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 27cf1 <_sk_load_bgra_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 286ac <_sk_load_bgra_sse2+0x22>
HIDDEN _sk_load_bgra_dst_sse2
.globl _sk_load_bgra_dst_sse2
@@ -39008,13 +39533,13 @@ _sk_load_bgra_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 27e0c <_sk_load_bgra_dst_sse2+0x7e>
+ .byte 117,98 // jne 287c7 <_sk_load_bgra_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,37,40,36,1,0 // movdqa 0x12428(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,111,37,141,36,1,0 // movdqa 0x1248d(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 68,15,40,5,116,37,1,0 // movaps 0x12574(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 68,15,40,5,217,37,1,0 // movaps 0x125d9(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -39034,18 +39559,18 @@ _sk_load_bgra_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 27e42 <_sk_load_bgra_dst_sse2+0xb4>
+ .byte 116,41 // je 287fd <_sk_load_bgra_dst_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 27e37 <_sk_load_bgra_dst_sse2+0xa9>
+ .byte 116,19 // je 287f2 <_sk_load_bgra_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 27db0 <_sk_load_bgra_dst_sse2+0x22>
+ .byte 117,134 // jne 2876b <_sk_load_bgra_dst_sse2+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 27db0 <_sk_load_bgra_dst_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 2876b <_sk_load_bgra_dst_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 27db0 <_sk_load_bgra_dst_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 2876b <_sk_load_bgra_dst_sse2+0x22>
HIDDEN _sk_gather_bgra_sse2
.globl _sk_gather_bgra_sse2
@@ -39091,11 +39616,11 @@ _sk_gather_bgra_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,5,219,34,1,0 // movdqa 0x122db(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c>
+ .byte 102,15,111,5,64,35,1,0 // movdqa 0x12340(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,39,36,1,0 // movaps 0x12427(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec>
+ .byte 68,15,40,5,140,36,1,0 // movaps 0x1248c(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39124,43 +39649,53 @@ _sk_store_bgra_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,152,34,1,0 // movaps 0x12298(%rip),%xmm8 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
- .byte 68,15,40,202 // movaps %xmm2,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,95,202 // maxps %xmm2,%xmm9
+ .byte 68,15,40,21,17,34,1,0 // movaps 0x12211(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 68,15,40,29,229,34,1,0 // movaps 0x122e5(%rip),%xmm11 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 68,15,40,209 // movaps %xmm1,%xmm10
- .byte 69,15,89,208 // mulps %xmm8,%xmm10
- .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
- .byte 102,65,15,114,242,8 // pslld $0x8,%xmm10
- .byte 102,69,15,235,209 // por %xmm9,%xmm10
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
+ .byte 69,15,87,228 // xorps %xmm12,%xmm12
+ .byte 68,15,95,225 // maxps %xmm1,%xmm12
+ .byte 69,15,93,226 // minps %xmm10,%xmm12
+ .byte 69,15,89,227 // mulps %xmm11,%xmm12
+ .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
+ .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12
+ .byte 102,69,15,235,225 // por %xmm9,%xmm12
+ .byte 102,69,15,87,201 // xorpd %xmm9,%xmm9
+ .byte 68,15,95,200 // maxps %xmm0,%xmm9
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,16 // pslld $0x10,%xmm9
- .byte 68,15,89,195 // mulps %xmm3,%xmm8
+ .byte 68,15,95,195 // maxps %xmm3,%xmm8
+ .byte 69,15,93,194 // minps %xmm10,%xmm8
+ .byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,24 // pslld $0x18,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 102,69,15,235,194 // por %xmm10,%xmm8
+ .byte 102,69,15,235,196 // por %xmm12,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 27fd8 <_sk_store_bgra_sse2+0x7f>
+ .byte 117,10 // jne 289c0 <_sk_store_bgra_sse2+0xac>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,33 // je 28006 <_sk_store_bgra_sse2+0xad>
+ .byte 116,33 // je 289ee <_sk_store_bgra_sse2+0xda>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 27ffe <_sk_store_bgra_sse2+0xa5>
+ .byte 116,19 // je 289e6 <_sk_store_bgra_sse2+0xd2>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 27fd4 <_sk_store_bgra_sse2+0x7b>
+ .byte 117,227 // jne 289bc <_sk_store_bgra_sse2+0xa8>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,128,8 // movd %xmm9,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,206 // jmp 27fd4 <_sk_store_bgra_sse2+0x7b>
+ .byte 235,206 // jmp 289bc <_sk_store_bgra_sse2+0xa8>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,198 // jmp 27fd4 <_sk_store_bgra_sse2+0x7b>
+ .byte 235,198 // jmp 289bc <_sk_store_bgra_sse2+0xa8>
HIDDEN _sk_load_f16_sse2
.globl _sk_load_f16_sse2
@@ -39174,7 +39709,7 @@ _sk_load_f16_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 2815d <_sk_load_f16_sse2+0x14f>
+ .byte 15,133,47,1,0,0 // jne 28b45 <_sk_load_f16_sse2+0x14f>
.byte 102,65,15,16,4,192 // movupd (%r8,%rax,8),%xmm0
.byte 243,65,15,111,76,192,16 // movdqu 0x10(%r8,%rax,8),%xmm1
.byte 102,68,15,40,192 // movapd %xmm0,%xmm8
@@ -39186,18 +39721,18 @@ _sk_load_f16_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,146,37,1,0 // movdqa 0x12592(%rip),%xmm9 # 3a600 <_sk_srcover_bgra_8888_sse2_lowp+0x10ac>
+ .byte 102,68,15,111,13,202,37,1,0 // movdqa 0x125ca(%rip),%xmm9 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,143,37,1,0 // movdqa 0x1258f(%rip),%xmm11 # 3a610 <_sk_srcover_bgra_8888_sse2_lowp+0x10bc>
+ .byte 102,68,15,111,29,199,37,1,0 // movdqa 0x125c7(%rip),%xmm11 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,146,37,1,0 // movdqa 0x12592(%rip),%xmm3 # 3a620 <_sk_srcover_bgra_8888_sse2_lowp+0x10cc>
+ .byte 102,15,111,29,202,37,1,0 // movdqa 0x125ca(%rip),%xmm3 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,129,37,1,0 // movdqa 0x12581(%rip),%xmm12 # 3a630 <_sk_srcover_bgra_8888_sse2_lowp+0x10dc>
+ .byte 102,68,15,111,37,185,37,1,0 // movdqa 0x125b9(%rip),%xmm12 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,210 // punpckhwd %xmm10,%xmm2
@@ -39236,16 +39771,16 @@ _sk_load_f16_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,192 // movsd (%r8,%rax,8),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 28176 <_sk_load_f16_sse2+0x168>
+ .byte 117,13 // jne 28b5e <_sk_load_f16_sse2+0x168>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,197,254,255,255 // jmpq 2803b <_sk_load_f16_sse2+0x2d>
+ .byte 233,197,254,255,255 // jmpq 28a23 <_sk_load_f16_sse2+0x2d>
.byte 102,65,15,22,68,192,8 // movhpd 0x8(%r8,%rax,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 2803b <_sk_load_f16_sse2+0x2d>
+ .byte 15,130,176,254,255,255 // jb 28a23 <_sk_load_f16_sse2+0x2d>
.byte 243,65,15,126,76,192,16 // movq 0x10(%r8,%rax,8),%xmm1
- .byte 233,164,254,255,255 // jmpq 2803b <_sk_load_f16_sse2+0x2d>
+ .byte 233,164,254,255,255 // jmpq 28a23 <_sk_load_f16_sse2+0x2d>
HIDDEN _sk_load_f16_dst_sse2
.globl _sk_load_f16_dst_sse2
@@ -39259,7 +39794,7 @@ _sk_load_f16_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 282e6 <_sk_load_f16_dst_sse2+0x14f>
+ .byte 15,133,47,1,0,0 // jne 28cce <_sk_load_f16_dst_sse2+0x14f>
.byte 102,65,15,16,36,192 // movupd (%r8,%rax,8),%xmm4
.byte 243,65,15,111,108,192,16 // movdqu 0x10(%r8,%rax,8),%xmm5
.byte 102,68,15,40,196 // movapd %xmm4,%xmm8
@@ -39271,18 +39806,18 @@ _sk_load_f16_dst_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,97,234 // punpcklwd %xmm10,%xmm5
- .byte 102,68,15,111,13,9,36,1,0 // movdqa 0x12409(%rip),%xmm9 # 3a600 <_sk_srcover_bgra_8888_sse2_lowp+0x10ac>
+ .byte 102,68,15,111,13,65,36,1,0 // movdqa 0x12441(%rip),%xmm9 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,6,36,1,0 // movdqa 0x12406(%rip),%xmm11 # 3a610 <_sk_srcover_bgra_8888_sse2_lowp+0x10bc>
+ .byte 102,68,15,111,29,62,36,1,0 // movdqa 0x1243e(%rip),%xmm11 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
.byte 102,65,15,219,235 // pand %xmm11,%xmm5
- .byte 102,15,111,61,9,36,1,0 // movdqa 0x12409(%rip),%xmm7 # 3a620 <_sk_srcover_bgra_8888_sse2_lowp+0x10cc>
+ .byte 102,15,111,61,65,36,1,0 // movdqa 0x12441(%rip),%xmm7 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
.byte 102,15,102,229 // pcmpgtd %xmm5,%xmm4
.byte 102,15,114,245,13 // pslld $0xd,%xmm5
.byte 102,65,15,235,236 // por %xmm12,%xmm5
- .byte 102,68,15,111,37,248,35,1,0 // movdqa 0x123f8(%rip),%xmm12 # 3a630 <_sk_srcover_bgra_8888_sse2_lowp+0x10dc>
+ .byte 102,68,15,111,37,48,36,1,0 // movdqa 0x12430(%rip),%xmm12 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
.byte 102,65,15,254,236 // paddd %xmm12,%xmm5
.byte 102,15,223,229 // pandn %xmm5,%xmm4
.byte 102,65,15,105,242 // punpckhwd %xmm10,%xmm6
@@ -39321,16 +39856,16 @@ _sk_load_f16_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,192 // movsd (%r8,%rax,8),%xmm4
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 282ff <_sk_load_f16_dst_sse2+0x168>
+ .byte 117,13 // jne 28ce7 <_sk_load_f16_dst_sse2+0x168>
.byte 243,15,126,228 // movq %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,197,254,255,255 // jmpq 281c4 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 233,197,254,255,255 // jmpq 28bac <_sk_load_f16_dst_sse2+0x2d>
.byte 102,65,15,22,100,192,8 // movhpd 0x8(%r8,%rax,8),%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 281c4 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 15,130,176,254,255,255 // jb 28bac <_sk_load_f16_dst_sse2+0x2d>
.byte 243,65,15,126,108,192,16 // movq 0x10(%r8,%rax,8),%xmm5
- .byte 233,164,254,255,255 // jmpq 281c4 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 233,164,254,255,255 // jmpq 28bac <_sk_load_f16_dst_sse2+0x2d>
HIDDEN _sk_gather_f16_sse2
.globl _sk_gather_f16_sse2
@@ -39384,18 +39919,18 @@ _sk_gather_f16_sse2:
.byte 102,68,15,105,201 // punpckhwd %xmm1,%xmm9
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
- .byte 102,68,15,111,21,7,34,1,0 // movdqa 0x12207(%rip),%xmm10 # 3a600 <_sk_srcover_bgra_8888_sse2_lowp+0x10ac>
+ .byte 102,68,15,111,21,63,34,1,0 // movdqa 0x1223f(%rip),%xmm10 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,226 // pand %xmm10,%xmm12
- .byte 102,68,15,111,29,4,34,1,0 // movdqa 0x12204(%rip),%xmm11 # 3a610 <_sk_srcover_bgra_8888_sse2_lowp+0x10bc>
+ .byte 102,68,15,111,29,60,34,1,0 // movdqa 0x1223c(%rip),%xmm11 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,7,34,1,0 // movdqa 0x12207(%rip),%xmm3 # 3a620 <_sk_srcover_bgra_8888_sse2_lowp+0x10cc>
+ .byte 102,15,111,29,63,34,1,0 // movdqa 0x1223f(%rip),%xmm3 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,246,33,1,0 // movdqa 0x121f6(%rip),%xmm12 # 3a630 <_sk_srcover_bgra_8888_sse2_lowp+0x10dc>
+ .byte 102,68,15,111,37,46,34,1,0 // movdqa 0x1222e(%rip),%xmm12 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,208 // punpckhwd %xmm8,%xmm2
@@ -39438,19 +39973,19 @@ HIDDEN _sk_store_f16_sse2
FUNCTION(_sk_store_f16_sse2)
_sk_store_f16_sse2:
.byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 102,68,15,111,29,74,33,1,0 // movdqa 0x1214a(%rip),%xmm11 # 3a640 <_sk_srcover_bgra_8888_sse2_lowp+0x10ec>
+ .byte 102,68,15,111,29,130,33,1,0 // movdqa 0x12182(%rip),%xmm11 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,69,15,219,195 // pand %xmm11,%xmm8
- .byte 102,68,15,111,21,71,33,1,0 // movdqa 0x12147(%rip),%xmm10 # 3a650 <_sk_srcover_bgra_8888_sse2_lowp+0x10fc>
+ .byte 102,68,15,111,21,127,33,1,0 // movdqa 0x1217f(%rip),%xmm10 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
.byte 102,68,15,111,240 // movdqa %xmm0,%xmm14
.byte 102,69,15,219,242 // pand %xmm10,%xmm14
- .byte 102,15,111,61,69,33,1,0 // movdqa 0x12145(%rip),%xmm7 # 3a660 <_sk_srcover_bgra_8888_sse2_lowp+0x110c>
- .byte 102,68,15,111,37,236,34,1,0 // movdqa 0x122ec(%rip),%xmm12 # 3a810 <_sk_srcover_bgra_8888_sse2_lowp+0x12bc>
+ .byte 102,15,111,61,125,33,1,0 // movdqa 0x1217d(%rip),%xmm7 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
+ .byte 102,68,15,111,37,36,35,1,0 // movdqa 0x12324(%rip),%xmm12 # 3b230 <_sk_srcover_bgra_8888_sse2_lowp+0x12c8>
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
.byte 102,65,15,114,247,3 // pslld $0x3,%xmm15
.byte 102,69,15,219,252 // pand %xmm12,%xmm15
.byte 102,69,15,254,248 // paddd %xmm8,%xmm15
- .byte 102,68,15,111,45,158,29,1,0 // movdqa 0x11d9e(%rip),%xmm13 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd8c>
+ .byte 102,68,15,111,45,214,29,1,0 // movdqa 0x11dd6(%rip),%xmm13 # 3ad00 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
.byte 102,69,15,254,253 // paddd %xmm13,%xmm15
.byte 102,65,15,114,231,16 // psrad $0x10,%xmm15
.byte 102,68,15,111,199 // movdqa %xmm7,%xmm8
@@ -39506,7 +40041,7 @@ _sk_store_f16_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,37 // jne 28674 <_sk_store_f16_sse2+0x18c>
+ .byte 117,37 // jne 2905c <_sk_store_f16_sse2+0x18c>
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,65,15,98,254 // punpckldq %xmm14,%xmm7
.byte 243,65,15,127,60,192 // movdqu %xmm7,(%r8,%rax,8)
@@ -39519,13 +40054,13 @@ _sk_store_f16_sse2:
.byte 102,69,15,98,206 // punpckldq %xmm14,%xmm9
.byte 102,69,15,214,12,192 // movq %xmm9,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,225 // je 2866b <_sk_store_f16_sse2+0x183>
+ .byte 116,225 // je 29053 <_sk_store_f16_sse2+0x183>
.byte 102,69,15,23,76,192,8 // movhpd %xmm9,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,212 // jb 2866b <_sk_store_f16_sse2+0x183>
+ .byte 114,212 // jb 29053 <_sk_store_f16_sse2+0x183>
.byte 102,69,15,106,198 // punpckhdq %xmm14,%xmm8
.byte 102,69,15,214,68,192,16 // movq %xmm8,0x10(%r8,%rax,8)
- .byte 235,198 // jmp 2866b <_sk_store_f16_sse2+0x183>
+ .byte 235,198 // jmp 29053 <_sk_store_f16_sse2+0x183>
HIDDEN _sk_load_u16_be_sse2
.globl _sk_load_u16_be_sse2
@@ -39540,7 +40075,7 @@ _sk_load_u16_be_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,190,0,0,0 // jne 2878a <_sk_load_u16_be_sse2+0xe5>
+ .byte 15,133,190,0,0,0 // jne 29172 <_sk_load_u16_be_sse2+0xe5>
.byte 102,65,15,16,4,64 // movupd (%r8,%rax,2),%xmm0
.byte 243,65,15,111,76,64,16 // movdqu 0x10(%r8,%rax,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -39557,7 +40092,7 @@ _sk_load_u16_be_sse2:
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,5,179,28,1,0 // movaps 0x11cb3(%rip),%xmm8 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe7c>
+ .byte 68,15,40,5,235,28,1,0 // movaps 0x11ceb(%rip),%xmm8 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -39585,16 +40120,16 @@ _sk_load_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,64 // movsd (%r8,%rax,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 287a3 <_sk_load_u16_be_sse2+0xfe>
+ .byte 117,13 // jne 2918b <_sk_load_u16_be_sse2+0xfe>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,54,255,255,255 // jmpq 286d9 <_sk_load_u16_be_sse2+0x34>
+ .byte 233,54,255,255,255 // jmpq 290c1 <_sk_load_u16_be_sse2+0x34>
.byte 102,65,15,22,68,64,8 // movhpd 0x8(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,33,255,255,255 // jb 286d9 <_sk_load_u16_be_sse2+0x34>
+ .byte 15,130,33,255,255,255 // jb 290c1 <_sk_load_u16_be_sse2+0x34>
.byte 243,65,15,126,76,64,16 // movq 0x10(%r8,%rax,2),%xmm1
- .byte 233,21,255,255,255 // jmpq 286d9 <_sk_load_u16_be_sse2+0x34>
+ .byte 233,21,255,255,255 // jmpq 290c1 <_sk_load_u16_be_sse2+0x34>
HIDDEN _sk_load_rgb_u16_be_sse2
.globl _sk_load_rgb_u16_be_sse2
@@ -39611,7 +40146,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,175,0,0,0 // jne 2889e <_sk_load_rgb_u16_be_sse2+0xda>
+ .byte 15,133,175,0,0,0 // jne 29286 <_sk_load_rgb_u16_be_sse2+0xda>
.byte 243,65,15,111,20,64 // movdqu (%r8,%rax,2),%xmm2
.byte 243,65,15,111,92,64,8 // movdqu 0x8(%r8,%rax,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -39632,7 +40167,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,13,125,27,1,0 // movaps 0x11b7d(%rip),%xmm9 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe7c>
+ .byte 68,15,40,13,181,27,1,0 // movaps 0x11bb5(%rip),%xmm9 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -39649,27 +40184,27 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,148,24,1,0 // movaps 0x11894(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,29,204,24,1,0 // movaps 0x118cc(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,84,64,4,2 // pinsrw $0x2,0x4(%r8,%rax,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 288c3 <_sk_load_rgb_u16_be_sse2+0xff>
+ .byte 117,13 // jne 292ab <_sk_load_rgb_u16_be_sse2+0xff>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,80,255,255,255 // jmpq 28813 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,80,255,255,255 // jmpq 291fb <_sk_load_rgb_u16_be_sse2+0x4f>
.byte 102,65,15,110,68,64,6 // movd 0x6(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,68,64,10,2 // pinsrw $0x2,0xa(%r8,%rax,2),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 288f4 <_sk_load_rgb_u16_be_sse2+0x130>
+ .byte 114,24 // jb 292dc <_sk_load_rgb_u16_be_sse2+0x130>
.byte 102,65,15,110,92,64,12 // movd 0xc(%r8,%rax,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,92,64,16,2 // pinsrw $0x2,0x10(%r8,%rax,2),%xmm3
- .byte 233,31,255,255,255 // jmpq 28813 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,31,255,255,255 // jmpq 291fb <_sk_load_rgb_u16_be_sse2+0x4f>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,22,255,255,255 // jmpq 28813 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,22,255,255,255 // jmpq 291fb <_sk_load_rgb_u16_be_sse2+0x4f>
HIDDEN _sk_store_u16_be_sse2
.globl _sk_store_u16_be_sse2
@@ -39683,66 +40218,76 @@ _sk_store_u16_be_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 68,15,40,21,93,29,1,0 // movaps 0x11d5d(%rip),%xmm10 # 3a680 <_sk_srcover_bgra_8888_sse2_lowp+0x112c>
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 69,15,89,194 // mulps %xmm10,%xmm8
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 68,15,95,192 // maxps %xmm0,%xmm8
+ .byte 68,15,40,21,57,24,1,0 // movaps 0x11839(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
+ .byte 69,15,93,194 // minps %xmm10,%xmm8
+ .byte 68,15,40,29,125,29,1,0 // movaps 0x11d7d(%rip),%xmm11 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1138>
+ .byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,65,15,113,241,8 // psllw $0x8,%xmm9
+ .byte 102,69,15,111,224 // movdqa %xmm8,%xmm12
+ .byte 102,65,15,113,244,8 // psllw $0x8,%xmm12
.byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 69,15,89,202 // mulps %xmm10,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9
- .byte 102,65,15,114,225,16 // psrad $0x10,%xmm9
- .byte 102,68,15,107,200 // packssdw %xmm0,%xmm9
- .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
- .byte 102,65,15,113,243,8 // psllw $0x8,%xmm11
- .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
- .byte 102,69,15,235,203 // por %xmm11,%xmm9
- .byte 102,69,15,97,193 // punpcklwd %xmm9,%xmm8
- .byte 68,15,40,202 // movaps %xmm2,%xmm9
- .byte 69,15,89,202 // mulps %xmm10,%xmm9
+ .byte 102,69,15,235,196 // por %xmm12,%xmm8
+ .byte 102,69,15,239,228 // pxor %xmm12,%xmm12
+ .byte 68,15,95,225 // maxps %xmm1,%xmm12
+ .byte 69,15,93,226 // minps %xmm10,%xmm12
+ .byte 69,15,89,227 // mulps %xmm11,%xmm12
+ .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
+ .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
+ .byte 102,65,15,114,228,16 // psrad $0x10,%xmm12
+ .byte 102,68,15,107,224 // packssdw %xmm0,%xmm12
+ .byte 102,69,15,111,236 // movdqa %xmm12,%xmm13
+ .byte 102,65,15,113,245,8 // psllw $0x8,%xmm13
+ .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12
+ .byte 102,69,15,235,229 // por %xmm13,%xmm12
+ .byte 102,69,15,97,196 // punpcklwd %xmm12,%xmm8
+ .byte 102,69,15,239,228 // pxor %xmm12,%xmm12
+ .byte 68,15,95,226 // maxps %xmm2,%xmm12
+ .byte 69,15,93,226 // minps %xmm10,%xmm12
+ .byte 69,15,89,227 // mulps %xmm11,%xmm12
+ .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
+ .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
+ .byte 102,65,15,114,228,16 // psrad $0x10,%xmm12
+ .byte 102,68,15,107,224 // packssdw %xmm0,%xmm12
+ .byte 102,69,15,111,236 // movdqa %xmm12,%xmm13
+ .byte 102,65,15,113,245,8 // psllw $0x8,%xmm13
+ .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12
+ .byte 102,69,15,235,229 // por %xmm13,%xmm12
+ .byte 68,15,95,203 // maxps %xmm3,%xmm9
+ .byte 69,15,93,202 // minps %xmm10,%xmm9
+ .byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,16 // pslld $0x10,%xmm9
.byte 102,65,15,114,225,16 // psrad $0x10,%xmm9
.byte 102,68,15,107,200 // packssdw %xmm0,%xmm9
- .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
- .byte 102,65,15,113,243,8 // psllw $0x8,%xmm11
+ .byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
+ .byte 102,65,15,113,242,8 // psllw $0x8,%xmm10
.byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
- .byte 102,69,15,235,203 // por %xmm11,%xmm9
- .byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
- .byte 102,65,15,114,242,16 // pslld $0x10,%xmm10
- .byte 102,65,15,114,226,16 // psrad $0x10,%xmm10
- .byte 102,68,15,107,208 // packssdw %xmm0,%xmm10
- .byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
- .byte 102,65,15,113,243,8 // psllw $0x8,%xmm11
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,69,15,97,202 // punpcklwd %xmm10,%xmm9
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,69,15,98,209 // punpckldq %xmm9,%xmm10
+ .byte 102,69,15,235,202 // por %xmm10,%xmm9
+ .byte 102,69,15,97,225 // punpcklwd %xmm9,%xmm12
+ .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
+ .byte 102,69,15,98,204 // punpckldq %xmm12,%xmm9
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 28a1d <_sk_store_u16_be_sse2+0x120>
- .byte 69,15,17,20,64 // movups %xmm10,(%r8,%rax,2)
- .byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
+ .byte 117,21 // jne 29433 <_sk_store_u16_be_sse2+0x14e>
+ .byte 69,15,17,12,64 // movups %xmm9,(%r8,%rax,2)
+ .byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
.byte 243,69,15,127,68,64,16 // movdqu %xmm8,0x10(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
- .byte 102,69,15,214,20,64 // movq %xmm10,(%r8,%rax,2)
+ .byte 102,69,15,214,12,64 // movq %xmm9,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 28a19 <_sk_store_u16_be_sse2+0x11c>
- .byte 102,69,15,23,84,64,8 // movhpd %xmm10,0x8(%r8,%rax,2)
+ .byte 116,240 // je 2942f <_sk_store_u16_be_sse2+0x14a>
+ .byte 102,69,15,23,76,64,8 // movhpd %xmm9,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 28a19 <_sk_store_u16_be_sse2+0x11c>
- .byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
+ .byte 114,227 // jb 2942f <_sk_store_u16_be_sse2+0x14a>
+ .byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
.byte 102,69,15,214,68,64,16 // movq %xmm8,0x10(%r8,%rax,2)
- .byte 235,213 // jmp 28a19 <_sk_store_u16_be_sse2+0x11c>
+ .byte 235,213 // jmp 2942f <_sk_store_u16_be_sse2+0x14a>
HIDDEN _sk_load_f32_sse2
.globl _sk_load_f32_sse2
@@ -39758,7 +40303,7 @@ _sk_load_f32_sse2:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 28aaf <_sk_load_f32_sse2+0x6b>
+ .byte 117,66 // jne 294c5 <_sk_load_f32_sse2+0x6b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -39778,17 +40323,17 @@ _sk_load_f32_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 28ac1 <_sk_load_f32_sse2+0x7d>
+ .byte 117,8 // jne 294d7 <_sk_load_f32_sse2+0x7d>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 28a7f <_sk_load_f32_sse2+0x3b>
+ .byte 235,190 // jmp 29495 <_sk_load_f32_sse2+0x3b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 28ad5 <_sk_load_f32_sse2+0x91>
+ .byte 114,8 // jb 294eb <_sk_load_f32_sse2+0x91>
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
- .byte 235,170 // jmp 28a7f <_sk_load_f32_sse2+0x3b>
+ .byte 235,170 // jmp 29495 <_sk_load_f32_sse2+0x3b>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 28a7f <_sk_load_f32_sse2+0x3b>
+ .byte 235,165 // jmp 29495 <_sk_load_f32_sse2+0x3b>
HIDDEN _sk_load_f32_dst_sse2
.globl _sk_load_f32_dst_sse2
@@ -39804,7 +40349,7 @@ _sk_load_f32_dst_sse2:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 28b45 <_sk_load_f32_dst_sse2+0x6b>
+ .byte 117,66 // jne 2955b <_sk_load_f32_dst_sse2+0x6b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -39824,17 +40369,17 @@ _sk_load_f32_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 28b57 <_sk_load_f32_dst_sse2+0x7d>
+ .byte 117,8 // jne 2956d <_sk_load_f32_dst_sse2+0x7d>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 28b15 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,190 // jmp 2952b <_sk_load_f32_dst_sse2+0x3b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 28b6b <_sk_load_f32_dst_sse2+0x91>
+ .byte 114,8 // jb 29581 <_sk_load_f32_dst_sse2+0x91>
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
- .byte 235,170 // jmp 28b15 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,170 // jmp 2952b <_sk_load_f32_dst_sse2+0x3b>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 28b15 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,165 // jmp 2952b <_sk_load_f32_dst_sse2+0x3b>
HIDDEN _sk_store_f32_sse2
.globl _sk_store_f32_sse2
@@ -39863,7 +40408,7 @@ _sk_store_f32_sse2:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,69,15,17,36,128 // movupd %xmm12,(%r8,%rax,4)
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 28bed <_sk_store_f32_sse2+0x7d>
+ .byte 117,29 // jne 29603 <_sk_store_f32_sse2+0x7d>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
@@ -39871,12 +40416,12 @@ _sk_store_f32_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 28be9 <_sk_store_f32_sse2+0x79>
+ .byte 116,246 // je 295ff <_sk_store_f32_sse2+0x79>
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 28be9 <_sk_store_f32_sse2+0x79>
+ .byte 114,234 // jb 295ff <_sk_store_f32_sse2+0x79>
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
- .byte 235,225 // jmp 28be9 <_sk_store_f32_sse2+0x79>
+ .byte 235,225 // jmp 295ff <_sk_store_f32_sse2+0x79>
HIDDEN _sk_repeat_x_sse2
.globl _sk_repeat_x_sse2
@@ -39890,7 +40435,7 @@ _sk_repeat_x_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,252,20,1,0 // andps 0x114fc(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,84,13,6,21,1,0 // andps 0x11506(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
@@ -39910,7 +40455,7 @@ _sk_repeat_y_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,187,20,1,0 // andps 0x114bb(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,84,13,197,20,1,0 // andps 0x114c5(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
@@ -39930,13 +40475,13 @@ _sk_mirror_x_sse2:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,73,11,1,0 // mulss 0x10b49(%rip),%xmm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,71,11,1,0 // mulss 0x10b47(%rip),%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,90,20,1,0 // andps 0x1145a(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,84,13,100,20,1,0 // andps 0x11464(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,217 // subps %xmm9,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -39959,13 +40504,13 @@ _sk_mirror_y_sse2:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,221,10,1,0 // mulss 0x10add(%rip),%xmm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,13,219,10,1,0 // mulss 0x10adb(%rip),%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,238,19,1,0 // andps 0x113ee(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,84,13,248,19,1,0 // andps 0x113f8(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,217 // subps %xmm9,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -39982,7 +40527,7 @@ FUNCTION(_sk_clamp_x_1_sse2)
_sk_clamp_x_1_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,190,19,1,0 // minps 0x113be(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,93,5,200,19,1,0 // minps 0x113c8(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -39995,7 +40540,7 @@ _sk_repeat_x_1_sse2:
.byte 69,15,91,200 // cvtdq2ps %xmm8,%xmm9
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 69,15,194,209,1 // cmpltps %xmm9,%xmm10
- .byte 68,15,40,29,156,19,1,0 // movaps 0x1139c(%rip),%xmm11 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,29,166,19,1,0 // movaps 0x113a6(%rip),%xmm11 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,84,211 // andps %xmm11,%xmm10
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -40010,14 +40555,14 @@ HIDDEN _sk_mirror_x_1_sse2
.globl _sk_mirror_x_1_sse2
FUNCTION(_sk_mirror_x_1_sse2)
_sk_mirror_x_1_sse2:
- .byte 68,15,40,13,212,19,1,0 // movaps 0x113d4(%rip),%xmm9 # 3a190 <_sk_srcover_bgra_8888_sse2_lowp+0xc3c>
+ .byte 68,15,40,13,222,19,1,0 // movaps 0x113de(%rip),%xmm9 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
.byte 65,15,88,193 // addps %xmm9,%xmm0
- .byte 68,15,40,21,88,19,1,0 // movaps 0x11358(%rip),%xmm10 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,40,21,98,19,1,0 // movaps 0x11362(%rip),%xmm10 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,89,208 // mulps %xmm0,%xmm10
.byte 243,69,15,91,194 // cvttps2dq %xmm10,%xmm8
.byte 69,15,91,216 // cvtdq2ps %xmm8,%xmm11
.byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
- .byte 68,15,40,37,78,19,1,0 // movaps 0x1134e(%rip),%xmm12 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,37,88,19,1,0 // movaps 0x11358(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,84,212 // andps %xmm12,%xmm10
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,218 // subps %xmm10,%xmm11
@@ -40038,10 +40583,10 @@ HIDDEN _sk_luminance_to_alpha_sse2
FUNCTION(_sk_luminance_to_alpha_sse2)
_sk_luminance_to_alpha_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,112,24,1,0 // mulps 0x11870(%rip),%xmm0 # 3a690 <_sk_srcover_bgra_8888_sse2_lowp+0x113c>
- .byte 15,89,13,121,24,1,0 // mulps 0x11879(%rip),%xmm1 # 3a6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x114c>
+ .byte 15,89,5,122,24,1,0 // mulps 0x1187a(%rip),%xmm0 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1148>
+ .byte 15,89,13,131,24,1,0 // mulps 0x11883(%rip),%xmm1 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1158>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,127,24,1,0 // mulps 0x1187f(%rip),%xmm3 # 3a6b0 <_sk_srcover_bgra_8888_sse2_lowp+0x115c>
+ .byte 15,89,29,137,24,1,0 // mulps 0x11889(%rip),%xmm3 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1168>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -40353,9 +40898,9 @@ _sk_evenly_spaced_gradient_sse2:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 292d1 <_sk_evenly_spaced_gradient_sse2+0x18>
+ .byte 120,7 // js 29ce7 <_sk_evenly_spaced_gradient_sse2+0x18>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 292e6 <_sk_evenly_spaced_gradient_sse2+0x2d>
+ .byte 235,21 // jmp 29cfc <_sk_evenly_spaced_gradient_sse2+0x2d>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -40457,7 +41002,7 @@ _sk_gradient_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 294aa <_sk_gradient_sse2+0x38>
+ .byte 114,41 // jb 29ec0 <_sk_gradient_sse2+0x38>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 73,255,200 // dec %r8
.byte 73,131,193,4 // add $0x4,%r9
@@ -40468,7 +41013,7 @@ _sk_gradient_sse2:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 73,131,193,4 // add $0x4,%r9
.byte 73,255,200 // dec %r8
- .byte 117,230 // jne 29490 <_sk_gradient_sse2+0x1e>
+ .byte 117,230 // jne 29ea6 <_sk_gradient_sse2+0x1e>
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
@@ -40608,29 +41153,29 @@ _sk_xy_to_unit_angle_sse2:
.byte 69,15,94,220 // divps %xmm12,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
- .byte 68,15,40,45,219,15,1,0 // movaps 0x10fdb(%rip),%xmm13 # 3a6c0 <_sk_srcover_bgra_8888_sse2_lowp+0x116c>
+ .byte 68,15,40,45,229,15,1,0 // movaps 0x10fe5(%rip),%xmm13 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,223,15,1,0 // addps 0x10fdf(%rip),%xmm13 # 3a6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x117c>
+ .byte 68,15,88,45,233,15,1,0 // addps 0x10fe9(%rip),%xmm13 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,227,15,1,0 // addps 0x10fe3(%rip),%xmm13 # 3a6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x118c>
+ .byte 68,15,88,45,237,15,1,0 // addps 0x10fed(%rip),%xmm13 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,231,15,1,0 // addps 0x10fe7(%rip),%xmm13 # 3a6f0 <_sk_srcover_bgra_8888_sse2_lowp+0x119c>
+ .byte 68,15,88,45,241,15,1,0 // addps 0x10ff1(%rip),%xmm13 # 3b110 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,40,21,230,15,1,0 // movaps 0x10fe6(%rip),%xmm10 # 3a700 <_sk_srcover_bgra_8888_sse2_lowp+0x11ac>
+ .byte 68,15,40,21,240,15,1,0 // movaps 0x10ff0(%rip),%xmm10 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
.byte 69,15,92,213 // subps %xmm13,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,205 // andnps %xmm13,%xmm9
.byte 69,15,86,202 // orps %xmm10,%xmm9
.byte 68,15,194,192,1 // cmpltps %xmm0,%xmm8
- .byte 68,15,40,21,233,9,1,0 // movaps 0x109e9(%rip),%xmm10 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,40,21,243,9,1,0 // movaps 0x109f3(%rip),%xmm10 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,84,208 // andps %xmm8,%xmm10
.byte 69,15,85,193 // andnps %xmm9,%xmm8
.byte 69,15,86,194 // orps %xmm10,%xmm8
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,194,200,1 // cmpltps %xmm0,%xmm9
- .byte 68,15,40,21,216,9,1,0 // movaps 0x109d8(%rip),%xmm10 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,21,226,9,1,0 // movaps 0x109e2(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,208 // subps %xmm8,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,200 // andnps %xmm8,%xmm9
@@ -40666,7 +41211,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 68,15,89,13,76,15,1,0 // mulps 0x10f4c(%rip),%xmm9 # 3a710 <_sk_srcover_bgra_8888_sse2_lowp+0x11bc>
+ .byte 68,15,89,13,86,15,1,0 // mulps 0x10f56(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -40674,7 +41219,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,54,15,1,0 // mulps 0x10f36(%rip),%xmm10 # 3a720 <_sk_srcover_bgra_8888_sse2_lowp+0x11cc>
+ .byte 68,15,89,21,64,15,1,0 // mulps 0x10f40(%rip),%xmm10 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
@@ -40682,7 +41227,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 69,15,81,192 // sqrtps %xmm8,%xmm8
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
.byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 15,89,5,19,9,1,0 // mulps 0x10913(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,89,5,29,9,1,0 // mulps 0x1091d(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40701,7 +41246,7 @@ _sk_xy_to_2pt_conical_quadratic_second_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 68,15,89,13,195,14,1,0 // mulps 0x10ec3(%rip),%xmm9 # 3a710 <_sk_srcover_bgra_8888_sse2_lowp+0x11bc>
+ .byte 68,15,89,13,205,14,1,0 // mulps 0x10ecd(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -40709,16 +41254,16 @@ _sk_xy_to_2pt_conical_quadratic_second_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,173,14,1,0 // mulps 0x10ead(%rip),%xmm10 # 3a720 <_sk_srcover_bgra_8888_sse2_lowp+0x11cc>
+ .byte 68,15,89,21,183,14,1,0 // mulps 0x10eb7(%rip),%xmm10 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
.byte 69,15,88,194 // addps %xmm10,%xmm8
.byte 69,15,81,192 // sqrtps %xmm8,%xmm8
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 68,15,87,13,173,13,1,0 // xorps 0x10dad(%rip),%xmm9 # 3a640 <_sk_srcover_bgra_8888_sse2_lowp+0x10ec>
+ .byte 68,15,87,13,183,13,1,0 // xorps 0x10db7(%rip),%xmm9 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 15,89,5,130,8,1,0 // mulps 0x10882(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,89,5,140,8,1,0 // mulps 0x1088c(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40733,7 +41278,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,70,14,1,0 // mulps 0x10e46(%rip),%xmm9 # 3a710 <_sk_srcover_bgra_8888_sse2_lowp+0x11bc>
+ .byte 68,15,89,13,80,14,1,0 // mulps 0x10e50(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -40741,7 +41286,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,82,13,1,0 // xorps 0x10d52(%rip),%xmm0 # 3a640 <_sk_srcover_bgra_8888_sse2_lowp+0x10ec>
+ .byte 15,87,5,92,13,1,0 // xorps 0x10d5c(%rip),%xmm0 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40787,7 +41332,7 @@ HIDDEN _sk_save_xy_sse2
FUNCTION(_sk_save_xy_sse2)
_sk_save_xy_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,185,7,1,0 // movaps 0x107b9(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,40,5,195,7,1,0 // movaps 0x107c3(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -40795,7 +41340,7 @@ _sk_save_xy_sse2:
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,40,217 // movaps %xmm9,%xmm11
.byte 69,15,194,218,1 // cmpltps %xmm10,%xmm11
- .byte 68,15,40,37,164,7,1,0 // movaps 0x107a4(%rip),%xmm12 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,37,174,7,1,0 // movaps 0x107ae(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,92,211 // subps %xmm11,%xmm10
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -40842,8 +41387,8 @@ _sk_bilinear_nx_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,4,13,1,0 // addps 0x10d04(%rip),%xmm0 # 3a730 <_sk_srcover_bgra_8888_sse2_lowp+0x11dc>
- .byte 68,15,40,13,252,6,1,0 // movaps 0x106fc(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,88,5,14,13,1,0 // addps 0x10d0e(%rip),%xmm0 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,40,13,6,7,1,0 // movaps 0x10706(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40856,7 +41401,7 @@ _sk_bilinear_px_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,200,6,1,0 // addps 0x106c8(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,88,5,210,6,1,0 // addps 0x106d2(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40868,8 +41413,8 @@ _sk_bilinear_ny_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,183,12,1,0 // addps 0x10cb7(%rip),%xmm1 # 3a730 <_sk_srcover_bgra_8888_sse2_lowp+0x11dc>
- .byte 68,15,40,13,175,6,1,0 // movaps 0x106af(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,88,13,193,12,1,0 // addps 0x10cc1(%rip),%xmm1 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,40,13,185,6,1,0 // movaps 0x106b9(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40882,7 +41427,7 @@ _sk_bilinear_py_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,122,6,1,0 // addps 0x1067a(%rip),%xmm1 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,88,13,132,6,1,0 // addps 0x10684(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40894,13 +41439,13 @@ _sk_bicubic_n3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,122,12,1,0 // addps 0x10c7a(%rip),%xmm0 # 3a740 <_sk_srcover_bgra_8888_sse2_lowp+0x11ec>
- .byte 68,15,40,13,98,6,1,0 // movaps 0x10662(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,88,5,132,12,1,0 // addps 0x10c84(%rip),%xmm0 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
+ .byte 68,15,40,13,108,6,1,0 // movaps 0x1066c(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,110,12,1,0 // mulps 0x10c6e(%rip),%xmm9 # 3a750 <_sk_srcover_bgra_8888_sse2_lowp+0x11fc>
- .byte 68,15,88,13,70,8,1,0 // addps 0x10846(%rip),%xmm9 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc>
+ .byte 68,15,89,13,120,12,1,0 // mulps 0x10c78(%rip),%xmm9 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,88,13,80,8,1,0 // addps 0x10850(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40913,16 +41458,16 @@ _sk_bicubic_n1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,34,12,1,0 // addps 0x10c22(%rip),%xmm0 # 3a730 <_sk_srcover_bgra_8888_sse2_lowp+0x11dc>
- .byte 68,15,40,13,26,6,1,0 // movaps 0x1061a(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,88,5,44,12,1,0 // addps 0x10c2c(%rip),%xmm0 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,40,13,36,6,1,0 // movaps 0x10624(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,62,12,1,0 // movaps 0x10c3e(%rip),%xmm8 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x120c>
+ .byte 68,15,40,5,72,12,1,0 // movaps 0x10c48(%rip),%xmm8 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,66,12,1,0 // addps 0x10c42(%rip),%xmm8 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c>
+ .byte 68,15,88,5,76,12,1,0 // addps 0x10c4c(%rip),%xmm8 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,230,5,1,0 // addps 0x105e6(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,88,5,240,5,1,0 // addps 0x105f0(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,58,12,1,0 // addps 0x10c3a(%rip),%xmm8 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x122c>
+ .byte 68,15,88,5,68,12,1,0 // addps 0x10c44(%rip),%xmm8 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40932,17 +41477,17 @@ HIDDEN _sk_bicubic_p1x_sse2
FUNCTION(_sk_bicubic_p1x_sse2)
_sk_bicubic_p1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,196,5,1,0 // movaps 0x105c4(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,40,5,206,5,1,0 // movaps 0x105ce(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,136,128,0,0,0 // movups 0x80(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,237,11,1,0 // movaps 0x10bed(%rip),%xmm10 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x120c>
+ .byte 68,15,40,21,247,11,1,0 // movaps 0x10bf7(%rip),%xmm10 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,241,11,1,0 // addps 0x10bf1(%rip),%xmm10 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c>
+ .byte 68,15,88,21,251,11,1,0 // addps 0x10bfb(%rip),%xmm10 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,237,11,1,0 // addps 0x10bed(%rip),%xmm10 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x122c>
+ .byte 68,15,88,21,247,11,1,0 // addps 0x10bf7(%rip),%xmm10 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 68,15,17,144,0,1,0,0 // movups %xmm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40954,11 +41499,11 @@ _sk_bicubic_p3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,189,11,1,0 // addps 0x10bbd(%rip),%xmm0 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c>
+ .byte 15,88,5,199,11,1,0 // addps 0x10bc7(%rip),%xmm0 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,141,11,1,0 // mulps 0x10b8d(%rip),%xmm8 # 3a750 <_sk_srcover_bgra_8888_sse2_lowp+0x11fc>
- .byte 68,15,88,5,101,7,1,0 // addps 0x10765(%rip),%xmm8 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc>
+ .byte 68,15,89,5,151,11,1,0 // mulps 0x10b97(%rip),%xmm8 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,88,5,111,7,1,0 // addps 0x1076f(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40971,13 +41516,13 @@ _sk_bicubic_n3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,80,11,1,0 // addps 0x10b50(%rip),%xmm1 # 3a740 <_sk_srcover_bgra_8888_sse2_lowp+0x11ec>
- .byte 68,15,40,13,56,5,1,0 // movaps 0x10538(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,88,13,90,11,1,0 // addps 0x10b5a(%rip),%xmm1 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
+ .byte 68,15,40,13,66,5,1,0 // movaps 0x10542(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,68,11,1,0 // mulps 0x10b44(%rip),%xmm9 # 3a750 <_sk_srcover_bgra_8888_sse2_lowp+0x11fc>
- .byte 68,15,88,13,28,7,1,0 // addps 0x1071c(%rip),%xmm9 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc>
+ .byte 68,15,89,13,78,11,1,0 // mulps 0x10b4e(%rip),%xmm9 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,88,13,38,7,1,0 // addps 0x10726(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40990,16 +41535,16 @@ _sk_bicubic_n1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,247,10,1,0 // addps 0x10af7(%rip),%xmm1 # 3a730 <_sk_srcover_bgra_8888_sse2_lowp+0x11dc>
- .byte 68,15,40,13,239,4,1,0 // movaps 0x104ef(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,88,13,1,11,1,0 // addps 0x10b01(%rip),%xmm1 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
+ .byte 68,15,40,13,249,4,1,0 // movaps 0x104f9(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,19,11,1,0 // movaps 0x10b13(%rip),%xmm8 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x120c>
+ .byte 68,15,40,5,29,11,1,0 // movaps 0x10b1d(%rip),%xmm8 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,23,11,1,0 // addps 0x10b17(%rip),%xmm8 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c>
+ .byte 68,15,88,5,33,11,1,0 // addps 0x10b21(%rip),%xmm8 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,187,4,1,0 // addps 0x104bb(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,88,5,197,4,1,0 // addps 0x104c5(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,15,11,1,0 // addps 0x10b0f(%rip),%xmm8 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x122c>
+ .byte 68,15,88,5,25,11,1,0 // addps 0x10b19(%rip),%xmm8 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41009,17 +41554,17 @@ HIDDEN _sk_bicubic_p1y_sse2
FUNCTION(_sk_bicubic_p1y_sse2)
_sk_bicubic_p1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,153,4,1,0 // movaps 0x10499(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,40,5,163,4,1,0 // movaps 0x104a3(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,136,192,0,0,0 // movups 0xc0(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,193,10,1,0 // movaps 0x10ac1(%rip),%xmm10 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x120c>
+ .byte 68,15,40,21,203,10,1,0 // movaps 0x10acb(%rip),%xmm10 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,197,10,1,0 // addps 0x10ac5(%rip),%xmm10 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c>
+ .byte 68,15,88,21,207,10,1,0 // addps 0x10acf(%rip),%xmm10 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,193,10,1,0 // addps 0x10ac1(%rip),%xmm10 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x122c>
+ .byte 68,15,88,21,203,10,1,0 // addps 0x10acb(%rip),%xmm10 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
.byte 68,15,17,144,64,1,0,0 // movups %xmm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41031,11 +41576,11 @@ _sk_bicubic_p3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,144,10,1,0 // addps 0x10a90(%rip),%xmm1 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c>
+ .byte 15,88,13,154,10,1,0 // addps 0x10a9a(%rip),%xmm1 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,96,10,1,0 // mulps 0x10a60(%rip),%xmm8 # 3a750 <_sk_srcover_bgra_8888_sse2_lowp+0x11fc>
- .byte 68,15,88,5,56,6,1,0 // addps 0x10638(%rip),%xmm8 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc>
+ .byte 68,15,89,5,106,10,1,0 // mulps 0x10a6a(%rip),%xmm8 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
+ .byte 68,15,88,5,66,6,1,0 // addps 0x10642(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41180,7 +41725,7 @@ _sk_clut_3D_sse2:
.byte 102,65,15,254,205 // paddd %xmm13,%xmm1
.byte 102,68,15,127,108,36,208 // movdqa %xmm13,-0x30(%rsp)
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,5,167,8,1,0 // movdqa 0x108a7(%rip),%xmm8 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c>
+ .byte 102,68,15,111,5,177,8,1,0 // movdqa 0x108b1(%rip),%xmm8 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,65,15,244,216 // pmuludq %xmm8,%xmm3
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
@@ -41219,7 +41764,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,37,174,1,1,0 // movdqa 0x101ae(%rip),%xmm12 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,68,15,111,37,184,1,1,0 // movdqa 0x101b8(%rip),%xmm12 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,65,15,254,196 // paddd %xmm12,%xmm0
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -41235,7 +41780,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
.byte 15,20,224 // unpcklps %xmm0,%xmm4
.byte 102,15,20,236 // unpcklpd %xmm4,%xmm5
- .byte 15,40,37,147,7,1,0 // movaps 0x10793(%rip),%xmm4 # 3a790 <_sk_srcover_bgra_8888_sse2_lowp+0x123c>
+ .byte 15,40,37,157,7,1,0 // movaps 0x1079d(%rip),%xmm4 # 3b1b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
.byte 68,15,88,220 // addps %xmm4,%xmm11
.byte 68,15,41,92,36,192 // movaps %xmm11,-0x40(%rsp)
.byte 68,15,40,223 // movaps %xmm7,%xmm11
@@ -41271,7 +41816,7 @@ _sk_clut_3D_sse2:
.byte 15,20,249 // unpcklps %xmm1,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,8,7,1,0 // psubd 0x10708(%rip),%xmm1 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c>
+ .byte 102,15,250,13,18,7,1,0 // psubd 0x10712(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -41361,7 +41906,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,233 // unpcklps %xmm1,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,45,32,255,0,0 // movdqa 0xff20(%rip),%xmm13 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,68,15,111,45,42,255,0,0 // movdqa 0xff2a(%rip),%xmm13 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,65,15,254,197 // paddd %xmm13,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
@@ -41458,7 +42003,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
- .byte 102,15,111,29,163,3,1,0 // movdqa 0x103a3(%rip),%xmm3 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c>
+ .byte 102,15,111,29,173,3,1,0 // movdqa 0x103ad(%rip),%xmm3 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,244,203 // pmuludq %xmm3,%xmm1
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -41496,7 +42041,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,213 // unpcklpd %xmm5,%xmm2
- .byte 102,15,111,5,179,252,0,0 // movdqa 0xfcb3(%rip),%xmm0 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,15,111,5,189,252,0,0 // movdqa 0xfcbd(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -41577,7 +42122,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,65,15,254,212 // paddd %xmm12,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,128,1,1,0 // movdqa 0x10180(%rip),%xmm1 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c>
+ .byte 102,15,111,13,138,1,1,0 // movdqa 0x1018a(%rip),%xmm1 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -41599,7 +42144,7 @@ _sk_clut_3D_sse2:
.byte 68,15,20,209 // unpcklps %xmm1,%xmm10
.byte 102,68,15,20,210 // unpcklpd %xmm2,%xmm10
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,37,1,1,0 // psubd 0x10125(%rip),%xmm1 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c>
+ .byte 102,15,250,13,47,1,1,0 // psubd 0x1012f(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -41614,7 +42159,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
- .byte 102,15,254,5,144,250,0,0 // paddd 0xfa90(%rip),%xmm0 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,15,254,5,154,250,0,0 // paddd 0xfa9a(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -41651,7 +42196,7 @@ _sk_clut_3D_sse2:
.byte 15,20,199 // unpcklps %xmm7,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,47,0,1,0 // psubd 0x1002f(%rip),%xmm1 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c>
+ .byte 102,15,250,13,57,0,1,0 // psubd 0x10039(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,249,78 // pshufd $0x4e,%xmm1,%xmm7
.byte 102,73,15,126,248 // movq %xmm7,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -41666,7 +42211,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
.byte 15,20,247 // unpcklps %xmm7,%xmm6
.byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,15,254,21,154,249,0,0 // paddd 0xf99a(%rip),%xmm2 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,15,254,21,164,249,0,0 // paddd 0xf9a4(%rip),%xmm2 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -41812,7 +42357,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,210 // paddd %xmm10,%xmm2
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,37,114,253,0,0 // movdqa 0xfd72(%rip),%xmm4 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c>
+ .byte 102,15,111,37,124,253,0,0 // movdqa 0xfd7c(%rip),%xmm4 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -41851,7 +42396,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,5,124,246,0,0 // paddd 0xf67c(%rip),%xmm0 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,15,254,5,134,246,0,0 // paddd 0xf686(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -41866,7 +42411,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,53,102,252,0,0 // movaps 0xfc66(%rip),%xmm6 # 3a790 <_sk_srcover_bgra_8888_sse2_lowp+0x123c>
+ .byte 15,40,53,112,252,0,0 // movaps 0xfc70(%rip),%xmm6 # 3b1b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
.byte 68,15,88,198 // addps %xmm6,%xmm8
.byte 68,15,41,68,36,176 // movaps %xmm8,-0x50(%rsp)
.byte 68,15,88,254 // addps %xmm6,%xmm15
@@ -41884,7 +42429,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,215 // paddd %xmm15,%xmm2
.byte 102,68,15,127,124,36,224 // movdqa %xmm15,-0x20(%rsp)
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,28,252,0,0 // movdqa 0xfc1c(%rip),%xmm1 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c>
+ .byte 102,15,111,13,38,252,0,0 // movdqa 0xfc26(%rip),%xmm1 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -41905,7 +42450,7 @@ _sk_clut_4D_sse2:
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,242 // unpcklpd %xmm2,%xmm6
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,199,251,0,0 // psubd 0xfbc7(%rip),%xmm0 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c>
+ .byte 102,15,250,5,209,251,0,0 // psubd 0xfbd1(%rip),%xmm0 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -41920,7 +42465,7 @@ _sk_clut_4D_sse2:
.byte 243,68,15,16,28,131 // movss (%rbx,%rax,4),%xmm11
.byte 68,15,20,216 // unpcklps %xmm0,%xmm11
.byte 102,65,15,20,211 // unpcklpd %xmm11,%xmm2
- .byte 102,15,254,13,47,245,0,0 // paddd 0xf52f(%rip),%xmm1 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,15,254,13,57,245,0,0 // paddd 0xf539(%rip),%xmm1 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -41958,7 +42503,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
.byte 102,15,254,68,36,160 // paddd -0x60(%rsp),%xmm0
.byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3
- .byte 102,15,111,37,198,250,0,0 // movdqa 0xfac6(%rip),%xmm4 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c>
+ .byte 102,15,111,37,208,250,0,0 // movdqa 0xfad0(%rip),%xmm4 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,68,15,111,220 // movdqa %xmm4,%xmm11
@@ -41996,7 +42541,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
.byte 15,20,253 // unpcklps %xmm5,%xmm7
.byte 102,15,20,199 // unpcklpd %xmm7,%xmm0
- .byte 102,68,15,111,5,210,243,0,0 // movdqa 0xf3d2(%rip),%xmm8 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,68,15,111,5,220,243,0,0 // movdqa 0xf3dc(%rip),%xmm8 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,65,15,254,224 // paddd %xmm8,%xmm4
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,73,15,126,232 // movq %xmm5,%r8
@@ -42142,7 +42687,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,226 // unpcklps %xmm2,%xmm4
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,68,15,111,61,44,241,0,0 // movdqa 0xf12c(%rip),%xmm15 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,68,15,111,61,54,241,0,0 // movdqa 0xf136(%rip),%xmm15 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,65,15,254,207 // paddd %xmm15,%xmm1
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
@@ -42225,7 +42770,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
.byte 102,65,15,254,216 // paddd %xmm8,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,45,251,245,0,0 // movdqa 0xf5fb(%rip),%xmm5 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c>
+ .byte 102,15,111,45,5,246,0,0 // movdqa 0xf605(%rip),%xmm5 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,244,221 // pmuludq %xmm5,%xmm3
.byte 102,15,244,213 // pmuludq %xmm5,%xmm2
.byte 102,15,112,234,232 // pshufd $0xe8,%xmm2,%xmm5
@@ -42246,7 +42791,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,198 // unpcklps %xmm6,%xmm8
.byte 102,68,15,20,197 // unpcklpd %xmm5,%xmm8
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,250,45,164,245,0,0 // psubd 0xf5a4(%rip),%xmm5 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c>
+ .byte 102,15,250,45,174,245,0,0 // psubd 0xf5ae(%rip),%xmm5 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -42278,7 +42823,7 @@ _sk_clut_4D_sse2:
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
.byte 102,69,15,254,205 // paddd %xmm13,%xmm9
.byte 102,65,15,112,233,245 // pshufd $0xf5,%xmm9,%xmm5
- .byte 102,15,111,29,2,245,0,0 // movdqa 0xf502(%rip),%xmm3 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c>
+ .byte 102,15,111,29,12,245,0,0 // movdqa 0xf50c(%rip),%xmm3 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,68,15,244,203 // pmuludq %xmm3,%xmm9
.byte 102,15,244,235 // pmuludq %xmm3,%xmm5
.byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
@@ -42299,7 +42844,7 @@ _sk_clut_4D_sse2:
.byte 69,15,20,233 // unpcklps %xmm9,%xmm13
.byte 102,68,15,20,237 // unpcklpd %xmm5,%xmm13
.byte 102,65,15,111,239 // movdqa %xmm15,%xmm5
- .byte 102,15,250,45,162,244,0,0 // psubd 0xf4a2(%rip),%xmm5 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c>
+ .byte 102,15,250,45,172,244,0,0 // psubd 0xf4ac(%rip),%xmm5 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,221,78 // pshufd $0x4e,%xmm5,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -42314,7 +42859,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,245 // unpcklpd %xmm5,%xmm6
- .byte 102,68,15,111,13,12,238,0,0 // movdqa 0xee0c(%rip),%xmm9 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,68,15,111,13,22,238,0,0 // movdqa 0xee16(%rip),%xmm9 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,69,15,254,249 // paddd %xmm9,%xmm15
.byte 102,65,15,112,223,78 // pshufd $0x4e,%xmm15,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -42376,7 +42921,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,21,61,243,0,0 // movdqa 0xf33d(%rip),%xmm2 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c>
+ .byte 102,15,111,21,71,243,0,0 // movdqa 0xf347(%rip),%xmm2 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,68,15,111,234 // movdqa %xmm2,%xmm13
@@ -42569,7 +43114,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,238 // unpcklps %xmm6,%xmm13
.byte 102,68,15,20,234 // unpcklpd %xmm2,%xmm13
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,250,21,217,239,0,0 // psubd 0xefd9(%rip),%xmm2 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c>
+ .byte 102,15,250,21,227,239,0,0 // psubd 0xefe3(%rip),%xmm2 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -42629,7 +43174,7 @@ _sk_clut_4D_sse2:
.byte 102,68,15,111,116,36,160 // movdqa -0x60(%rsp),%xmm14
.byte 102,65,15,254,198 // paddd %xmm14,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,68,15,111,5,184,238,0,0 // movdqa 0xeeb8(%rip),%xmm8 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c>
+ .byte 102,68,15,111,5,194,238,0,0 // movdqa 0xeec2(%rip),%xmm8 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
.byte 102,65,15,244,200 // pmuludq %xmm8,%xmm1
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
@@ -42667,7 +43212,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
- .byte 102,68,15,111,5,198,231,0,0 // movdqa 0xe7c6(%rip),%xmm8 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,68,15,111,5,208,231,0,0 // movdqa 0xe7d0(%rip),%xmm8 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,65,15,254,208 // paddd %xmm8,%xmm2
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -42750,7 +43295,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,37,146,236,0,0 // movdqa 0xec92(%rip),%xmm4 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c>
+ .byte 102,15,111,37,156,236,0,0 // movdqa 0xec9c(%rip),%xmm4 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1
@@ -42771,7 +43316,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,193 // unpcklps %xmm1,%xmm8
.byte 102,68,15,20,194 // unpcklpd %xmm2,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,59,236,0,0 // psubd 0xec3b(%rip),%xmm1 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c>
+ .byte 102,15,250,13,69,236,0,0 // psubd 0xec45(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42786,7 +43331,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,68,15,20,242 // unpcklpd %xmm2,%xmm14
- .byte 102,15,254,5,164,229,0,0 // paddd 0xe5a4(%rip),%xmm0 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,15,254,5,174,229,0,0 // paddd 0xe5ae(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -42824,7 +43369,7 @@ _sk_clut_4D_sse2:
.byte 15,20,198 // unpcklps %xmm6,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,67,235,0,0 // psubd 0xeb43(%rip),%xmm1 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c>
+ .byte 102,15,250,13,77,235,0,0 // psubd 0xeb4d(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42839,7 +43384,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,230 // unpcklps %xmm6,%xmm4
.byte 102,15,20,204 // unpcklpd %xmm4,%xmm1
- .byte 102,15,254,21,174,228,0,0 // paddd 0xe4ae(%rip),%xmm2 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c>
+ .byte 102,15,254,21,184,228,0,0 // paddd 0xe4b8(%rip),%xmm2 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18>
.byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -42898,7 +43443,7 @@ _sk_clut_4D_sse2:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,215 // addps %xmm15,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,154,227,0,0 // movaps 0xe39a(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,29,164,227,0,0 // movaps 0xe3a4(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,100,36,96 // movaps 0x60(%rsp),%xmm4
.byte 15,40,108,36,112 // movaps 0x70(%rsp),%xmm5
.byte 15,40,180,36,128,0,0,0 // movaps 0x80(%rsp),%xmm6
@@ -42911,22 +43456,20 @@ HIDDEN _sk_gauss_a_to_rgba_sse2
.globl _sk_gauss_a_to_rgba_sse2
FUNCTION(_sk_gauss_a_to_rgba_sse2)
_sk_gauss_a_to_rgba_sse2:
- .byte 15,40,5,255,233,0,0 // movaps 0xe9ff(%rip),%xmm0 # 3a7c0 <_sk_srcover_bgra_8888_sse2_lowp+0x126c>
+ .byte 15,40,5,9,234,0,0 // movaps 0xea09(%rip),%xmm0 # 3b1e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,5,234,0,0 // addps 0xea05(%rip),%xmm0 # 3a7d0 <_sk_srcover_bgra_8888_sse2_lowp+0x127c>
+ .byte 15,88,5,15,234,0,0 // addps 0xea0f(%rip),%xmm0 # 3b1f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1288>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,11,234,0,0 // addps 0xea0b(%rip),%xmm0 # 3a7e0 <_sk_srcover_bgra_8888_sse2_lowp+0x128c>
+ .byte 15,88,5,21,234,0,0 // addps 0xea15(%rip),%xmm0 # 3b200 <_sk_srcover_bgra_8888_sse2_lowp+0x1298>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,17,234,0,0 // addps 0xea11(%rip),%xmm0 # 3a7f0 <_sk_srcover_bgra_8888_sse2_lowp+0x129c>
+ .byte 15,88,5,27,234,0,0 // addps 0xea1b(%rip),%xmm0 # 3b210 <_sk_srcover_bgra_8888_sse2_lowp+0x12a8>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,23,234,0,0 // addps 0xea17(%rip),%xmm0 # 3a800 <_sk_srcover_bgra_8888_sse2_lowp+0x12ac>
+ .byte 15,88,5,33,234,0,0 // addps 0xea21(%rip),%xmm0 # 3b220 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 255,224 // jmpq *%rax
- .byte 144 // nop
- .byte 144 // nop
HIDDEN _sk_start_pipeline_hsw_lowp
.globl _sk_start_pipeline_hsw_lowp
@@ -42949,13 +43492,13 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 2bec2 <_sk_start_pipeline_hsw_lowp+0xca>
+ .byte 15,131,151,0,0,0 // jae 2c8d6 <_sk_start_pipeline_hsw_lowp+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,16 // lea 0x10(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 2be84 <_sk_start_pipeline_hsw_lowp+0x8c>
+ .byte 119,67 // ja 2c898 <_sk_start_pipeline_hsw_lowp+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -42974,10 +43517,10 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,131,196,32 // add $0x20,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 2be45 <_sk_start_pipeline_hsw_lowp+0x4d>
+ .byte 118,193 // jbe 2c859 <_sk_start_pipeline_hsw_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 2beb5 <_sk_start_pipeline_hsw_lowp+0xbd>
+ .byte 116,41 // je 2c8c9 <_sk_start_pipeline_hsw_lowp+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -42991,7 +43534,7 @@ _sk_start_pipeline_hsw_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 2be37 <_sk_start_pipeline_hsw_lowp+0x3f>
+ .byte 15,133,117,255,255,255 // jne 2c84b <_sk_start_pipeline_hsw_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -43021,7 +43564,7 @@ _sk_seed_shader_hsw_lowp:
.byte 197,249,110,209 // vmovd %ecx,%xmm2
.byte 196,226,125,88,210 // vpbroadcastd %xmm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,253,216,0,0 // vbroadcastss 0xd8fd(%rip),%ymm3 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,29,253,216,0,0 // vbroadcastss 0xd8fd(%rip),%ymm3 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,236,88,211 // vaddps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,218 // vmovaps %ymm2,%ymm3
@@ -43137,7 +43680,7 @@ HIDDEN _sk_black_color_hsw_lowp
FUNCTION(_sk_black_color_hsw_lowp)
_sk_black_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,216,221,0,0 // vpbroadcastw 0xddd8(%rip),%ymm3 # 39e60 <_sk_srcover_bgra_8888_sse2_lowp+0x90c>
+ .byte 196,226,125,121,29,228,221,0,0 // vpbroadcastw 0xdde4(%rip),%ymm3 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x918>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -43148,7 +43691,7 @@ HIDDEN _sk_white_color_hsw_lowp
FUNCTION(_sk_white_color_hsw_lowp)
_sk_white_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,5,193,221,0,0 // vpbroadcastw 0xddc1(%rip),%ymm0 # 39e62 <_sk_srcover_bgra_8888_sse2_lowp+0x90e>
+ .byte 196,226,125,121,5,205,221,0,0 // vpbroadcastw 0xddcd(%rip),%ymm0 # 3a882 <_sk_srcover_bgra_8888_sse2_lowp+0x91a>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 197,253,111,216 // vmovdqa %ymm0,%ymm3
@@ -43159,8 +43702,8 @@ HIDDEN _sk_set_rgb_hsw_lowp
FUNCTION(_sk_set_rgb_hsw_lowp)
_sk_set_rgb_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,5,71,215,0,0 // vmovss 0xd747(%rip),%xmm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,250,16,21,111,215,0,0 // vmovss 0xd76f(%rip),%xmm2 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 197,122,16,5,71,215,0,0 // vmovss 0xd747(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,250,16,21,111,215,0,0 // vmovss 0xd76f(%rip),%xmm2 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 197,250,16,0 // vmovss (%rax),%xmm0
.byte 196,226,57,153,194 // vfmadd132ss %xmm2,%xmm8,%xmm0
.byte 197,122,44,192 // vcvttss2si %xmm0,%r8d
@@ -43203,7 +43746,7 @@ HIDDEN _sk_premul_hsw_lowp
FUNCTION(_sk_premul_hsw_lowp)
_sk_premul_hsw_lowp:
.byte 197,229,213,192 // vpmullw %ymm0,%ymm3,%ymm0
- .byte 196,98,125,121,5,42,221,0,0 // vpbroadcastw 0xdd2a(%rip),%ymm8 # 39e64 <_sk_srcover_bgra_8888_sse2_lowp+0x910>
+ .byte 196,98,125,121,5,54,221,0,0 // vpbroadcastw 0xdd36(%rip),%ymm8 # 3a884 <_sk_srcover_bgra_8888_sse2_lowp+0x91c>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,229,213,201 // vpmullw %ymm1,%ymm3,%ymm1
@@ -43220,7 +43763,7 @@ HIDDEN _sk_premul_dst_hsw_lowp
FUNCTION(_sk_premul_dst_hsw_lowp)
_sk_premul_dst_hsw_lowp:
.byte 197,197,213,228 // vpmullw %ymm4,%ymm7,%ymm4
- .byte 196,98,125,121,5,245,220,0,0 // vpbroadcastw 0xdcf5(%rip),%ymm8 # 39e66 <_sk_srcover_bgra_8888_sse2_lowp+0x912>
+ .byte 196,98,125,121,5,1,221,0,0 // vpbroadcastw 0xdd01(%rip),%ymm8 # 3a886 <_sk_srcover_bgra_8888_sse2_lowp+0x91e>
.byte 196,193,93,253,224 // vpaddw %ymm8,%ymm4,%ymm4
.byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
.byte 197,197,213,237 // vpmullw %ymm5,%ymm7,%ymm5
@@ -43268,7 +43811,7 @@ HIDDEN _sk_invert_hsw_lowp
.globl _sk_invert_hsw_lowp
FUNCTION(_sk_invert_hsw_lowp)
_sk_invert_hsw_lowp:
- .byte 196,98,125,121,5,140,220,0,0 // vpbroadcastw 0xdc8c(%rip),%ymm8 # 39e68 <_sk_srcover_bgra_8888_sse2_lowp+0x914>
+ .byte 196,98,125,121,5,152,220,0,0 // vpbroadcastw 0xdc98(%rip),%ymm8 # 3a888 <_sk_srcover_bgra_8888_sse2_lowp+0x920>
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,189,249,201 // vpsubw %ymm1,%ymm8,%ymm1
.byte 197,189,249,210 // vpsubw %ymm2,%ymm8,%ymm2
@@ -43292,7 +43835,7 @@ HIDDEN _sk_srcatop_hsw_lowp
FUNCTION(_sk_srcatop_hsw_lowp)
_sk_srcatop_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,89,220,0,0 // vpbroadcastw 0xdc59(%rip),%ymm8 # 39e6a <_sk_srcover_bgra_8888_sse2_lowp+0x916>
+ .byte 196,98,125,121,5,101,220,0,0 // vpbroadcastw 0xdc65(%rip),%ymm8 # 3a88a <_sk_srcover_bgra_8888_sse2_lowp+0x922>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,101,213,204 // vpmullw %ymm4,%ymm3,%ymm9
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -43319,7 +43862,7 @@ HIDDEN _sk_dstatop_hsw_lowp
FUNCTION(_sk_dstatop_hsw_lowp)
_sk_dstatop_hsw_lowp:
.byte 197,93,213,195 // vpmullw %ymm3,%ymm4,%ymm8
- .byte 196,98,125,121,13,249,219,0,0 // vpbroadcastw 0xdbf9(%rip),%ymm9 # 39e6c <_sk_srcover_bgra_8888_sse2_lowp+0x918>
+ .byte 196,98,125,121,13,5,220,0,0 // vpbroadcastw 0xdc05(%rip),%ymm9 # 3a88c <_sk_srcover_bgra_8888_sse2_lowp+0x924>
.byte 197,53,249,215 // vpsubw %ymm7,%ymm9,%ymm10
.byte 197,173,213,192 // vpmullw %ymm0,%ymm10,%ymm0
.byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
@@ -43346,7 +43889,7 @@ HIDDEN _sk_srcin_hsw_lowp
FUNCTION(_sk_srcin_hsw_lowp)
_sk_srcin_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,150,219,0,0 // vpbroadcastw 0xdb96(%rip),%ymm8 # 39e6e <_sk_srcover_bgra_8888_sse2_lowp+0x91a>
+ .byte 196,98,125,121,5,162,219,0,0 // vpbroadcastw 0xdba2(%rip),%ymm8 # 3a88e <_sk_srcover_bgra_8888_sse2_lowp+0x926>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,197,213,201 // vpmullw %ymm1,%ymm7,%ymm1
@@ -43366,7 +43909,7 @@ HIDDEN _sk_dstin_hsw_lowp
FUNCTION(_sk_dstin_hsw_lowp)
_sk_dstin_hsw_lowp:
.byte 197,221,213,195 // vpmullw %ymm3,%ymm4,%ymm0
- .byte 196,98,125,121,5,83,219,0,0 // vpbroadcastw 0xdb53(%rip),%ymm8 # 39e70 <_sk_srcover_bgra_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,121,5,95,219,0,0 // vpbroadcastw 0xdb5f(%rip),%ymm8 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x928>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,203 // vpmullw %ymm3,%ymm5,%ymm1
@@ -43385,7 +43928,7 @@ HIDDEN _sk_srcout_hsw_lowp
.globl _sk_srcout_hsw_lowp
FUNCTION(_sk_srcout_hsw_lowp)
_sk_srcout_hsw_lowp:
- .byte 196,98,125,121,5,20,219,0,0 // vpbroadcastw 0xdb14(%rip),%ymm8 # 39e72 <_sk_srcover_bgra_8888_sse2_lowp+0x91e>
+ .byte 196,98,125,121,5,32,219,0,0 // vpbroadcastw 0xdb20(%rip),%ymm8 # 3a892 <_sk_srcover_bgra_8888_sse2_lowp+0x92a>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -43406,7 +43949,7 @@ HIDDEN _sk_dstout_hsw_lowp
.globl _sk_dstout_hsw_lowp
FUNCTION(_sk_dstout_hsw_lowp)
_sk_dstout_hsw_lowp:
- .byte 196,98,125,121,5,205,218,0,0 // vpbroadcastw 0xdacd(%rip),%ymm8 # 39e74 <_sk_srcover_bgra_8888_sse2_lowp+0x920>
+ .byte 196,98,125,121,5,217,218,0,0 // vpbroadcastw 0xdad9(%rip),%ymm8 # 3a894 <_sk_srcover_bgra_8888_sse2_lowp+0x92c>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,229,213,196 // vpmullw %ymm4,%ymm3,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -43427,7 +43970,7 @@ HIDDEN _sk_srcover_hsw_lowp
.globl _sk_srcover_hsw_lowp
FUNCTION(_sk_srcover_hsw_lowp)
_sk_srcover_hsw_lowp:
- .byte 196,98,125,121,5,134,218,0,0 // vpbroadcastw 0xda86(%rip),%ymm8 # 39e76 <_sk_srcover_bgra_8888_sse2_lowp+0x922>
+ .byte 196,98,125,121,5,146,218,0,0 // vpbroadcastw 0xda92(%rip),%ymm8 # 3a896 <_sk_srcover_bgra_8888_sse2_lowp+0x92e>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,45,253,208 // vpaddw %ymm8,%ymm10,%ymm10
@@ -43452,7 +43995,7 @@ HIDDEN _sk_dstover_hsw_lowp
.globl _sk_dstover_hsw_lowp
FUNCTION(_sk_dstover_hsw_lowp)
_sk_dstover_hsw_lowp:
- .byte 196,98,125,121,5,43,218,0,0 // vpbroadcastw 0xda2b(%rip),%ymm8 # 39e78 <_sk_srcover_bgra_8888_sse2_lowp+0x924>
+ .byte 196,98,125,121,5,55,218,0,0 // vpbroadcastw 0xda37(%rip),%ymm8 # 3a898 <_sk_srcover_bgra_8888_sse2_lowp+0x930>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -43478,7 +44021,7 @@ HIDDEN _sk_modulate_hsw_lowp
FUNCTION(_sk_modulate_hsw_lowp)
_sk_modulate_hsw_lowp:
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,208,217,0,0 // vpbroadcastw 0xd9d0(%rip),%ymm8 # 39e7a <_sk_srcover_bgra_8888_sse2_lowp+0x926>
+ .byte 196,98,125,121,5,220,217,0,0 // vpbroadcastw 0xd9dc(%rip),%ymm8 # 3a89a <_sk_srcover_bgra_8888_sse2_lowp+0x932>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,201 // vpmullw %ymm1,%ymm5,%ymm1
@@ -43497,7 +44040,7 @@ HIDDEN _sk_multiply_hsw_lowp
.globl _sk_multiply_hsw_lowp
FUNCTION(_sk_multiply_hsw_lowp)
_sk_multiply_hsw_lowp:
- .byte 196,98,125,121,5,145,217,0,0 // vpbroadcastw 0xd991(%rip),%ymm8 # 39e7c <_sk_srcover_bgra_8888_sse2_lowp+0x928>
+ .byte 196,98,125,121,5,157,217,0,0 // vpbroadcastw 0xd99d(%rip),%ymm8 # 3a89c <_sk_srcover_bgra_8888_sse2_lowp+0x934>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,93,253,216 // vpaddw %ymm8,%ymm4,%ymm11
@@ -43533,7 +44076,7 @@ HIDDEN _sk_plus__hsw_lowp
FUNCTION(_sk_plus__hsw_lowp)
_sk_plus__hsw_lowp:
.byte 197,221,253,192 // vpaddw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,7,217,0,0 // vpbroadcastw 0xd907(%rip),%ymm8 # 39e7e <_sk_srcover_bgra_8888_sse2_lowp+0x92a>
+ .byte 196,98,125,121,5,19,217,0,0 // vpbroadcastw 0xd913(%rip),%ymm8 # 3a89e <_sk_srcover_bgra_8888_sse2_lowp+0x936>
.byte 196,194,125,58,192 // vpminuw %ymm8,%ymm0,%ymm0
.byte 197,213,253,201 // vpaddw %ymm1,%ymm5,%ymm1
.byte 196,194,117,58,200 // vpminuw %ymm8,%ymm1,%ymm1
@@ -43550,7 +44093,7 @@ FUNCTION(_sk_screen_hsw_lowp)
_sk_screen_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,212,216,0,0 // vpbroadcastw 0xd8d4(%rip),%ymm9 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,121,13,224,216,0,0 // vpbroadcastw 0xd8e0(%rip),%ymm9 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x938>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -43576,7 +44119,7 @@ HIDDEN _sk_xor__hsw_lowp
.globl _sk_xor__hsw_lowp
FUNCTION(_sk_xor__hsw_lowp)
_sk_xor__hsw_lowp:
- .byte 196,98,125,121,5,121,216,0,0 // vpbroadcastw 0xd879(%rip),%ymm8 # 39e82 <_sk_srcover_bgra_8888_sse2_lowp+0x92e>
+ .byte 196,98,125,121,5,133,216,0,0 // vpbroadcastw 0xd885(%rip),%ymm8 # 3a8a2 <_sk_srcover_bgra_8888_sse2_lowp+0x93a>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 197,61,249,211 // vpsubw %ymm3,%ymm8,%ymm10
@@ -43610,7 +44153,7 @@ _sk_darken_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,62,193 // vpmaxuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,253,215,0,0 // vpbroadcastw 0xd7fd(%rip),%ymm9 # 39e84 <_sk_srcover_bgra_8888_sse2_lowp+0x930>
+ .byte 196,98,125,121,13,9,216,0,0 // vpbroadcastw 0xd809(%rip),%ymm9 # 3a8a4 <_sk_srcover_bgra_8888_sse2_lowp+0x93c>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -43644,7 +44187,7 @@ _sk_lighten_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,126,215,0,0 // vpbroadcastw 0xd77e(%rip),%ymm9 # 39e86 <_sk_srcover_bgra_8888_sse2_lowp+0x932>
+ .byte 196,98,125,121,13,138,215,0,0 // vpbroadcastw 0xd78a(%rip),%ymm9 # 3a8a6 <_sk_srcover_bgra_8888_sse2_lowp+0x93e>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -43678,10 +44221,10 @@ _sk_difference_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,255,214,0,0 // vpbroadcastw 0xd6ff(%rip),%ymm9 # 39e88 <_sk_srcover_bgra_8888_sse2_lowp+0x934>
+ .byte 196,98,125,121,13,11,215,0,0 // vpbroadcastw 0xd70b(%rip),%ymm9 # 3a8a8 <_sk_srcover_bgra_8888_sse2_lowp+0x940>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,238,214,0,0 // vpbroadcastw 0xd6ee(%rip),%ymm10 # 39e8a <_sk_srcover_bgra_8888_sse2_lowp+0x936>
+ .byte 196,98,125,121,21,250,214,0,0 // vpbroadcastw 0xd6fa(%rip),%ymm10 # 3a8aa <_sk_srcover_bgra_8888_sse2_lowp+0x942>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -43714,10 +44257,10 @@ FUNCTION(_sk_exclusion_hsw_lowp)
_sk_exclusion_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,115,214,0,0 // vpbroadcastw 0xd673(%rip),%ymm9 # 39e8c <_sk_srcover_bgra_8888_sse2_lowp+0x938>
+ .byte 196,98,125,121,13,127,214,0,0 // vpbroadcastw 0xd67f(%rip),%ymm9 # 3a8ac <_sk_srcover_bgra_8888_sse2_lowp+0x944>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,98,214,0,0 // vpbroadcastw 0xd662(%rip),%ymm10 # 39e8e <_sk_srcover_bgra_8888_sse2_lowp+0x93a>
+ .byte 196,98,125,121,21,110,214,0,0 // vpbroadcastw 0xd66e(%rip),%ymm10 # 3a8ae <_sk_srcover_bgra_8888_sse2_lowp+0x946>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -43745,7 +44288,7 @@ HIDDEN _sk_hardlight_hsw_lowp
FUNCTION(_sk_hardlight_hsw_lowp)
_sk_hardlight_hsw_lowp:
.byte 197,125,253,192 // vpaddw %ymm0,%ymm0,%ymm8
- .byte 196,98,125,121,13,255,213,0,0 // vpbroadcastw 0xd5ff(%rip),%ymm9 # 39e92 <_sk_srcover_bgra_8888_sse2_lowp+0x93e>
+ .byte 196,98,125,121,13,11,214,0,0 // vpbroadcastw 0xd60b(%rip),%ymm9 # 3a8b2 <_sk_srcover_bgra_8888_sse2_lowp+0x94a>
.byte 196,65,101,239,209 // vpxor %ymm9,%ymm3,%ymm10
.byte 196,65,61,239,217 // vpxor %ymm9,%ymm8,%ymm11
.byte 196,65,37,101,218 // vpcmpgtw %ymm10,%ymm11,%ymm11
@@ -43773,7 +44316,7 @@ _sk_hardlight_hsw_lowp:
.byte 197,101,249,210 // vpsubw %ymm2,%ymm3,%ymm10
.byte 197,69,249,246 // vpsubw %ymm6,%ymm7,%ymm14
.byte 196,65,45,213,214 // vpmullw %ymm14,%ymm10,%ymm10
- .byte 196,98,125,121,53,118,213,0,0 // vpbroadcastw 0xd576(%rip),%ymm14 # 39e90 <_sk_srcover_bgra_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,121,53,130,213,0,0 // vpbroadcastw 0xd582(%rip),%ymm14 # 3a8b0 <_sk_srcover_bgra_8888_sse2_lowp+0x948>
.byte 196,65,45,253,210 // vpaddw %ymm10,%ymm10,%ymm10
.byte 196,65,61,249,194 // vpsubw %ymm10,%ymm8,%ymm8
.byte 197,13,249,215 // vpsubw %ymm7,%ymm14,%ymm10
@@ -43810,7 +44353,7 @@ HIDDEN _sk_overlay_hsw_lowp
FUNCTION(_sk_overlay_hsw_lowp)
_sk_overlay_hsw_lowp:
.byte 197,93,253,196 // vpaddw %ymm4,%ymm4,%ymm8
- .byte 196,98,125,121,13,235,212,0,0 // vpbroadcastw 0xd4eb(%rip),%ymm9 # 39e96 <_sk_srcover_bgra_8888_sse2_lowp+0x942>
+ .byte 196,98,125,121,13,247,212,0,0 // vpbroadcastw 0xd4f7(%rip),%ymm9 # 3a8b6 <_sk_srcover_bgra_8888_sse2_lowp+0x94e>
.byte 196,65,69,239,209 // vpxor %ymm9,%ymm7,%ymm10
.byte 196,65,61,239,193 // vpxor %ymm9,%ymm8,%ymm8
.byte 196,65,61,101,218 // vpcmpgtw %ymm10,%ymm8,%ymm11
@@ -43834,7 +44377,7 @@ _sk_overlay_hsw_lowp:
.byte 196,65,21,253,237 // vpaddw %ymm13,%ymm13,%ymm13
.byte 196,65,61,249,237 // vpsubw %ymm13,%ymm8,%ymm13
.byte 196,67,13,76,229,192 // vpblendvb %ymm12,%ymm13,%ymm14,%ymm12
- .byte 196,98,125,121,45,115,212,0,0 // vpbroadcastw 0xd473(%rip),%ymm13 # 39e94 <_sk_srcover_bgra_8888_sse2_lowp+0x940>
+ .byte 196,98,125,121,45,127,212,0,0 // vpbroadcastw 0xd47f(%rip),%ymm13 # 3a8b4 <_sk_srcover_bgra_8888_sse2_lowp+0x94c>
.byte 197,77,253,246 // vpaddw %ymm6,%ymm6,%ymm14
.byte 196,65,13,239,201 // vpxor %ymm9,%ymm14,%ymm9
.byte 196,65,53,101,202 // vpcmpgtw %ymm10,%ymm9,%ymm9
@@ -43886,10 +44429,10 @@ _sk_load_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2cb17 <_sk_load_8888_hsw_lowp+0x52>
+ .byte 119,55 // ja 2d52b <_sk_load_8888_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,162,1,0,0 // lea 0x1a2(%rip),%r9 # 2cc90 <_sk_load_8888_hsw_lowp+0x1cb>
+ .byte 76,141,13,162,1,0,0 // lea 0x1a2(%rip),%r9 # 2d6a4 <_sk_load_8888_hsw_lowp+0x1cb>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -43899,10 +44442,10 @@ _sk_load_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2cc3e <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2d652 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2cc3e <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2d652 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -43911,7 +44454,7 @@ _sk_load_8888_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2cc3e <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2d652 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -43927,7 +44470,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2cc3e <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2d652 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -43937,7 +44480,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2cc3e <_sk_load_8888_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2d652 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -43957,7 +44500,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,227,101,14,200,170 // vpblendw $0xaa,%ymm0,%ymm3,%ymm1
.byte 196,227,109,14,192,170 // vpblendw $0xaa,%ymm0,%ymm2,%ymm0
.byte 196,226,125,43,201 // vpackusdw %ymm1,%ymm0,%ymm1
- .byte 197,125,111,5,57,210,0,0 // vmovdqa 0xd239(%rip),%ymm8 # 39ea0 <_sk_srcover_bgra_8888_sse2_lowp+0x94c>
+ .byte 197,125,111,5,69,210,0,0 // vmovdqa 0xd245(%rip),%ymm8 # 3a8c0 <_sk_srcover_bgra_8888_sse2_lowp+0x958>
.byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3
@@ -43968,7 +44511,7 @@ _sk_load_8888_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
- .byte 120,254 // js 2cc90 <_sk_load_8888_hsw_lowp+0x1cb>
+ .byte 120,254 // js 2d6a4 <_sk_load_8888_hsw_lowp+0x1cb>
.byte 255 // (bad)
.byte 255,175,254,255,255,153 // ljmp *-0x66000002(%rdi)
.byte 254 // (bad)
@@ -44016,10 +44559,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2cd1e <_sk_load_8888_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 2d732 <_sk_load_8888_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2ce98 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2d8ac <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44029,10 +44572,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2ce45 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2d859 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2ce45 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2d859 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -44041,7 +44584,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2ce45 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2d859 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44057,7 +44600,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2ce45 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2d859 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44067,7 +44610,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2ce45 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2d859 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44087,7 +44630,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,82,208,0,0 // vmovdqa 0xd052(%rip),%ymm8 # 39ec0 <_sk_srcover_bgra_8888_sse2_lowp+0x96c>
+ .byte 197,125,111,5,94,208,0,0 // vmovdqa 0xd05e(%rip),%ymm8 # 3a8e0 <_sk_srcover_bgra_8888_sse2_lowp+0x978>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
@@ -44098,7 +44641,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2ce98 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2d8ac <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -44159,20 +44702,20 @@ _sk_store_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2cf55 <_sk_store_8888_hsw_lowp+0x81>
+ .byte 119,30 // ja 2d969 <_sk_store_8888_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2d004 <_sk_store_8888_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2da18 <_sk_store_8888_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2d000 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 2da14 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2d000 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 2da14 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2d000 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 2da14 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -44180,12 +44723,12 @@ _sk_store_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2d000 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 2da14 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2d000 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 2da14 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -44242,10 +44785,10 @@ _sk_load_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2d092 <_sk_load_bgra_hsw_lowp+0x52>
+ .byte 119,55 // ja 2daa6 <_sk_load_bgra_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2d20c <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2dc20 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44255,10 +44798,10 @@ _sk_load_bgra_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2d1b9 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2dbcd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2d1b9 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2dbcd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -44267,7 +44810,7 @@ _sk_load_bgra_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2d1b9 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2dbcd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44283,7 +44826,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2d1b9 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2dbcd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44293,7 +44836,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2d1b9 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2dbcd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44313,7 +44856,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,227,125,14,209,170 // vpblendw $0xaa,%ymm1,%ymm0,%ymm2
.byte 196,227,101,14,201,170 // vpblendw $0xaa,%ymm1,%ymm3,%ymm1
.byte 196,226,117,43,202 // vpackusdw %ymm2,%ymm1,%ymm1
- .byte 197,125,111,5,254,204,0,0 // vmovdqa 0xccfe(%rip),%ymm8 # 39ee0 <_sk_srcover_bgra_8888_sse2_lowp+0x98c>
+ .byte 197,125,111,5,10,205,0,0 // vmovdqa 0xcd0a(%rip),%ymm8 # 3a900 <_sk_srcover_bgra_8888_sse2_lowp+0x998>
.byte 196,193,117,219,208 // vpand %ymm8,%ymm1,%ymm2
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0
@@ -44324,7 +44867,7 @@ _sk_load_bgra_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2d20c <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2dc20 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -44371,10 +44914,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2d29a <_sk_load_bgra_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 2dcae <_sk_load_bgra_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2d414 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2de28 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44384,10 +44927,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2d3c1 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2d3c1 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -44396,7 +44939,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2d3c1 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44412,7 +44955,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2d3c1 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44422,7 +44965,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2d3c1 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44442,7 +44985,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6
.byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5
.byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5
- .byte 197,125,111,5,22,203,0,0 // vmovdqa 0xcb16(%rip),%ymm8 # 39f00 <_sk_srcover_bgra_8888_sse2_lowp+0x9ac>
+ .byte 197,125,111,5,34,203,0,0 // vmovdqa 0xcb22(%rip),%ymm8 # 3a920 <_sk_srcover_bgra_8888_sse2_lowp+0x9b8>
.byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4
@@ -44453,7 +44996,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2d414 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2de28 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -44514,20 +45057,20 @@ _sk_store_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2d4d1 <_sk_store_bgra_hsw_lowp+0x81>
+ .byte 119,30 // ja 2dee5 <_sk_store_bgra_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2d580 <_sk_store_bgra_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2df94 <_sk_store_bgra_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2d57c <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 2df90 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2d57c <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 2df90 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2d57c <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 2df90 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -44535,12 +45078,12 @@ _sk_store_bgra_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2d57c <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 2df90 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2d57c <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 2df90 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -44623,7 +45166,7 @@ _sk_gather_8888_hsw_lowp:
.byte 196,195,101,14,194,170 // vpblendw $0xaa,%ymm10,%ymm3,%ymm0
.byte 196,195,109,14,202,170 // vpblendw $0xaa,%ymm10,%ymm2,%ymm1
.byte 196,226,117,43,200 // vpackusdw %ymm0,%ymm1,%ymm1
- .byte 197,125,111,5,178,200,0,0 // vmovdqa 0xc8b2(%rip),%ymm8 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0x9cc>
+ .byte 197,125,111,5,190,200,0,0 // vmovdqa 0xc8be(%rip),%ymm8 # 3a940 <_sk_srcover_bgra_8888_sse2_lowp+0x9d8>
.byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3
@@ -44673,7 +45216,7 @@ _sk_gather_bgra_hsw_lowp:
.byte 196,195,125,14,202,170 // vpblendw $0xaa,%ymm10,%ymm0,%ymm1
.byte 196,195,61,14,210,170 // vpblendw $0xaa,%ymm10,%ymm8,%ymm2
.byte 196,226,109,43,201 // vpackusdw %ymm1,%ymm2,%ymm1
- .byte 197,253,111,29,249,199,0,0 // vmovdqa 0xc7f9(%rip),%ymm3 # 39f40 <_sk_srcover_bgra_8888_sse2_lowp+0x9ec>
+ .byte 197,253,111,29,5,200,0,0 // vmovdqa 0xc805(%rip),%ymm3 # 3a960 <_sk_srcover_bgra_8888_sse2_lowp+0x9f8>
.byte 197,245,219,211 // vpand %ymm3,%ymm1,%ymm2
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0
@@ -44697,24 +45240,24 @@ _sk_load_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2d7ad <_sk_load_565_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2e1c1 <_sk_load_565_hsw_lowp+0x3f>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,130,1,0,0 // lea 0x182(%rip),%r9 # 2d918 <_sk_load_565_hsw_lowp+0x1aa>
+ .byte 76,141,13,130,1,0,0 // lea 0x182(%rip),%r9 # 2e32c <_sk_load_565_hsw_lowp+0x1aa>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,8,1,0,0 // jmpq 2d8b5 <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2e2c9 <_sk_load_565_hsw_lowp+0x147>
.byte 196,193,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm0
- .byte 233,253,0,0,0 // jmpq 2d8b5 <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2e2c9 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
.byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
- .byte 233,218,0,0,0 // jmpq 2d8b5 <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2e2c9 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
@@ -44724,7 +45267,7 @@ _sk_load_565_hsw_lowp:
.byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
.byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm0
- .byte 233,155,0,0,0 // jmpq 2d8b5 <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2e2c9 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -44736,7 +45279,7 @@ _sk_load_565_hsw_lowp:
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
.byte 196,193,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm1
.byte 196,227,117,2,192,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm0
- .byte 235,83 // jmp 2d8b5 <_sk_load_565_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2e2c9 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -44750,13 +45293,13 @@ _sk_load_565_hsw_lowp:
.byte 196,193,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm2
.byte 196,227,109,56,201,1 // vinserti128 $0x1,%xmm1,%ymm2,%ymm1
.byte 196,227,117,2,192,192 // vpblendd $0xc0,%ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,162,198,0,0 // vpbroadcastw 0xc6a2(%rip),%ymm1 # 39f60 <_sk_srcover_bgra_8888_sse2_lowp+0xa0c>
+ .byte 196,226,125,121,13,174,198,0,0 // vpbroadcastw 0xc6ae(%rip),%ymm1 # 3a980 <_sk_srcover_bgra_8888_sse2_lowp+0xa18>
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,237,113,208,5 // vpsrlw $0x5,%ymm0,%ymm2
- .byte 196,226,125,121,29,141,198,0,0 // vpbroadcastw 0xc68d(%rip),%ymm3 # 39f62 <_sk_srcover_bgra_8888_sse2_lowp+0xa0e>
+ .byte 196,226,125,121,29,153,198,0,0 // vpbroadcastw 0xc699(%rip),%ymm3 # 3a982 <_sk_srcover_bgra_8888_sse2_lowp+0xa1a>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 196,226,125,121,29,130,198,0,0 // vpbroadcastw 0xc682(%rip),%ymm3 # 39f64 <_sk_srcover_bgra_8888_sse2_lowp+0xa10>
+ .byte 196,226,125,121,29,142,198,0,0 // vpbroadcastw 0xc68e(%rip),%ymm3 # 3a984 <_sk_srcover_bgra_8888_sse2_lowp+0xa1c>
.byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3
.byte 197,253,113,208,13 // vpsrlw $0xd,%ymm0,%ymm0
.byte 197,245,235,192 // vpor %ymm0,%ymm1,%ymm0
@@ -44767,7 +45310,7 @@ _sk_load_565_hsw_lowp:
.byte 197,229,113,211,2 // vpsrlw $0x2,%ymm3,%ymm3
.byte 197,237,235,211 // vpor %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,80,198,0,0 // vpbroadcastw 0xc650(%rip),%ymm3 # 39f66 <_sk_srcover_bgra_8888_sse2_lowp+0xa12>
+ .byte 196,226,125,121,29,92,198,0,0 // vpbroadcastw 0xc65c(%rip),%ymm3 # 3a986 <_sk_srcover_bgra_8888_sse2_lowp+0xa1e>
.byte 255,224 // jmpq *%rax
.byte 135,254 // xchg %edi,%esi
.byte 255 // (bad)
@@ -44817,24 +45360,24 @@ _sk_load_565_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2d993 <_sk_load_565_dst_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2e3a7 <_sk_load_565_dst_hsw_lowp+0x3f>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2db00 <_sk_load_565_dst_hsw_lowp+0x1ac>
+ .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2e514 <_sk_load_565_dst_hsw_lowp+0x1ac>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,8,1,0,0 // jmpq 2da9b <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2e4af <_sk_load_565_dst_hsw_lowp+0x147>
.byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4
- .byte 233,253,0,0,0 // jmpq 2da9b <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2e4af <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 233,218,0,0,0 // jmpq 2da9b <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2e4af <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
@@ -44844,7 +45387,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4
- .byte 233,155,0,0,0 // jmpq 2da9b <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2e4af <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -44856,7 +45399,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
.byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5
.byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- .byte 235,83 // jmp 2da9b <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2e4af <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -44870,13 +45413,13 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,193,122,111,52,80 // vmovdqu (%r8,%rdx,2),%xmm6
.byte 196,227,77,56,237,1 // vinserti128 $0x1,%xmm5,%ymm6,%ymm5
.byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4
- .byte 196,226,125,121,45,196,196,0,0 // vpbroadcastw 0xc4c4(%rip),%ymm5 # 39f68 <_sk_srcover_bgra_8888_sse2_lowp+0xa14>
+ .byte 196,226,125,121,45,208,196,0,0 // vpbroadcastw 0xc4d0(%rip),%ymm5 # 3a988 <_sk_srcover_bgra_8888_sse2_lowp+0xa20>
.byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,205,113,212,5 // vpsrlw $0x5,%ymm4,%ymm6
- .byte 196,226,125,121,61,175,196,0,0 // vpbroadcastw 0xc4af(%rip),%ymm7 # 39f6a <_sk_srcover_bgra_8888_sse2_lowp+0xa16>
+ .byte 196,226,125,121,61,187,196,0,0 // vpbroadcastw 0xc4bb(%rip),%ymm7 # 3a98a <_sk_srcover_bgra_8888_sse2_lowp+0xa22>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
- .byte 196,226,125,121,61,164,196,0,0 // vpbroadcastw 0xc4a4(%rip),%ymm7 # 39f6c <_sk_srcover_bgra_8888_sse2_lowp+0xa18>
+ .byte 196,226,125,121,61,176,196,0,0 // vpbroadcastw 0xc4b0(%rip),%ymm7 # 3a98c <_sk_srcover_bgra_8888_sse2_lowp+0xa24>
.byte 197,221,219,255 // vpand %ymm7,%ymm4,%ymm7
.byte 197,221,113,212,13 // vpsrlw $0xd,%ymm4,%ymm4
.byte 197,213,235,228 // vpor %ymm4,%ymm5,%ymm4
@@ -44887,7 +45430,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 197,197,113,215,2 // vpsrlw $0x2,%ymm7,%ymm7
.byte 197,205,235,247 // vpor %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,114,196,0,0 // vpbroadcastw 0xc472(%rip),%ymm7 # 39f6e <_sk_srcover_bgra_8888_sse2_lowp+0xa1a>
+ .byte 196,226,125,121,61,126,196,0,0 // vpbroadcastw 0xc47e(%rip),%ymm7 # 3a98e <_sk_srcover_bgra_8888_sse2_lowp+0xa26>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 133,254 // test %edi,%esi
@@ -44938,10 +45481,10 @@ _sk_store_565_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
- .byte 196,98,125,121,5,27,196,0,0 // vpbroadcastw 0xc41b(%rip),%ymm8 # 39f70 <_sk_srcover_bgra_8888_sse2_lowp+0xa1c>
+ .byte 196,98,125,121,5,39,196,0,0 // vpbroadcastw 0xc427(%rip),%ymm8 # 3a990 <_sk_srcover_bgra_8888_sse2_lowp+0xa28>
.byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9
.byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,10,196,0,0 // vpbroadcastw 0xc40a(%rip),%ymm9 # 39f72 <_sk_srcover_bgra_8888_sse2_lowp+0xa1e>
+ .byte 196,98,125,121,13,22,196,0,0 // vpbroadcastw 0xc416(%rip),%ymm9 # 3a992 <_sk_srcover_bgra_8888_sse2_lowp+0xa2a>
.byte 197,173,113,241,3 // vpsllw $0x3,%ymm1,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -44951,31 +45494,31 @@ _sk_store_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,31 // ja 2dbaa <_sk_store_565_hsw_lowp+0x6e>
+ .byte 119,31 // ja 2e5be <_sk_store_565_hsw_lowp+0x6e>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2dc58 <_sk_store_565_hsw_lowp+0x11c>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2e66c <_sk_store_565_hsw_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 233,167,0,0,0 // jmpq 2dc51 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,167,0,0,0 // jmpq 2e665 <_sk_store_565_hsw_lowp+0x115>
.byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2)
- .byte 233,156,0,0,0 // jmpq 2dc51 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,156,0,0,0 // jmpq 2e665 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 233,137,0,0,0 // jmpq 2dc51 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,137,0,0,0 // jmpq 2e665 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,105 // jmp 2dc51 <_sk_store_565_hsw_lowp+0x115>
+ .byte 235,105 // jmp 2e665 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- .byte 235,55 // jmp 2dc4b <_sk_store_565_hsw_lowp+0x10f>
+ .byte 235,55 // jmp 2e65f <_sk_store_565_hsw_lowp+0x10f>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -44998,7 +45541,7 @@ _sk_store_565_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 120,255 // js 2dc6d <_sk_store_565_hsw_lowp+0x131>
+ .byte 120,255 // js 2e681 <_sk_store_565_hsw_lowp+0x131>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -45110,13 +45653,13 @@ _sk_gather_565_hsw_lowp:
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,226,125,121,13,78,193,0,0 // vpbroadcastw 0xc14e(%rip),%ymm1 # 39f74 <_sk_srcover_bgra_8888_sse2_lowp+0xa20>
+ .byte 196,226,125,121,13,90,193,0,0 // vpbroadcastw 0xc15a(%rip),%ymm1 # 3a994 <_sk_srcover_bgra_8888_sse2_lowp+0xa2c>
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,237,113,208,5 // vpsrlw $0x5,%ymm0,%ymm2
- .byte 196,226,125,121,29,57,193,0,0 // vpbroadcastw 0xc139(%rip),%ymm3 # 39f76 <_sk_srcover_bgra_8888_sse2_lowp+0xa22>
+ .byte 196,226,125,121,29,69,193,0,0 // vpbroadcastw 0xc145(%rip),%ymm3 # 3a996 <_sk_srcover_bgra_8888_sse2_lowp+0xa2e>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 196,226,125,121,29,46,193,0,0 // vpbroadcastw 0xc12e(%rip),%ymm3 # 39f78 <_sk_srcover_bgra_8888_sse2_lowp+0xa24>
+ .byte 196,226,125,121,29,58,193,0,0 // vpbroadcastw 0xc13a(%rip),%ymm3 # 3a998 <_sk_srcover_bgra_8888_sse2_lowp+0xa30>
.byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3
.byte 197,253,113,208,13 // vpsrlw $0xd,%ymm0,%ymm0
.byte 197,245,235,192 // vpor %ymm0,%ymm1,%ymm0
@@ -45127,7 +45670,7 @@ _sk_gather_565_hsw_lowp:
.byte 197,229,113,211,2 // vpsrlw $0x2,%ymm3,%ymm3
.byte 197,237,235,211 // vpor %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,252,192,0,0 // vpbroadcastw 0xc0fc(%rip),%ymm3 # 39f7a <_sk_srcover_bgra_8888_sse2_lowp+0xa26>
+ .byte 196,226,125,121,29,8,193,0,0 // vpbroadcastw 0xc108(%rip),%ymm3 # 3a99a <_sk_srcover_bgra_8888_sse2_lowp+0xa32>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_load_4444_hsw_lowp
@@ -45143,24 +45686,24 @@ _sk_load_4444_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2debf <_sk_load_4444_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2e8d3 <_sk_load_4444_hsw_lowp+0x3f>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2e018 <_sk_load_4444_hsw_lowp+0x198>
+ .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2ea2c <_sk_load_4444_hsw_lowp+0x198>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,8,1,0,0 // jmpq 2dfc7 <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2e9db <_sk_load_4444_hsw_lowp+0x147>
.byte 196,193,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm0
- .byte 233,253,0,0,0 // jmpq 2dfc7 <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2e9db <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
.byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
- .byte 233,218,0,0,0 // jmpq 2dfc7 <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2e9db <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
@@ -45170,7 +45713,7 @@ _sk_load_4444_hsw_lowp:
.byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
.byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm0
- .byte 233,155,0,0,0 // jmpq 2dfc7 <_sk_load_4444_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2e9db <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -45182,7 +45725,7 @@ _sk_load_4444_hsw_lowp:
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
.byte 196,193,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm1
.byte 196,227,117,2,192,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm0
- .byte 235,83 // jmp 2dfc7 <_sk_load_4444_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2e9db <_sk_load_4444_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -45198,7 +45741,7 @@ _sk_load_4444_hsw_lowp:
.byte 196,227,117,2,192,192 // vpblendd $0xc0,%ymm0,%ymm1,%ymm0
.byte 197,245,113,208,12 // vpsrlw $0xc,%ymm0,%ymm1
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
- .byte 196,226,125,121,29,162,191,0,0 // vpbroadcastw 0xbfa2(%rip),%ymm3 # 39f7c <_sk_srcover_bgra_8888_sse2_lowp+0xa28>
+ .byte 196,226,125,121,29,174,191,0,0 // vpbroadcastw 0xbfae(%rip),%ymm3 # 3a99c <_sk_srcover_bgra_8888_sse2_lowp+0xa34>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,189,113,208,4 // vpsrlw $0x4,%ymm0,%ymm8
.byte 197,61,219,195 // vpand %ymm3,%ymm8,%ymm8
@@ -45263,24 +45806,24 @@ _sk_load_4444_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2e093 <_sk_load_4444_dst_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2eaa7 <_sk_load_4444_dst_hsw_lowp+0x3f>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2e1ec <_sk_load_4444_dst_hsw_lowp+0x198>
+ .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2ec00 <_sk_load_4444_dst_hsw_lowp+0x198>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,8,1,0,0 // jmpq 2e19b <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4
- .byte 233,253,0,0,0 // jmpq 2e19b <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 233,218,0,0,0 // jmpq 2e19b <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
@@ -45290,7 +45833,7 @@ _sk_load_4444_dst_hsw_lowp:
.byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4
- .byte 233,155,0,0,0 // jmpq 2e19b <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -45302,7 +45845,7 @@ _sk_load_4444_dst_hsw_lowp:
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
.byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5
.byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- .byte 235,83 // jmp 2e19b <_sk_load_4444_dst_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -45318,7 +45861,7 @@ _sk_load_4444_dst_hsw_lowp:
.byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4
.byte 197,213,113,212,12 // vpsrlw $0xc,%ymm4,%ymm5
.byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6
- .byte 196,226,125,121,61,208,189,0,0 // vpbroadcastw 0xbdd0(%rip),%ymm7 # 39f7e <_sk_srcover_bgra_8888_sse2_lowp+0xa2a>
+ .byte 196,226,125,121,61,220,189,0,0 // vpbroadcastw 0xbddc(%rip),%ymm7 # 3a99e <_sk_srcover_bgra_8888_sse2_lowp+0xa36>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
.byte 197,189,113,212,4 // vpsrlw $0x4,%ymm4,%ymm8
.byte 197,61,219,199 // vpand %ymm7,%ymm8,%ymm8
@@ -45379,13 +45922,13 @@ _sk_store_4444_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
- .byte 196,98,125,121,5,63,189,0,0 // vpbroadcastw 0xbd3f(%rip),%ymm8 # 39f80 <_sk_srcover_bgra_8888_sse2_lowp+0xa2c>
+ .byte 196,98,125,121,5,75,189,0,0 // vpbroadcastw 0xbd4b(%rip),%ymm8 # 3a9a0 <_sk_srcover_bgra_8888_sse2_lowp+0xa38>
.byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9
.byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
.byte 197,181,113,241,4 // vpsllw $0x4,%ymm1,%ymm9
- .byte 197,53,219,13,72,189,0,0 // vpand 0xbd48(%rip),%ymm9,%ymm9 # 39fa0 <_sk_srcover_bgra_8888_sse2_lowp+0xa4c>
+ .byte 197,53,219,13,84,189,0,0 // vpand 0xbd54(%rip),%ymm9,%ymm9 # 3a9c0 <_sk_srcover_bgra_8888_sse2_lowp+0xa58>
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,90,189,0,0 // vpbroadcastw 0xbd5a(%rip),%ymm9 # 39fc0 <_sk_srcover_bgra_8888_sse2_lowp+0xa6c>
+ .byte 196,98,125,121,13,102,189,0,0 // vpbroadcastw 0xbd66(%rip),%ymm9 # 3a9e0 <_sk_srcover_bgra_8888_sse2_lowp+0xa78>
.byte 196,65,109,219,201 // vpand %ymm9,%ymm2,%ymm9
.byte 197,173,113,211,4 // vpsrlw $0x4,%ymm3,%ymm10
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
@@ -45394,31 +45937,31 @@ _sk_store_4444_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,31 // ja 2e2a3 <_sk_store_4444_hsw_lowp+0x7b>
+ .byte 119,31 // ja 2ecb7 <_sk_store_4444_hsw_lowp+0x7b>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,194,0,0,0 // lea 0xc2(%rip),%r9 # 2e350 <_sk_store_4444_hsw_lowp+0x128>
+ .byte 76,141,13,194,0,0,0 // lea 0xc2(%rip),%r9 # 2ed64 <_sk_store_4444_hsw_lowp+0x128>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 233,167,0,0,0 // jmpq 2e34a <_sk_store_4444_hsw_lowp+0x122>
+ .byte 233,167,0,0,0 // jmpq 2ed5e <_sk_store_4444_hsw_lowp+0x122>
.byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2)
- .byte 233,156,0,0,0 // jmpq 2e34a <_sk_store_4444_hsw_lowp+0x122>
+ .byte 233,156,0,0,0 // jmpq 2ed5e <_sk_store_4444_hsw_lowp+0x122>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 233,137,0,0,0 // jmpq 2e34a <_sk_store_4444_hsw_lowp+0x122>
+ .byte 233,137,0,0,0 // jmpq 2ed5e <_sk_store_4444_hsw_lowp+0x122>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,105 // jmp 2e34a <_sk_store_4444_hsw_lowp+0x122>
+ .byte 235,105 // jmp 2ed5e <_sk_store_4444_hsw_lowp+0x122>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- .byte 235,55 // jmp 2e344 <_sk_store_4444_hsw_lowp+0x11c>
+ .byte 235,55 // jmp 2ed58 <_sk_store_4444_hsw_lowp+0x11c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -45441,7 +45984,7 @@ _sk_store_4444_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 121,255 // jns 2e365 <_sk_store_4444_hsw_lowp+0x13d>
+ .byte 121,255 // jns 2ed79 <_sk_store_4444_hsw_lowp+0x13d>
.byte 255 // (bad)
.byte 255,113,255 // pushq -0x1(%rcx)
.byte 255 // (bad)
@@ -45556,7 +46099,7 @@ _sk_gather_4444_hsw_lowp:
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,245,113,208,12 // vpsrlw $0xc,%ymm0,%ymm1
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
- .byte 196,226,125,121,29,154,186,0,0 // vpbroadcastw 0xba9a(%rip),%ymm3 # 39fc2 <_sk_srcover_bgra_8888_sse2_lowp+0xa6e>
+ .byte 196,226,125,121,29,166,186,0,0 // vpbroadcastw 0xbaa6(%rip),%ymm3 # 3a9e2 <_sk_srcover_bgra_8888_sse2_lowp+0xa7a>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,189,113,208,4 // vpsrlw $0x4,%ymm0,%ymm8
.byte 197,61,219,195 // vpand %ymm3,%ymm8,%ymm8
@@ -45584,38 +46127,38 @@ _sk_load_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2e59f <_sk_load_a8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2efb3 <_sk_load_a8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,220,0,0,0 // lea 0xdc(%rip),%r9 # 2e664 <_sk_load_a8_hsw_lowp+0x101>
+ .byte 76,141,13,220,0,0,0 // lea 0xdc(%rip),%r9 # 2f078 <_sk_load_a8_hsw_lowp+0x101>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 2e64e <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2f062 <_sk_load_a8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 2e64e <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2f062 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 2e64e <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2f062 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 2e64e <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2f062 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 2e64e <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2f062 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -45673,38 +46216,38 @@ _sk_load_a8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2e6dc <_sk_load_a8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2f0f0 <_sk_load_a8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2e7a0 <_sk_load_a8_dst_hsw_lowp+0x100>
+ .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2f1b4 <_sk_load_a8_dst_hsw_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 2e78b <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 2e78b <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 2e78b <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 2e78b <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 2e78b <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -45761,7 +46304,7 @@ _sk_store_a8_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 196,195,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm8
- .byte 197,121,111,13,41,192,0,0 // vmovdqa 0xc029(%rip),%xmm9 # 3a820 <_sk_srcover_bgra_8888_sse2_lowp+0x12cc>
+ .byte 197,121,111,13,53,192,0,0 // vmovdqa 0xc035(%rip),%xmm9 # 3b240 <_sk_srcover_bgra_8888_sse2_lowp+0x12d8>
.byte 196,66,57,0,193 // vpshufb %xmm9,%xmm8,%xmm8
.byte 196,66,97,0,201 // vpshufb %xmm9,%xmm3,%xmm9
.byte 196,65,49,108,192 // vpunpcklqdq %xmm8,%xmm9,%xmm8
@@ -45769,28 +46312,28 @@ _sk_store_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,28 // ja 2e82c <_sk_store_a8_hsw_lowp+0x50>
+ .byte 119,28 // ja 2f240 <_sk_store_a8_hsw_lowp+0x50>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 2e8ac <_sk_store_a8_hsw_lowp+0xd0>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 2f2c0 <_sk_store_a8_hsw_lowp+0xd0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,20,4,16,0 // vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,121 // jmp 2e8a5 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,121 // jmp 2f2b9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,65,122,127,4,16 // vmovdqu %xmm8,(%r8,%rdx,1)
- .byte 235,113 // jmp 2e8a5 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,113 // jmp 2f2b9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,2,2 // vpextrb $0x2,%xmm8,0x2(%r8,%rdx,1)
.byte 196,67,121,21,4,16,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 2e8a5 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,96 // jmp 2f2b9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,6,6 // vpextrb $0x6,%xmm8,0x6(%r8,%rdx,1)
.byte 196,67,121,20,68,16,5,5 // vpextrb $0x5,%xmm8,0x5(%r8,%rdx,1)
.byte 196,67,121,20,68,16,4,4 // vpextrb $0x4,%xmm8,0x4(%r8,%rdx,1)
.byte 196,65,121,126,4,16 // vmovd %xmm8,(%r8,%rdx,1)
- .byte 235,64 // jmp 2e8a5 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,64 // jmp 2f2b9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,10,10 // vpextrb $0xa,%xmm8,0xa(%r8,%rdx,1)
.byte 196,67,121,20,68,16,9,9 // vpextrb $0x9,%xmm8,0x9(%r8,%rdx,1)
.byte 196,67,121,20,68,16,8,8 // vpextrb $0x8,%xmm8,0x8(%r8,%rdx,1)
- .byte 235,32 // jmp 2e89f <_sk_store_a8_hsw_lowp+0xc3>
+ .byte 235,32 // jmp 2f2b3 <_sk_store_a8_hsw_lowp+0xc3>
.byte 196,67,121,20,68,16,14,14 // vpextrb $0xe,%xmm8,0xe(%r8,%rdx,1)
.byte 196,67,121,20,68,16,13,13 // vpextrb $0xd,%xmm8,0xd(%r8,%rdx,1)
.byte 196,67,121,20,68,16,12,12 // vpextrb $0xc,%xmm8,0xc(%r8,%rdx,1)
@@ -45799,7 +46342,7 @@ _sk_store_a8_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,255 // ja 2e8ad <_sk_store_a8_hsw_lowp+0xd1>
+ .byte 119,255 // ja 2f2c1 <_sk_store_a8_hsw_lowp+0xd1>
.byte 255 // (bad)
.byte 255,144,255,255,255,136 // callq *-0x77000001(%rax)
.byte 255 // (bad)
@@ -45940,38 +46483,38 @@ _sk_load_g8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2eacb <_sk_load_g8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2f4df <_sk_load_g8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,224,0,0,0 // lea 0xe0(%rip),%r9 # 2eb94 <_sk_load_g8_hsw_lowp+0x105>
+ .byte 76,141,13,224,0,0,0 // lea 0xe0(%rip),%r9 # 2f5a8 <_sk_load_g8_hsw_lowp+0x105>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 2eb7a <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2f58e <_sk_load_g8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 2eb7a <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2f58e <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 2eb7a <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2f58e <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 2eb7a <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2f58e <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 2eb7a <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2f58e <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -45981,7 +46524,7 @@ _sk_load_g8_hsw_lowp:
.byte 196,227,113,2,192,8 // vpblendd $0x8,%xmm0,%xmm1,%xmm0
.byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,58,180,0,0 // vpbroadcastw 0xb43a(%rip),%ymm3 # 39fc4 <_sk_srcover_bgra_8888_sse2_lowp+0xa70>
+ .byte 196,226,125,121,29,70,180,0,0 // vpbroadcastw 0xb446(%rip),%ymm3 # 3a9e4 <_sk_srcover_bgra_8888_sse2_lowp+0xa7c>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -45992,7 +46535,7 @@ _sk_load_g8_hsw_lowp:
.byte 255,66,255 // incl -0x1(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 2eba1 <_sk_load_g8_hsw_lowp+0x112>
+ .byte 126,255 // jle 2f5b5 <_sk_load_g8_hsw_lowp+0x112>
.byte 255 // (bad)
.byte 255,118,255 // pushq -0x1(%rsi)
.byte 255 // (bad)
@@ -46032,38 +46575,38 @@ _sk_load_g8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2ec0c <_sk_load_g8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2f620 <_sk_load_g8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2ecd8 <_sk_load_g8_dst_hsw_lowp+0x108>
+ .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2f6ec <_sk_load_g8_dst_hsw_lowp+0x108>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 2ecbb <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 2ecbb <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 2ecbb <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 2ecbb <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 2ecbb <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -46073,7 +46616,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 196,227,81,2,228,8 // vpblendd $0x8,%xmm4,%xmm5,%xmm4
.byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,251,178,0,0 // vpbroadcastw 0xb2fb(%rip),%ymm7 # 39fc6 <_sk_srcover_bgra_8888_sse2_lowp+0xa72>
+ .byte 196,226,125,121,61,7,179,0,0 // vpbroadcastw 0xb307(%rip),%ymm7 # 3a9e6 <_sk_srcover_bgra_8888_sse2_lowp+0xa7e>
.byte 197,253,111,236 // vmovdqa %ymm4,%ymm5
.byte 197,253,111,244 // vmovdqa %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -46087,7 +46630,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2ece5 <_sk_load_g8_dst_hsw_lowp+0x115>
+ .byte 123,255 // jnp 2f6f9 <_sk_load_g8_dst_hsw_lowp+0x115>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -46117,12 +46660,12 @@ HIDDEN _sk_luminance_to_alpha_hsw_lowp
.globl _sk_luminance_to_alpha_hsw_lowp
FUNCTION(_sk_luminance_to_alpha_hsw_lowp)
_sk_luminance_to_alpha_hsw_lowp:
- .byte 196,226,125,121,29,171,178,0,0 // vpbroadcastw 0xb2ab(%rip),%ymm3 # 39fc8 <_sk_srcover_bgra_8888_sse2_lowp+0xa74>
+ .byte 196,226,125,121,29,183,178,0,0 // vpbroadcastw 0xb2b7(%rip),%ymm3 # 3a9e8 <_sk_srcover_bgra_8888_sse2_lowp+0xa80>
.byte 197,253,213,195 // vpmullw %ymm3,%ymm0,%ymm0
- .byte 196,226,125,121,29,160,178,0,0 // vpbroadcastw 0xb2a0(%rip),%ymm3 # 39fca <_sk_srcover_bgra_8888_sse2_lowp+0xa76>
+ .byte 196,226,125,121,29,172,178,0,0 // vpbroadcastw 0xb2ac(%rip),%ymm3 # 3a9ea <_sk_srcover_bgra_8888_sse2_lowp+0xa82>
.byte 197,245,213,203 // vpmullw %ymm3,%ymm1,%ymm1
.byte 197,245,253,192 // vpaddw %ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,145,178,0,0 // vpbroadcastw 0xb291(%rip),%ymm1 # 39fcc <_sk_srcover_bgra_8888_sse2_lowp+0xa78>
+ .byte 196,226,125,121,13,157,178,0,0 // vpbroadcastw 0xb29d(%rip),%ymm1 # 3a9ec <_sk_srcover_bgra_8888_sse2_lowp+0xa84>
.byte 197,237,213,201 // vpmullw %ymm1,%ymm2,%ymm1
.byte 197,253,253,193 // vpaddw %ymm1,%ymm0,%ymm0
.byte 197,229,113,208,8 // vpsrlw $0x8,%ymm0,%ymm3
@@ -46221,7 +46764,7 @@ _sk_gather_g8_hsw_lowp:
.byte 196,227,121,32,192,15 // vpinsrb $0xf,%eax,%xmm0,%xmm0
.byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,212,176,0,0 // vpbroadcastw 0xb0d4(%rip),%ymm3 # 39fce <_sk_srcover_bgra_8888_sse2_lowp+0xa7a>
+ .byte 196,226,125,121,29,224,176,0,0 // vpbroadcastw 0xb0e0(%rip),%ymm3 # 3a9ee <_sk_srcover_bgra_8888_sse2_lowp+0xa86>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -46232,13 +46775,13 @@ FUNCTION(_sk_scale_1_float_hsw_lowp)
_sk_scale_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,30,169,0,0 // vmovss 0xa91e(%rip),%xmm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,57,169,13,229,168,0,0 // vfmadd213ss 0xa8e5(%rip),%xmm8,%xmm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,122,16,13,30,169,0,0 // vmovss 0xa91e(%rip),%xmm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,57,169,13,229,168,0,0 // vfmadd213ss 0xa8e5(%rip),%xmm8,%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,154,176,0,0 // vpbroadcastw 0xb09a(%rip),%ymm9 # 39fd0 <_sk_srcover_bgra_8888_sse2_lowp+0xa7c>
+ .byte 196,98,125,121,13,166,176,0,0 // vpbroadcastw 0xb0a6(%rip),%ymm9 # 3a9f0 <_sk_srcover_bgra_8888_sse2_lowp+0xa88>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -46259,12 +46802,12 @@ FUNCTION(_sk_lerp_1_float_hsw_lowp)
_sk_lerp_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,180,168,0,0 // vmovss 0xa8b4(%rip),%xmm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,57,169,13,123,168,0,0 // vfmadd213ss 0xa87b(%rip),%xmm8,%xmm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 197,122,16,13,180,168,0,0 // vmovss 0xa8b4(%rip),%xmm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,57,169,13,123,168,0,0 // vfmadd213ss 0xa87b(%rip),%xmm8,%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
- .byte 196,98,125,121,13,54,176,0,0 // vpbroadcastw 0xb036(%rip),%ymm9 # 39fd2 <_sk_srcover_bgra_8888_sse2_lowp+0xa7e>
+ .byte 196,98,125,121,13,66,176,0,0 // vpbroadcastw 0xb042(%rip),%ymm9 # 3a9f2 <_sk_srcover_bgra_8888_sse2_lowp+0xa8a>
.byte 196,65,53,249,208 // vpsubw %ymm8,%ymm9,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -46301,38 +46844,38 @@ _sk_scale_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2f03a <_sk_scale_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 2fa4e <_sk_scale_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 2f138 <_sk_scale_u8_hsw_lowp+0x13b>
+ .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 2fb4c <_sk_scale_u8_hsw_lowp+0x13b>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 2f0ed <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 2fb01 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 2f0ed <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 2fb01 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 2f0ed <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 2fb01 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 2f0ed <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 2fb01 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 2f0ed <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 2fb01 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -46342,7 +46885,7 @@ _sk_scale_u8_hsw_lowp:
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,213,174,0,0 // vpbroadcastw 0xaed5(%rip),%ymm9 # 39fd4 <_sk_srcover_bgra_8888_sse2_lowp+0xa80>
+ .byte 196,98,125,121,13,225,174,0,0 // vpbroadcastw 0xaee1(%rip),%ymm9 # 3a9f4 <_sk_srcover_bgra_8888_sse2_lowp+0xa8c>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -46363,7 +46906,7 @@ _sk_scale_u8_hsw_lowp:
.byte 255,26 // lcall *(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c02f144 <_sk_srcover_bgra_8888_sse2_lowp+0x4bff5bf0>
+ .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c02fb58 <_sk_srcover_bgra_8888_sse2_lowp+0x4bff5bf0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,67,255 // incl -0x1(%rbx)
@@ -46402,38 +46945,38 @@ _sk_lerp_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2f1b1 <_sk_lerp_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 2fbc5 <_sk_lerp_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 2f2d4 <_sk_lerp_u8_hsw_lowp+0x160>
+ .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 2fce8 <_sk_lerp_u8_hsw_lowp+0x160>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 2f264 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 2f264 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 2f264 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 2f264 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 2f264 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -46442,7 +46985,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 196,67,49,34,76,16,8,2 // vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm9,%xmm9
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
- .byte 196,98,125,121,13,100,173,0,0 // vpbroadcastw 0xad64(%rip),%ymm9 # 39fd6 <_sk_srcover_bgra_8888_sse2_lowp+0xa82>
+ .byte 196,98,125,121,13,112,173,0,0 // vpbroadcastw 0xad70(%rip),%ymm9 # 3a9f6 <_sk_srcover_bgra_8888_sse2_lowp+0xa8e>
.byte 196,65,61,239,209 // vpxor %ymm9,%ymm8,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -46474,7 +47017,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,254,255,255,38 // callq 2702f2df <_sk_srcover_bgra_8888_sse2_lowp+0x26ff5d8b>
+ .byte 232,254,255,255,38 // callq 2702fcf3 <_sk_srcover_bgra_8888_sse2_lowp+0x26ff5d8b>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,30 // lcall *(%rsi)
@@ -46495,7 +47038,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 255,52,255 // pushq (%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 2f301 <_sk_lerp_u8_hsw_lowp+0x18d>
+ .byte 124,255 // jl 2fd15 <_sk_lerp_u8_hsw_lowp+0x18d>
.byte 255 // (bad)
.byte 255,116,255,255 // pushq -0x1(%rdi,%rdi,8)
.byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8)
@@ -46516,24 +47059,24 @@ _sk_scale_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2f350 <_sk_scale_565_hsw_lowp+0x40>
+ .byte 119,38 // ja 2fd64 <_sk_scale_565_hsw_lowp+0x40>
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 2f538 <_sk_scale_565_hsw_lowp+0x228>
+ .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 2ff4c <_sk_scale_565_hsw_lowp+0x228>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 2f45c <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,12,1,0,0 // jmpq 2fe70 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 2f45c <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,1,1,0,0 // jmpq 2fe70 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 2f45c <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,221,0,0,0 // jmpq 2fe70 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
@@ -46543,7 +47086,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 2f45c <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,157,0,0,0 // jmpq 2fe70 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -46555,7 +47098,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
.byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 2f45c <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 235,84 // jmp 2fe70 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -46569,13 +47112,13 @@ _sk_scale_565_hsw_lowp:
.byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
.byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
.byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,115,171,0,0 // vpbroadcastw 0xab73(%rip),%ymm9 # 39fd8 <_sk_srcover_bgra_8888_sse2_lowp+0xa84>
+ .byte 196,98,125,121,13,127,171,0,0 // vpbroadcastw 0xab7f(%rip),%ymm9 # 3a9f8 <_sk_srcover_bgra_8888_sse2_lowp+0xa90>
.byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,91,171,0,0 // vpbroadcastw 0xab5b(%rip),%ymm11 # 39fda <_sk_srcover_bgra_8888_sse2_lowp+0xa86>
+ .byte 196,98,125,121,29,103,171,0,0 // vpbroadcastw 0xab67(%rip),%ymm11 # 3a9fa <_sk_srcover_bgra_8888_sse2_lowp+0xa92>
.byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,79,171,0,0 // vpbroadcastw 0xab4f(%rip),%ymm11 # 39fdc <_sk_srcover_bgra_8888_sse2_lowp+0xa88>
+ .byte 196,98,125,121,29,91,171,0,0 // vpbroadcastw 0xab5b(%rip),%ymm11 # 3a9fc <_sk_srcover_bgra_8888_sse2_lowp+0xa94>
.byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
.byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -46585,7 +47128,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
.byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
.byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,22,171,0,0 // vpbroadcastw 0xab16(%rip),%ymm11 # 39fde <_sk_srcover_bgra_8888_sse2_lowp+0xa8a>
+ .byte 196,98,125,121,29,34,171,0,0 // vpbroadcastw 0xab22(%rip),%ymm11 # 3a9fe <_sk_srcover_bgra_8888_sse2_lowp+0xa96>
.byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
.byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
.byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
@@ -46595,7 +47138,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
.byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,5,226,170,0,0 // vpbroadcastw 0xaae2(%rip),%ymm8 # 39fe0 <_sk_srcover_bgra_8888_sse2_lowp+0xa8c>
+ .byte 196,98,125,121,5,238,170,0,0 // vpbroadcastw 0xaaee(%rip),%ymm8 # 3aa00 <_sk_srcover_bgra_8888_sse2_lowp+0xa98>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,181,213,201 // vpmullw %ymm1,%ymm9,%ymm1
@@ -46659,24 +47202,24 @@ _sk_lerp_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2f5b4 <_sk_lerp_565_hsw_lowp+0x40>
+ .byte 119,38 // ja 2ffc8 <_sk_lerp_565_hsw_lowp+0x40>
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 2f7d0 <_sk_lerp_565_hsw_lowp+0x25c>
+ .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 301e4 <_sk_lerp_565_hsw_lowp+0x25c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 2f6c0 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,12,1,0,0 // jmpq 300d4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 2f6c0 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,1,1,0,0 // jmpq 300d4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 2f6c0 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,221,0,0,0 // jmpq 300d4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
@@ -46686,7 +47229,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 2f6c0 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,157,0,0,0 // jmpq 300d4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -46698,7 +47241,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
.byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 2f6c0 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 235,84 // jmp 300d4 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -46712,13 +47255,13 @@ _sk_lerp_565_hsw_lowp:
.byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
.byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
.byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,25,169,0,0 // vpbroadcastw 0xa919(%rip),%ymm9 # 39fe2 <_sk_srcover_bgra_8888_sse2_lowp+0xa8e>
+ .byte 196,98,125,121,13,37,169,0,0 // vpbroadcastw 0xa925(%rip),%ymm9 # 3aa02 <_sk_srcover_bgra_8888_sse2_lowp+0xa9a>
.byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,1,169,0,0 // vpbroadcastw 0xa901(%rip),%ymm11 # 39fe4 <_sk_srcover_bgra_8888_sse2_lowp+0xa90>
+ .byte 196,98,125,121,29,13,169,0,0 // vpbroadcastw 0xa90d(%rip),%ymm11 # 3aa04 <_sk_srcover_bgra_8888_sse2_lowp+0xa9c>
.byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,245,168,0,0 // vpbroadcastw 0xa8f5(%rip),%ymm11 # 39fe6 <_sk_srcover_bgra_8888_sse2_lowp+0xa92>
+ .byte 196,98,125,121,29,1,169,0,0 // vpbroadcastw 0xa901(%rip),%ymm11 # 3aa06 <_sk_srcover_bgra_8888_sse2_lowp+0xa9e>
.byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
.byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -46728,7 +47271,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
.byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
.byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,188,168,0,0 // vpbroadcastw 0xa8bc(%rip),%ymm11 # 39fe8 <_sk_srcover_bgra_8888_sse2_lowp+0xa94>
+ .byte 196,98,125,121,29,200,168,0,0 // vpbroadcastw 0xa8c8(%rip),%ymm11 # 3aa08 <_sk_srcover_bgra_8888_sse2_lowp+0xaa0>
.byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
.byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
.byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
@@ -46737,7 +47280,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,66,53,62,234 // vpmaxuw %ymm10,%ymm9,%ymm13
.byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
.byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
- .byte 196,98,125,121,37,140,168,0,0 // vpbroadcastw 0xa88c(%rip),%ymm12 # 39fea <_sk_srcover_bgra_8888_sse2_lowp+0xa96>
+ .byte 196,98,125,121,37,152,168,0,0 // vpbroadcastw 0xa898(%rip),%ymm12 # 3aa0a <_sk_srcover_bgra_8888_sse2_lowp+0xaa2>
.byte 196,65,61,239,236 // vpxor %ymm12,%ymm8,%ymm13
.byte 197,21,213,236 // vpmullw %ymm4,%ymm13,%ymm13
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -46810,7 +47353,7 @@ _sk_clamp_x_1_hsw_lowp:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,224,159,0,0 // vbroadcastss 0x9fe0(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,224,159,0,0 // vbroadcastss 0x9fe0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -46827,7 +47370,7 @@ _sk_repeat_x_1_hsw_lowp:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,164,159,0,0 // vbroadcastss 0x9fa4(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,164,159,0,0 // vbroadcastss 0x9fa4(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -46837,10 +47380,10 @@ HIDDEN _sk_mirror_x_1_hsw_lowp
.globl _sk_mirror_x_1_hsw_lowp
FUNCTION(_sk_mirror_x_1_hsw_lowp)
_sk_mirror_x_1_hsw_lowp:
- .byte 196,98,125,24,5,165,159,0,0 // vbroadcastss 0x9fa5(%rip),%ymm8 # 3981c <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
+ .byte 196,98,125,24,5,165,159,0,0 // vbroadcastss 0x9fa5(%rip),%ymm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,118,159,0,0 // vbroadcastss 0x9f76(%rip),%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,13,118,159,0,0 // vbroadcastss 0x9f76(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,65,116,89,209 // vmulps %ymm9,%ymm1,%ymm10
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
@@ -46851,13 +47394,13 @@ _sk_mirror_x_1_hsw_lowp:
.byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
.byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,205,160,0,0 // vbroadcastss 0xa0cd(%rip),%ymm8 # 39994 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
+ .byte 196,98,125,24,5,205,160,0,0 // vbroadcastss 0xa0cd(%rip),%ymm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 196,193,124,84,192 // vandps %ymm8,%ymm0,%ymm0
.byte 196,193,116,84,200 // vandps %ymm8,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,27,159,0,0 // vbroadcastss 0x9f1b(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,27,159,0,0 // vbroadcastss 0x9f1b(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -46877,7 +47420,7 @@ _sk_gradient_hsw_lowp:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,60 // jb 2f964 <_sk_gradient_hsw_lowp+0x6d>
+ .byte 114,60 // jb 30378 <_sk_gradient_hsw_lowp+0x6d>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
@@ -46889,9 +47432,9 @@ _sk_gradient_hsw_lowp:
.byte 197,213,250,234 // vpsubd %ymm2,%ymm5,%ymm5
.byte 73,255,194 // inc %r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,224 // jne 2f93a <_sk_gradient_hsw_lowp+0x43>
+ .byte 117,224 // jne 3034e <_sk_gradient_hsw_lowp+0x43>
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,135,180,0,0,0 // ja 2fa18 <_sk_gradient_hsw_lowp+0x121>
+ .byte 15,135,180,0,0,0 // ja 3042c <_sk_gradient_hsw_lowp+0x121>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 196,193,124,16,24 // vmovups (%r8),%ymm3
@@ -46928,7 +47471,7 @@ _sk_gradient_hsw_lowp:
.byte 197,124,16,56 // vmovups (%rax),%ymm15
.byte 196,66,69,22,231 // vpermps %ymm15,%ymm7,%ymm12
.byte 196,194,85,22,255 // vpermps %ymm15,%ymm5,%ymm7
- .byte 233,34,1,0,0 // jmpq 2fb3a <_sk_gradient_hsw_lowp+0x243>
+ .byte 233,34,1,0,0 // jmpq 3054e <_sk_gradient_hsw_lowp+0x243>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
@@ -46997,8 +47540,8 @@ _sk_gradient_hsw_lowp:
.byte 196,98,117,168,76,36,128 // vfmadd213ps -0x80(%rsp),%ymm1,%ymm9
.byte 196,98,117,168,222 // vfmadd213ps %ymm6,%ymm1,%ymm11
.byte 196,226,117,184,124,36,160 // vfmadd231ps -0x60(%rsp),%ymm1,%ymm7
- .byte 196,226,125,24,5,189,156,0,0 // vbroadcastss 0x9cbd(%rip),%ymm0 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,226,125,24,13,132,156,0,0 // vbroadcastss 0x9c84(%rip),%ymm1 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,189,156,0,0 // vbroadcastss 0x9cbd(%rip),%ymm0 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,226,125,24,13,132,156,0,0 // vbroadcastss 0x9c84(%rip),%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,168,217 // vfmadd213ps %ymm1,%ymm0,%ymm3
.byte 196,226,125,168,209 // vfmadd213ps %ymm1,%ymm0,%ymm2
.byte 196,98,125,168,201 // vfmadd213ps %ymm1,%ymm0,%ymm9
@@ -47008,7 +47551,7 @@ _sk_gradient_hsw_lowp:
.byte 196,226,125,168,249 // vfmadd213ps %ymm1,%ymm0,%ymm7
.byte 196,98,125,168,225 // vfmadd213ps %ymm1,%ymm0,%ymm12
.byte 197,254,91,194 // vcvttps2dq %ymm2,%ymm0
- .byte 197,253,111,37,80,164,0,0 // vmovdqa 0xa450(%rip),%ymm4 # 3a000 <_sk_srcover_bgra_8888_sse2_lowp+0xaac>
+ .byte 197,253,111,37,92,164,0,0 // vmovdqa 0xa45c(%rip),%ymm4 # 3aa20 <_sk_srcover_bgra_8888_sse2_lowp+0xab8>
.byte 196,226,125,0,196 // vpshufb %ymm4,%ymm0,%ymm0
.byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0
.byte 197,254,91,203 // vcvttps2dq %ymm3,%ymm1
@@ -47057,9 +47600,9 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 76,139,0 // mov (%rax),%r8
.byte 77,137,193 // mov %r8,%r9
.byte 73,255,201 // dec %r9
- .byte 120,7 // js 2fc95 <_sk_evenly_spaced_gradient_hsw_lowp+0x32>
+ .byte 120,7 // js 306a9 <_sk_evenly_spaced_gradient_hsw_lowp+0x32>
.byte 196,193,234,42,209 // vcvtsi2ss %r9,%xmm2,%xmm2
- .byte 235,22 // jmp 2fcab <_sk_evenly_spaced_gradient_hsw_lowp+0x48>
+ .byte 235,22 // jmp 306bf <_sk_evenly_spaced_gradient_hsw_lowp+0x48>
.byte 77,137,202 // mov %r9,%r10
.byte 73,209,234 // shr %r10
.byte 65,131,225,1 // and $0x1,%r9d
@@ -47072,7 +47615,7 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 197,126,91,242 // vcvttps2dq %ymm2,%ymm14
.byte 197,254,91,251 // vcvttps2dq %ymm3,%ymm7
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,135,180,0,0,0 // ja 2fd7e <_sk_evenly_spaced_gradient_hsw_lowp+0x11b>
+ .byte 15,135,180,0,0,0 // ja 30792 <_sk_evenly_spaced_gradient_hsw_lowp+0x11b>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 196,193,124,16,24 // vmovups (%r8),%ymm3
@@ -47109,7 +47652,7 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 197,124,16,56 // vmovups (%rax),%ymm15
.byte 196,66,69,22,231 // vpermps %ymm15,%ymm7,%ymm12
.byte 196,194,13,22,255 // vpermps %ymm15,%ymm14,%ymm7
- .byte 233,33,1,0,0 // jmpq 2fe9f <_sk_evenly_spaced_gradient_hsw_lowp+0x23c>
+ .byte 233,33,1,0,0 // jmpq 308b3 <_sk_evenly_spaced_gradient_hsw_lowp+0x23c>
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -47178,8 +47721,8 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 196,98,117,168,76,36,128 // vfmadd213ps -0x80(%rsp),%ymm1,%ymm9
.byte 196,98,117,168,222 // vfmadd213ps %ymm6,%ymm1,%ymm11
.byte 196,226,117,184,124,36,160 // vfmadd231ps -0x60(%rsp),%ymm1,%ymm7
- .byte 196,226,125,24,5,88,153,0,0 // vbroadcastss 0x9958(%rip),%ymm0 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,226,125,24,13,31,153,0,0 // vbroadcastss 0x991f(%rip),%ymm1 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,5,88,153,0,0 // vbroadcastss 0x9958(%rip),%ymm0 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,226,125,24,13,31,153,0,0 // vbroadcastss 0x991f(%rip),%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,226,125,168,217 // vfmadd213ps %ymm1,%ymm0,%ymm3
.byte 196,226,125,168,209 // vfmadd213ps %ymm1,%ymm0,%ymm2
.byte 196,98,125,168,201 // vfmadd213ps %ymm1,%ymm0,%ymm9
@@ -47189,7 +47732,7 @@ _sk_evenly_spaced_gradient_hsw_lowp:
.byte 196,226,125,168,249 // vfmadd213ps %ymm1,%ymm0,%ymm7
.byte 196,98,125,168,225 // vfmadd213ps %ymm1,%ymm0,%ymm12
.byte 197,254,91,194 // vcvttps2dq %ymm2,%ymm0
- .byte 197,253,111,37,11,161,0,0 // vmovdqa 0xa10b(%rip),%ymm4 # 3a020 <_sk_srcover_bgra_8888_sse2_lowp+0xacc>
+ .byte 197,253,111,37,23,161,0,0 // vmovdqa 0xa117(%rip),%ymm4 # 3aa40 <_sk_srcover_bgra_8888_sse2_lowp+0xad8>
.byte 196,226,125,0,196 // vpshufb %ymm4,%ymm0,%ymm0
.byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0
.byte 197,254,91,203 // vcvttps2dq %ymm3,%ymm1
@@ -47235,12 +47778,12 @@ _sk_evenly_spaced_2_stop_gradient_hsw_lowp:
.byte 197,124,40,194 // vmovaps %ymm2,%ymm8
.byte 196,98,125,168,195 // vfmadd213ps %ymm3,%ymm0,%ymm8
.byte 196,226,117,168,211 // vfmadd213ps %ymm3,%ymm1,%ymm2
- .byte 196,226,125,24,29,68,152,0,0 // vbroadcastss 0x9844(%rip),%ymm3 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,125,24,29,11,152,0,0 // vbroadcastss 0x980b(%rip),%ymm11 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,226,125,24,29,68,152,0,0 // vbroadcastss 0x9844(%rip),%ymm3 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,29,11,152,0,0 // vbroadcastss 0x980b(%rip),%ymm11 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 196,194,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm2
.byte 196,66,101,168,195 // vfmadd213ps %ymm11,%ymm3,%ymm8
.byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
- .byte 197,125,111,21,52,160,0,0 // vmovdqa 0xa034(%rip),%ymm10 # 3a040 <_sk_srcover_bgra_8888_sse2_lowp+0xaec>
+ .byte 197,125,111,21,64,160,0,0 // vmovdqa 0xa040(%rip),%ymm10 # 3aa60 <_sk_srcover_bgra_8888_sse2_lowp+0xaf8>
.byte 196,66,61,0,194 // vpshufb %ymm10,%ymm8,%ymm8
.byte 196,67,253,0,192,232 // vpermq $0xe8,%ymm8,%ymm8
.byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
@@ -47304,7 +47847,7 @@ _sk_xy_to_unit_angle_hsw_lowp:
.byte 197,252,40,227 // vmovaps %ymm3,%ymm4
.byte 197,252,40,217 // vmovaps %ymm1,%ymm3
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 196,98,125,24,5,94,152,0,0 // vbroadcastss 0x985e(%rip),%ymm8 # 39994 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
+ .byte 196,98,125,24,5,94,152,0,0 // vbroadcastss 0x985e(%rip),%ymm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
.byte 196,65,116,84,200 // vandps %ymm8,%ymm1,%ymm9
.byte 196,65,100,84,208 // vandps %ymm8,%ymm3,%ymm10
.byte 196,65,108,84,216 // vandps %ymm8,%ymm2,%ymm11
@@ -47318,20 +47861,20 @@ _sk_xy_to_unit_angle_hsw_lowp:
.byte 196,67,45,74,192,192 // vblendvps %ymm12,%ymm8,%ymm10,%ymm8
.byte 196,65,4,94,192 // vdivps %ymm8,%ymm15,%ymm8
.byte 196,65,60,89,208 // vmulps %ymm8,%ymm8,%ymm10
- .byte 196,98,125,24,29,170,151,0,0 // vbroadcastss 0x97aa(%rip),%ymm11 # 39930 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- .byte 196,98,125,24,53,165,151,0,0 // vbroadcastss 0x97a5(%rip),%ymm14 # 39934 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
+ .byte 196,98,125,24,29,170,151,0,0 // vbroadcastss 0x97aa(%rip),%ymm11 # 3a344 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
+ .byte 196,98,125,24,53,165,151,0,0 // vbroadcastss 0x97a5(%rip),%ymm14 # 3a348 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
.byte 196,65,124,40,251 // vmovaps %ymm11,%ymm15
.byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15
.byte 196,193,52,89,193 // vmulps %ymm9,%ymm9,%ymm0
.byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11
- .byte 196,98,125,24,53,140,151,0,0 // vbroadcastss 0x978c(%rip),%ymm14 # 39938 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
+ .byte 196,98,125,24,53,140,151,0,0 // vbroadcastss 0x978c(%rip),%ymm14 # 3a34c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
.byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11
.byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15
- .byte 196,98,125,24,53,125,151,0,0 // vbroadcastss 0x977d(%rip),%ymm14 # 3993c <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
+ .byte 196,98,125,24,53,125,151,0,0 // vbroadcastss 0x977d(%rip),%ymm14 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
.byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15
.byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11
.byte 196,193,52,89,195 // vmulps %ymm11,%ymm9,%ymm0
- .byte 196,98,125,24,13,105,151,0,0 // vbroadcastss 0x9769(%rip),%ymm9 # 39940 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
+ .byte 196,98,125,24,13,105,151,0,0 // vbroadcastss 0x9769(%rip),%ymm9 # 3a354 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
.byte 197,52,92,208 // vsubps %ymm0,%ymm9,%ymm10
.byte 196,195,125,74,194,208 // vblendvps %ymm13,%ymm10,%ymm0,%ymm0
.byte 196,65,60,89,199 // vmulps %ymm15,%ymm8,%ymm8
@@ -47339,14 +47882,14 @@ _sk_xy_to_unit_angle_hsw_lowp:
.byte 196,67,61,74,193,192 // vblendvps %ymm12,%ymm9,%ymm8,%ymm8
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,193,116,194,201,1 // vcmpltps %ymm9,%ymm1,%ymm1
- .byte 196,98,125,24,21,251,149,0,0 // vbroadcastss 0x95fb(%rip),%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 196,98,125,24,21,251,149,0,0 // vbroadcastss 0x95fb(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 197,44,92,216 // vsubps %ymm0,%ymm10,%ymm11
.byte 196,195,125,74,195,16 // vblendvps %ymm1,%ymm11,%ymm0,%ymm0
.byte 196,193,100,194,201,1 // vcmpltps %ymm9,%ymm3,%ymm1
.byte 196,193,44,92,216 // vsubps %ymm8,%ymm10,%ymm3
.byte 196,227,61,74,203,16 // vblendvps %ymm1,%ymm3,%ymm8,%ymm1
.byte 196,193,108,194,217,1 // vcmpltps %ymm9,%ymm2,%ymm3
- .byte 196,98,125,24,5,213,149,0,0 // vbroadcastss 0x95d5(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
+ .byte 196,98,125,24,5,213,149,0,0 // vbroadcastss 0x95d5(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
.byte 197,60,92,208 // vsubps %ymm0,%ymm8,%ymm10
.byte 196,195,125,74,194,48 // vblendvps %ymm3,%ymm10,%ymm0,%ymm0
.byte 196,193,92,194,217,1 // vcmpltps %ymm9,%ymm4,%ymm3
@@ -47392,9 +47935,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,194 // movzbl %r10b,%r8d
.byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 119,51 // ja 302f3 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
+ .byte 119,51 // ja 30d07 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 76,141,29,237,2,0,0 // lea 0x2ed(%rip),%r11 # 305b8 <_sk_srcover_rgba_8888_hsw_lowp+0x321>
+ .byte 76,141,29,237,2,0,0 // lea 0x2ed(%rip),%r11 # 30fcc <_sk_srcover_rgba_8888_hsw_lowp+0x321>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -47404,10 +47947,10 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,41 // vmovd (%r9),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,22,1,0,0 // jmpq 30409 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,22,1,0,0 // jmpq 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
.byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4
- .byte 233,6,1,0,0 // jmpq 30409 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,6,1,0,0 // jmpq 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -47416,7 +47959,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,216,0,0,0 // jmpq 30409 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,216,0,0,0 // jmpq 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -47432,7 +47975,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,129,0,0,0 // jmpq 30409 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,129,0,0,0 // jmpq 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -47442,7 +47985,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 235,76 // jmp 30409 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 235,76 // jmp 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -47462,9 +48005,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,46,156,0,0 // vmovdqa 0x9c2e(%rip),%ymm8 # 3a060 <_sk_srcover_bgra_8888_sse2_lowp+0xb0c>
+ .byte 197,125,111,5,58,156,0,0 // vmovdqa 0x9c3a(%rip),%ymm8 # 3aa80 <_sk_srcover_bgra_8888_sse2_lowp+0xb18>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
- .byte 196,98,125,121,13,64,156,0,0 // vpbroadcastw 0x9c40(%rip),%ymm9 # 3a080 <_sk_srcover_bgra_8888_sse2_lowp+0xb2c>
+ .byte 196,98,125,121,13,76,156,0,0 // vpbroadcastw 0x9c4c(%rip),%ymm9 # 3aaa0 <_sk_srcover_bgra_8888_sse2_lowp+0xb38>
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
.byte 197,205,114,214,16 // vpsrld $0x10,%ymm6,%ymm6
@@ -47503,19 +48046,19 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,26 // ja 3051a <_sk_srcover_rgba_8888_hsw_lowp+0x283>
- .byte 76,141,21,237,0,0,0 // lea 0xed(%rip),%r10 # 305f4 <_sk_srcover_rgba_8888_hsw_lowp+0x35d>
+ .byte 119,26 // ja 30f2e <_sk_srcover_rgba_8888_hsw_lowp+0x283>
+ .byte 76,141,21,237,0,0,0 // lea 0xed(%rip),%r10 # 31008 <_sk_srcover_rgba_8888_hsw_lowp+0x35d>
.byte 75,99,4,130 // movslq (%r10,%r8,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,1 // vmovd %xmm8,(%r9)
- .byte 233,151,0,0,0 // jmpq 305b1 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,151,0,0,0 // jmpq 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
.byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9)
- .byte 233,135,0,0,0 // jmpq 305b1 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,135,0,0,0 // jmpq 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9)
.byte 196,65,121,214,1 // vmovq %xmm8,(%r9)
- .byte 235,121 // jmp 305b1 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,121 // jmp 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -47523,12 +48066,12 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9)
.byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9)
- .byte 235,76 // jmp 305b1 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,76 // jmp 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9)
.byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9)
.byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9)
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 235,49 // jmp 305b1 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,49 // jmp 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -47567,10 +48110,10 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255,64,254 // incl -0x2(%rax)
.byte 255 // (bad)
- .byte 255,45,254,255,255,26 // ljmp *0x1afffffe(%rip) # 1b0305eb <_sk_srcover_bgra_8888_sse2_lowp+0x1aff7097>
+ .byte 255,45,254,255,255,26 // ljmp *0x1afffffe(%rip) # 1b030fff <_sk_srcover_bgra_8888_sse2_lowp+0x1aff7097>
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,5,254,255,255,28 // incl 0x1cfffffe(%rip) # 1d0305f3 <_sk_srcover_bgra_8888_sse2_lowp+0x1cff709f>
+ .byte 255,5,254,255,255,28 // incl 0x1cfffffe(%rip) # 1d031007 <_sk_srcover_bgra_8888_sse2_lowp+0x1cff709f>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -47588,7 +48131,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 120,255 // js 30619 <_sk_srcover_rgba_8888_hsw_lowp+0x382>
+ .byte 120,255 // js 3102d <_sk_srcover_rgba_8888_hsw_lowp+0x382>
.byte 255 // (bad)
.byte 255,113,255 // pushq -0x1(%rcx)
.byte 255 // (bad)
@@ -47615,9 +48158,9 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,194 // movzbl %r10b,%r8d
.byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 119,51 // ja 3068c <_sk_srcover_bgra_8888_hsw_lowp+0x5c>
+ .byte 119,51 // ja 310a0 <_sk_srcover_bgra_8888_hsw_lowp+0x5c>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 30950 <_sk_srcover_bgra_8888_hsw_lowp+0x320>
+ .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 31364 <_sk_srcover_bgra_8888_hsw_lowp+0x320>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -47627,10 +48170,10 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,41 // vmovd (%r9),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,22,1,0,0 // jmpq 307a2 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,22,1,0,0 // jmpq 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
.byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4
- .byte 233,6,1,0,0 // jmpq 307a2 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,6,1,0,0 // jmpq 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -47639,7 +48182,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,216,0,0,0 // jmpq 307a2 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,216,0,0,0 // jmpq 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -47655,7 +48198,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,129,0,0,0 // jmpq 307a2 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 233,129,0,0,0 // jmpq 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -47665,7 +48208,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 235,76 // jmp 307a2 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
+ .byte 235,76 // jmp 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -47685,9 +48228,9 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6
.byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5
.byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5
- .byte 197,125,111,5,213,152,0,0 // vmovdqa 0x98d5(%rip),%ymm8 # 3a0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xb4c>
+ .byte 197,125,111,5,225,152,0,0 // vmovdqa 0x98e1(%rip),%ymm8 # 3aac0 <_sk_srcover_bgra_8888_sse2_lowp+0xb58>
.byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6
- .byte 196,98,125,121,13,231,152,0,0 // vpbroadcastw 0x98e7(%rip),%ymm9 # 3a0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xb6c>
+ .byte 196,98,125,121,13,243,152,0,0 // vpbroadcastw 0x98f3(%rip),%ymm9 # 3aae0 <_sk_srcover_bgra_8888_sse2_lowp+0xb78>
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
@@ -47726,19 +48269,19 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,26 // ja 308b3 <_sk_srcover_bgra_8888_hsw_lowp+0x283>
- .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 3098c <_sk_srcover_bgra_8888_hsw_lowp+0x35c>
+ .byte 119,26 // ja 312c7 <_sk_srcover_bgra_8888_hsw_lowp+0x283>
+ .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 313a0 <_sk_srcover_bgra_8888_hsw_lowp+0x35c>
.byte 75,99,4,130 // movslq (%r10,%r8,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,1 // vmovd %xmm8,(%r9)
- .byte 233,151,0,0,0 // jmpq 3094a <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 233,151,0,0,0 // jmpq 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
.byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9)
- .byte 233,135,0,0,0 // jmpq 3094a <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 233,135,0,0,0 // jmpq 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9)
.byte 196,65,121,214,1 // vmovq %xmm8,(%r9)
- .byte 235,121 // jmp 3094a <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 235,121 // jmp 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -47746,12 +48289,12 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9)
.byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9)
- .byte 235,76 // jmp 3094a <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 235,76 // jmp 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9)
.byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9)
.byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9)
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 235,49 // jmp 3094a <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
+ .byte 235,49 // jmp 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -47799,7 +48342,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 255,6 // incl (%rsi)
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f030990 <_sk_srcover_bgra_8888_sse2_lowp+0x3eff743c>
+ .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f0313a4 <_sk_srcover_bgra_8888_sse2_lowp+0x3eff743c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,55 // pushq (%rdi)
@@ -47817,7 +48360,7 @@ _sk_srcover_bgra_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 121,255 // jns 309b1 <_sk_srcover_bgra_8888_hsw_lowp+0x381>
+ .byte 121,255 // jns 313c5 <_sk_srcover_bgra_8888_hsw_lowp+0x381>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -47850,13 +48393,13 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 30a7e <_sk_start_pipeline_sse41_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 31492 <_sk_start_pipeline_sse41_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 30a4c <_sk_start_pipeline_sse41_lowp+0x84>
+ .byte 119,59 // ja 31460 <_sk_start_pipeline_sse41_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -47875,10 +48418,10 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 30a15 <_sk_start_pipeline_sse41_lowp+0x4d>
+ .byte 118,201 // jbe 31429 <_sk_start_pipeline_sse41_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 30a75 <_sk_start_pipeline_sse41_lowp+0xad>
+ .byte 116,33 // je 31489 <_sk_start_pipeline_sse41_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -47892,7 +48435,7 @@ _sk_start_pipeline_sse41_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 30a07 <_sk_start_pipeline_sse41_lowp+0x3f>
+ .byte 117,137 // jne 3141b <_sk_start_pipeline_sse41_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -47923,7 +48466,7 @@ _sk_seed_shader_sse41_lowp:
.byte 102,15,110,209 // movd %ecx,%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,88,21,100,150,0,0 // addps 0x9664(%rip),%xmm2 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,88,21,112,150,0,0 // addps 0x9670(%rip),%xmm2 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 255,224 // jmpq *%rax
@@ -48100,7 +48643,7 @@ HIDDEN _sk_black_color_sse41_lowp
FUNCTION(_sk_black_color_sse41_lowp)
_sk_black_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,169,147,0,0 // movaps 0x93a9(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 15,40,29,181,147,0,0 // movaps 0x93b5(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -48111,7 +48654,7 @@ HIDDEN _sk_white_color_sse41_lowp
FUNCTION(_sk_white_color_sse41_lowp)
_sk_white_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,149,147,0,0 // movaps 0x9395(%rip),%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 15,40,5,161,147,0,0 // movaps 0x93a1(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -48122,10 +48665,10 @@ HIDDEN _sk_set_rgb_sse41_lowp
FUNCTION(_sk_set_rgb_sse41_lowp)
_sk_set_rgb_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,224,138,0,0 // movss 0x8ae0(%rip),%xmm2 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,15,16,21,224,138,0,0 // movss 0x8ae0(%rip),%xmm2 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,159,138,0,0 // movss 0x8a9f(%rip),%xmm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,16,5,159,138,0,0 // movss 0x8a9f(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -48172,7 +48715,7 @@ HIDDEN _sk_premul_sse41_lowp
FUNCTION(_sk_premul_sse41_lowp)
_sk_premul_sse41_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,225,146,0,0 // movdqa 0x92e1(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,237,146,0,0 // movdqa 0x92ed(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -48189,7 +48732,7 @@ HIDDEN _sk_premul_dst_sse41_lowp
FUNCTION(_sk_premul_dst_sse41_lowp)
_sk_premul_dst_sse41_lowp:
.byte 102,15,213,231 // pmullw %xmm7,%xmm4
- .byte 102,68,15,111,5,170,146,0,0 // movdqa 0x92aa(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,182,146,0,0 // movdqa 0x92b6(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,224 // paddw %xmm8,%xmm4
.byte 102,15,113,212,8 // psrlw $0x8,%xmm4
.byte 102,15,213,239 // pmullw %xmm7,%xmm5
@@ -48237,7 +48780,7 @@ HIDDEN _sk_invert_sse41_lowp
.globl _sk_invert_sse41_lowp
FUNCTION(_sk_invert_sse41_lowp)
_sk_invert_sse41_lowp:
- .byte 102,68,15,111,5,72,146,0,0 // movdqa 0x9248(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,84,146,0,0 // movdqa 0x9254(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -48269,7 +48812,7 @@ FUNCTION(_sk_srcatop_sse41_lowp)
_sk_srcatop_sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,236,145,0,0 // movdqa 0x91ec(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,15,111,29,248,145,0,0 // movdqa 0x91f8(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -48301,7 +48844,7 @@ FUNCTION(_sk_dstatop_sse41_lowp)
_sk_dstatop_sse41_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,108,145,0,0 // movdqa 0x916c(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,120,145,0,0 // movdqa 0x9178(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -48330,7 +48873,7 @@ HIDDEN _sk_srcin_sse41_lowp
FUNCTION(_sk_srcin_sse41_lowp)
_sk_srcin_sse41_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,247,144,0,0 // movdqa 0x90f7(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,3,145,0,0 // movdqa 0x9103(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -48351,7 +48894,7 @@ FUNCTION(_sk_dstin_sse41_lowp)
_sk_dstin_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,174,144,0,0 // movdqa 0x90ae(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,186,144,0,0 // movdqa 0x90ba(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -48372,7 +48915,7 @@ HIDDEN _sk_srcout_sse41_lowp
.globl _sk_srcout_sse41_lowp
FUNCTION(_sk_srcout_sse41_lowp)
_sk_srcout_sse41_lowp:
- .byte 102,68,15,111,5,101,144,0,0 // movdqa 0x9065(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,113,144,0,0 // movdqa 0x9071(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -48395,7 +48938,7 @@ HIDDEN _sk_dstout_sse41_lowp
FUNCTION(_sk_dstout_sse41_lowp)
_sk_dstout_sse41_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,14,144,0,0 // movdqa 0x900e(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,26,144,0,0 // movdqa 0x901a(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -48420,7 +48963,7 @@ HIDDEN _sk_srcover_sse41_lowp
.globl _sk_srcover_sse41_lowp
FUNCTION(_sk_srcover_sse41_lowp)
_sk_srcover_sse41_lowp:
- .byte 102,68,15,111,13,180,143,0,0 // movdqa 0x8fb4(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,192,143,0,0 // movdqa 0x8fc0(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -48449,7 +48992,7 @@ HIDDEN _sk_dstover_sse41_lowp
.globl _sk_dstover_sse41_lowp
FUNCTION(_sk_dstover_sse41_lowp)
_sk_dstover_sse41_lowp:
- .byte 102,68,15,111,5,58,143,0,0 // movdqa 0x8f3a(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,70,143,0,0 // movdqa 0x8f46(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -48476,7 +49019,7 @@ HIDDEN _sk_modulate_sse41_lowp
FUNCTION(_sk_modulate_sse41_lowp)
_sk_modulate_sse41_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,211,142,0,0 // movdqa 0x8ed3(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,223,142,0,0 // movdqa 0x8edf(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -48495,7 +49038,7 @@ HIDDEN _sk_multiply_sse41_lowp
.globl _sk_multiply_sse41_lowp
FUNCTION(_sk_multiply_sse41_lowp)
_sk_multiply_sse41_lowp:
- .byte 102,68,15,111,13,146,142,0,0 // movdqa 0x8e92(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,158,142,0,0 // movdqa 0x8e9e(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -48538,7 +49081,7 @@ HIDDEN _sk_plus__sse41_lowp
FUNCTION(_sk_plus__sse41_lowp)
_sk_plus__sse41_lowp:
.byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,68,15,111,5,215,141,0,0 // movdqa 0x8dd7(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,227,141,0,0 // movdqa 0x8de3(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,56,58,192 // pminuw %xmm8,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,65,15,56,58,200 // pminuw %xmm8,%xmm1
@@ -48558,7 +49101,7 @@ _sk_screen_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,145,141,0,0 // movdqa 0x8d91(%rip),%xmm10 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,21,157,141,0,0 // movdqa 0x8d9d(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -48590,7 +49133,7 @@ HIDDEN _sk_xor__sse41_lowp
FUNCTION(_sk_xor__sse41_lowp)
_sk_xor__sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,15,141,0,0 // movdqa 0x8d0f(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,27,141,0,0 // movdqa 0x8d1b(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -48633,7 +49176,7 @@ _sk_darken_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,62,201 // pmaxuw %xmm9,%xmm1
- .byte 102,68,15,111,13,86,140,0,0 // movdqa 0x8c56(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,98,140,0,0 // movdqa 0x8c62(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -48677,7 +49220,7 @@ _sk_lighten_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,153,139,0,0 // movdqa 0x8b99(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,165,139,0,0 // movdqa 0x8ba5(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -48721,10 +49264,10 @@ _sk_difference_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,220,138,0,0 // movdqa 0x8adc(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,232,138,0,0 // movdqa 0x8ae8(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,41,146,0,0 // movdqa 0x9229(%rip),%xmm10 # 3a830 <_sk_srcover_bgra_8888_sse2_lowp+0x12dc>
+ .byte 102,68,15,111,21,53,146,0,0 // movdqa 0x9235(%rip),%xmm10 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,221 // movdqa %xmm5,%xmm11
@@ -48766,10 +49309,10 @@ _sk_exclusion_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,24,138,0,0 // movdqa 0x8a18(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,36,138,0,0 // movdqa 0x8a24(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,101,145,0,0 // movdqa 0x9165(%rip),%xmm10 # 3a830 <_sk_srcover_bgra_8888_sse2_lowp+0x12dc>
+ .byte 102,68,15,111,21,113,145,0,0 // movdqa 0x9171(%rip),%xmm10 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -48805,14 +49348,14 @@ _sk_hardlight_sse41_lowp:
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,115,137,0,0 // movdqa 0x8973(%rip),%xmm11 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,29,127,137,0,0 // movdqa 0x897f(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,227 // movdqa %xmm11,%xmm4
.byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
.byte 102,68,15,111,251 // movdqa %xmm3,%xmm15
.byte 102,69,15,249,248 // psubw %xmm8,%xmm15
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
- .byte 102,68,15,111,13,188,144,0,0 // movdqa 0x90bc(%rip),%xmm9 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec>
+ .byte 102,68,15,111,13,200,144,0,0 // movdqa 0x90c8(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,239,241 // pxor %xmm9,%xmm14
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -48859,7 +49402,7 @@ _sk_hardlight_sse41_lowp:
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,100,136,0,0 // movdqa 0x8864(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,112,136,0,0 // movdqa 0x8870(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -48898,7 +49441,7 @@ FUNCTION(_sk_overlay_sse41_lowp)
_sk_overlay_sse41_lowp:
.byte 102,68,15,111,231 // movdqa %xmm7,%xmm12
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,199,135,0,0 // movdqa 0x87c7(%rip),%xmm11 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,29,211,135,0,0 // movdqa 0x87d3(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
@@ -48910,7 +49453,7 @@ _sk_overlay_sse41_lowp:
.byte 102,68,15,249,252 // psubw %xmm4,%xmm15
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,68,15,111,13,248,142,0,0 // movdqa 0x8ef8(%rip),%xmm9 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec>
+ .byte 102,68,15,111,13,4,143,0,0 // movdqa 0x8f04(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,69,15,111,212 // movdqa %xmm12,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
.byte 102,69,15,213,254 // pmullw %xmm14,%xmm15
@@ -48956,7 +49499,7 @@ _sk_overlay_sse41_lowp:
.byte 102,15,253,210 // paddw %xmm2,%xmm2
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,170,134,0,0 // movdqa 0x86aa(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,182,134,0,0 // movdqa 0x86b6(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -48999,49 +49542,49 @@ _sk_load_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 31ae8 <_sk_load_8888_sse41_lowp+0x44>
+ .byte 119,41 // ja 324fc <_sk_load_8888_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 31bc0 <_sk_load_8888_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 325d4 <_sk_load_8888_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,144 // movd (%r8,%rdx,4),%xmm2
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 31b41 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 32555 <_sk_load_8888_sse41_lowp+0x9d>
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 31b41 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 32555 <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 243,65,15,126,20,144 // movq (%r8,%rdx,4),%xmm2
.byte 102,65,15,58,14,208,240 // pblendw $0xf0,%xmm8,%xmm2
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,37 // jmp 31b41 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 32555 <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
- .byte 102,15,111,5,7,141,0,0 // movdqa 0x8d07(%rip),%xmm0 # 3a850 <_sk_srcover_bgra_8888_sse2_lowp+0x12fc>
+ .byte 102,15,111,5,19,141,0,0 // movdqa 0x8d13(%rip),%xmm0 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,56,0,200 // pshufb %xmm0,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,216 // pshufb %xmm0,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,103,133,0,0 // movdqa 0x8567(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,115,133,0,0 // movdqa 0x8573(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,224,140,0,0 // movdqa 0x8ce0(%rip),%xmm10 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x130c>
+ .byte 102,68,15,111,21,236,140,0,0 // movdqa 0x8cec(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,205,140,0,0 // movdqa 0x8ccd(%rip),%xmm10 # 3a870 <_sk_srcover_bgra_8888_sse2_lowp+0x131c>
+ .byte 102,68,15,111,21,217,140,0,0 // movdqa 0x8cd9(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2
@@ -49057,7 +49600,7 @@ _sk_load_8888_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 31bcd <_sk_load_8888_sse41_lowp+0x129>
+ .byte 123,255 // jnp 325e1 <_sk_load_8888_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -49079,49 +49622,49 @@ _sk_load_8888_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 31c20 <_sk_load_8888_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 32634 <_sk_load_8888_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 31cf8 <_sk_load_8888_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 3270c <_sk_load_8888_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 31c79 <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 3268d <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 31c79 <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 3268d <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 31c79 <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 3268d <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,207,139,0,0 // movdqa 0x8bcf(%rip),%xmm4 # 3a850 <_sk_srcover_bgra_8888_sse2_lowp+0x12fc>
+ .byte 102,15,111,37,219,139,0,0 // movdqa 0x8bdb(%rip),%xmm4 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,47,132,0,0 // movdqa 0x842f(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,59,132,0,0 // movdqa 0x843b(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,168,139,0,0 // movdqa 0x8ba8(%rip),%xmm10 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x130c>
+ .byte 102,68,15,111,21,180,139,0,0 // movdqa 0x8bb4(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,149,139,0,0 // movdqa 0x8b95(%rip),%xmm10 # 3a870 <_sk_srcover_bgra_8888_sse2_lowp+0x131c>
+ .byte 102,68,15,111,21,161,139,0,0 // movdqa 0x8ba1(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -49137,7 +49680,7 @@ _sk_load_8888_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 31d05 <_sk_load_8888_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 32719 <_sk_load_8888_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -49174,20 +49717,20 @@ _sk_store_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 31d9a <_sk_store_8888_sse41_lowp+0x86>
+ .byte 119,27 // ja 327ae <_sk_store_8888_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 31de0 <_sk_store_8888_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 327f4 <_sk_store_8888_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 31dd9 <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 327ed <_sk_store_8888_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 31dd9 <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 327ed <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 31dd9 <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 327ed <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -49231,49 +49774,49 @@ _sk_load_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 31e40 <_sk_load_bgra_sse41_lowp+0x44>
+ .byte 119,41 // ja 32854 <_sk_load_bgra_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 31f18 <_sk_load_bgra_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 3292c <_sk_load_bgra_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 31e99 <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 328ad <_sk_load_bgra_sse41_lowp+0x9d>
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 31e99 <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 328ad <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,65,15,58,14,192,240 // pblendw $0xf0,%xmm8,%xmm0
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 235,37 // jmp 31e99 <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 328ad <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
- .byte 102,15,111,21,175,137,0,0 // movdqa 0x89af(%rip),%xmm2 # 3a850 <_sk_srcover_bgra_8888_sse2_lowp+0x12fc>
+ .byte 102,15,111,21,187,137,0,0 // movdqa 0x89bb(%rip),%xmm2 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,56,0,202 // pshufb %xmm2,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,218 // pshufb %xmm2,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,15,130,0,0 // movdqa 0x820f(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,27,130,0,0 // movdqa 0x821b(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,136,137,0,0 // movdqa 0x8988(%rip),%xmm10 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x130c>
+ .byte 102,68,15,111,21,148,137,0,0 // movdqa 0x8994(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,117,137,0,0 // movdqa 0x8975(%rip),%xmm10 # 3a870 <_sk_srcover_bgra_8888_sse2_lowp+0x131c>
+ .byte 102,68,15,111,21,129,137,0,0 // movdqa 0x8981(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0
@@ -49289,7 +49832,7 @@ _sk_load_bgra_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 31f25 <_sk_load_bgra_sse41_lowp+0x129>
+ .byte 123,255 // jnp 32939 <_sk_load_bgra_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -49311,49 +49854,49 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 31f78 <_sk_load_bgra_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 3298c <_sk_load_bgra_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 32050 <_sk_load_bgra_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 32a64 <_sk_load_bgra_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 31fd1 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 329e5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 31fd1 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 329e5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4
.byte 102,68,15,111,197 // movdqa %xmm5,%xmm8
- .byte 235,37 // jmp 31fd1 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 329e5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 102,15,111,53,119,136,0,0 // movdqa 0x8877(%rip),%xmm6 # 3a850 <_sk_srcover_bgra_8888_sse2_lowp+0x12fc>
+ .byte 102,15,111,53,131,136,0,0 // movdqa 0x8883(%rip),%xmm6 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,254 // pshufb %xmm6,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,215,128,0,0 // movdqa 0x80d7(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,227,128,0,0 // movdqa 0x80e3(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,80,136,0,0 // movdqa 0x8850(%rip),%xmm10 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x130c>
+ .byte 102,68,15,111,21,92,136,0,0 // movdqa 0x885c(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,61,136,0,0 // movdqa 0x883d(%rip),%xmm10 # 3a870 <_sk_srcover_bgra_8888_sse2_lowp+0x131c>
+ .byte 102,68,15,111,21,73,136,0,0 // movdqa 0x8849(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,65,15,56,0,226 // pshufb %xmm10,%xmm4
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4
@@ -49369,7 +49912,7 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 3205d <_sk_load_bgra_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 32a71 <_sk_load_bgra_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -49406,20 +49949,20 @@ _sk_store_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 320f2 <_sk_store_bgra_sse41_lowp+0x86>
+ .byte 119,27 // ja 32b06 <_sk_store_bgra_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 32138 <_sk_store_bgra_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 32b4c <_sk_store_bgra_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 32131 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 32b45 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 32131 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 32b45 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 32131 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 32b45 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -49522,17 +50065,17 @@ _sk_gather_8888_sse41_lowp:
.byte 102,65,15,196,202,5 // pinsrw $0x5,%r10d,%xmm1
.byte 102,65,15,196,201,6 // pinsrw $0x6,%r9d,%xmm1
.byte 102,15,196,200,7 // pinsrw $0x7,%eax,%xmm1
- .byte 102,68,15,111,13,64,126,0,0 // movdqa 0x7e40(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,76,126,0,0 // movdqa 0x7e4c(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,185,133,0,0 // movdqa 0x85b9(%rip),%xmm10 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x130c>
+ .byte 102,68,15,111,21,197,133,0,0 // movdqa 0x85c5(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,166,133,0,0 // movdqa 0x85a6(%rip),%xmm10 # 3a870 <_sk_srcover_bgra_8888_sse2_lowp+0x131c>
+ .byte 102,68,15,111,21,178,133,0,0 // movdqa 0x85b2(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2
@@ -49617,17 +50160,17 @@ _sk_gather_bgra_sse41_lowp:
.byte 102,65,15,196,202,5 // pinsrw $0x5,%r10d,%xmm1
.byte 102,65,15,196,201,6 // pinsrw $0x6,%r9d,%xmm1
.byte 102,15,196,200,7 // pinsrw $0x7,%eax,%xmm1
- .byte 102,68,15,111,13,168,124,0,0 // movdqa 0x7ca8(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,180,124,0,0 // movdqa 0x7cb4(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,33,132,0,0 // movdqa 0x8421(%rip),%xmm10 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x130c>
+ .byte 102,68,15,111,21,45,132,0,0 // movdqa 0x842d(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,14,132,0,0 // movdqa 0x840e(%rip),%xmm10 # 3a870 <_sk_srcover_bgra_8888_sse2_lowp+0x131c>
+ .byte 102,68,15,111,21,26,132,0,0 // movdqa 0x841a(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0
@@ -49653,23 +50196,23 @@ _sk_load_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 324c0 <_sk_load_565_sse41_lowp+0x3c>
+ .byte 119,34 // ja 32ed4 <_sk_load_565_sse41_lowp+0x3c>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 32570 <_sk_load_565_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 32f84 <_sk_load_565_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,74 // jmp 3250a <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,74 // jmp 32f1e <_sk_load_565_sse41_lowp+0x86>
.byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,66 // jmp 3250a <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,66 // jmp 32f1e <_sk_load_565_sse41_lowp+0x86>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,76,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm1
.byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,40 // jmp 3250a <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,40 // jmp 32f1e <_sk_load_565_sse41_lowp+0x86>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,76,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm1
.byte 102,65,15,196,76,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm1
@@ -49678,11 +50221,11 @@ _sk_load_565_sse41_lowp:
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,101,131,0,0 // pand 0x8365(%rip),%xmm3 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c>
+ .byte 102,15,219,29,113,131,0,0 // pand 0x8371(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,100,131,0,0 // pand 0x8364(%rip),%xmm1 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c>
- .byte 102,15,111,21,108,131,0,0 // movdqa 0x836c(%rip),%xmm2 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c>
+ .byte 102,15,219,13,112,131,0,0 // pand 0x8370(%rip),%xmm1 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,111,21,120,131,0,0 // movdqa 0x8378(%rip),%xmm2 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -49695,7 +50238,7 @@ _sk_load_565_sse41_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,98,123,0,0 // movaps 0x7b62(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 15,40,29,110,123,0,0 // movaps 0x7b6e(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -49706,7 +50249,7 @@ _sk_load_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 32585 <_sk_load_565_sse41_lowp+0x101>
+ .byte 126,255 // jle 32f99 <_sk_load_565_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -49725,23 +50268,23 @@ _sk_load_565_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 325c8 <_sk_load_565_dst_sse41_lowp+0x3c>
+ .byte 119,34 // ja 32fdc <_sk_load_565_dst_sse41_lowp+0x3c>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 32678 <_sk_load_565_dst_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 3308c <_sk_load_565_dst_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,74 // jmp 32612 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,74 // jmp 33026 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,66 // jmp 32612 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,66 // jmp 33026 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm5
.byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,40 // jmp 32612 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,40 // jmp 33026 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm5
.byte 102,65,15,196,108,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm5
@@ -49750,11 +50293,11 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,93,130,0,0 // pand 0x825d(%rip),%xmm7 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c>
+ .byte 102,15,219,61,105,130,0,0 // pand 0x8269(%rip),%xmm7 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,92,130,0,0 // pand 0x825c(%rip),%xmm5 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c>
- .byte 102,15,111,53,100,130,0,0 // movdqa 0x8264(%rip),%xmm6 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c>
+ .byte 102,15,219,45,104,130,0,0 // pand 0x8268(%rip),%xmm5 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,111,53,112,130,0,0 // movdqa 0x8270(%rip),%xmm6 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -49767,7 +50310,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,90,122,0,0 // movaps 0x7a5a(%rip),%xmm7 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 15,40,61,102,122,0,0 // movaps 0x7a66(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -49778,7 +50321,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 3268d <_sk_load_565_dst_sse41_lowp+0x101>
+ .byte 126,255 // jle 330a1 <_sk_load_565_dst_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -49795,10 +50338,10 @@ _sk_store_565_sse41_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,248,129,0,0 // pand 0x81f8(%rip),%xmm8 # 3a8b0 <_sk_srcover_bgra_8888_sse2_lowp+0x135c>
+ .byte 102,68,15,219,5,4,130,0,0 // pand 0x8204(%rip),%xmm8 # 3b2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,244,129,0,0 // pand 0x81f4(%rip),%xmm9 # 3a8c0 <_sk_srcover_bgra_8888_sse2_lowp+0x136c>
+ .byte 102,68,15,219,13,0,130,0,0 // pand 0x8200(%rip),%xmm9 # 3b2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1378>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -49807,19 +50350,19 @@ _sk_store_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 32708 <_sk_store_565_sse41_lowp+0x74>
+ .byte 119,29 // ja 3311c <_sk_store_565_sse41_lowp+0x74>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 32748 <_sk_store_565_sse41_lowp+0xb4>
+ .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 3315c <_sk_store_565_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,58 // jmp 32742 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,58 // jmp 33156 <_sk_store_565_sse41_lowp+0xae>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,50 // jmp 32742 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,50 // jmp 33156 <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,33 // jmp 32742 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,33 // jmp 33156 <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
@@ -49839,7 +50382,7 @@ _sk_store_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 235,255 // jmp 32759 <_sk_store_565_sse41_lowp+0xc5>
+ .byte 235,255 // jmp 3316d <_sk_store_565_sse41_lowp+0xc5>
.byte 255 // (bad)
.byte 255,226 // jmpq *%rdx
.byte 255 // (bad)
@@ -49916,11 +50459,11 @@ _sk_gather_565_sse41_lowp:
.byte 102,15,196,192,7 // pinsrw $0x7,%eax,%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,2,128,0,0 // pand 0x8002(%rip),%xmm3 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c>
+ .byte 102,15,219,29,14,128,0,0 // pand 0x800e(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,1,128,0,0 // pand 0x8001(%rip),%xmm1 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c>
- .byte 102,15,111,21,9,128,0,0 // movdqa 0x8009(%rip),%xmm2 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c>
+ .byte 102,15,219,13,13,128,0,0 // pand 0x800d(%rip),%xmm1 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,111,21,21,128,0,0 // movdqa 0x8015(%rip),%xmm2 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -49933,7 +50476,7 @@ _sk_gather_565_sse41_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,255,119,0,0 // movaps 0x77ff(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 15,40,29,11,120,0,0 // movaps 0x780b(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -49954,23 +50497,23 @@ _sk_load_4444_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 32918 <_sk_load_4444_sse41_lowp+0x3d>
+ .byte 119,35 // ja 3332c <_sk_load_4444_sse41_lowp+0x3d>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,209,0,0,0 // lea 0xd1(%rip),%r9 # 329d4 <_sk_load_4444_sse41_lowp+0xf9>
+ .byte 76,141,13,209,0,0,0 // lea 0xd1(%rip),%r9 # 333e8 <_sk_load_4444_sse41_lowp+0xf9>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,76 // jmp 32964 <_sk_load_4444_sse41_lowp+0x89>
+ .byte 235,76 // jmp 33378 <_sk_load_4444_sse41_lowp+0x89>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,68 // jmp 32964 <_sk_load_4444_sse41_lowp+0x89>
+ .byte 235,68 // jmp 33378 <_sk_load_4444_sse41_lowp+0x89>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,4,80 // movd (%r8,%rdx,2),%xmm8
.byte 102,68,15,58,14,192,252 // pblendw $0xfc,%xmm0,%xmm8
- .byte 235,41 // jmp 32964 <_sk_load_4444_sse41_lowp+0x89>
+ .byte 235,41 // jmp 33378 <_sk_load_4444_sse41_lowp+0x89>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -49981,7 +50524,7 @@ _sk_load_4444_sse41_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,80,127,0,0 // movdqa 0x7f50(%rip),%xmm0 # 3a8d0 <_sk_srcover_bgra_8888_sse2_lowp+0x137c>
+ .byte 102,15,111,5,92,127,0,0 // movdqa 0x7f5c(%rip),%xmm0 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -50029,23 +50572,23 @@ _sk_load_4444_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 32a2d <_sk_load_4444_dst_sse41_lowp+0x3d>
+ .byte 119,35 // ja 33441 <_sk_load_4444_dst_sse41_lowp+0x3d>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,208,0,0,0 // lea 0xd0(%rip),%r9 # 32ae8 <_sk_load_4444_dst_sse41_lowp+0xf8>
+ .byte 76,141,13,208,0,0,0 // lea 0xd0(%rip),%r9 # 334fc <_sk_load_4444_dst_sse41_lowp+0xf8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,76 // jmp 32a79 <_sk_load_4444_dst_sse41_lowp+0x89>
+ .byte 235,76 // jmp 3348d <_sk_load_4444_dst_sse41_lowp+0x89>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,68 // jmp 32a79 <_sk_load_4444_dst_sse41_lowp+0x89>
+ .byte 235,68 // jmp 3348d <_sk_load_4444_dst_sse41_lowp+0x89>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
.byte 102,69,15,110,4,80 // movd (%r8,%rdx,2),%xmm8
.byte 102,68,15,58,14,196,252 // pblendw $0xfc,%xmm4,%xmm8
- .byte 235,41 // jmp 32a79 <_sk_load_4444_dst_sse41_lowp+0x89>
+ .byte 235,41 // jmp 3348d <_sk_load_4444_dst_sse41_lowp+0x89>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
.byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
@@ -50056,7 +50599,7 @@ _sk_load_4444_dst_sse41_lowp:
.byte 102,15,113,213,12 // psrlw $0xc,%xmm5
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,111,37,59,126,0,0 // movdqa 0x7e3b(%rip),%xmm4 # 3a8d0 <_sk_srcover_bgra_8888_sse2_lowp+0x137c>
+ .byte 102,15,111,37,71,126,0,0 // movdqa 0x7e47(%rip),%xmm4 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,113,215,4 // psrlw $0x4,%xmm7
@@ -50101,12 +50644,12 @@ _sk_store_4444_sse41_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,184,125,0,0 // pand 0x7db8(%rip),%xmm8 # 3a8e0 <_sk_srcover_bgra_8888_sse2_lowp+0x138c>
+ .byte 102,68,15,219,5,196,125,0,0 // pand 0x7dc4(%rip),%xmm8 # 3b300 <_sk_srcover_bgra_8888_sse2_lowp+0x1398>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,4 // psllw $0x4,%xmm9
- .byte 102,68,15,219,13,180,125,0,0 // pand 0x7db4(%rip),%xmm9 # 3a8f0 <_sk_srcover_bgra_8888_sse2_lowp+0x139c>
+ .byte 102,68,15,219,13,192,125,0,0 // pand 0x7dc0(%rip),%xmm9 # 3b310 <_sk_srcover_bgra_8888_sse2_lowp+0x13a8>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
- .byte 102,68,15,111,21,182,125,0,0 // movdqa 0x7db6(%rip),%xmm10 # 3a900 <_sk_srcover_bgra_8888_sse2_lowp+0x13ac>
+ .byte 102,68,15,111,21,194,125,0,0 // movdqa 0x7dc2(%rip),%xmm10 # 3b320 <_sk_srcover_bgra_8888_sse2_lowp+0x13b8>
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,65,15,113,208,4 // psrlw $0x4,%xmm8
@@ -50116,19 +50659,19 @@ _sk_store_4444_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 32b8b <_sk_store_4444_sse41_lowp+0x87>
+ .byte 119,29 // ja 3359f <_sk_store_4444_sse41_lowp+0x87>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,84,0,0,0 // lea 0x54(%rip),%r9 # 32bcc <_sk_store_4444_sse41_lowp+0xc8>
+ .byte 76,141,13,84,0,0,0 // lea 0x54(%rip),%r9 # 335e0 <_sk_store_4444_sse41_lowp+0xc8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,58 // jmp 32bc5 <_sk_store_4444_sse41_lowp+0xc1>
+ .byte 235,58 // jmp 335d9 <_sk_store_4444_sse41_lowp+0xc1>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,50 // jmp 32bc5 <_sk_store_4444_sse41_lowp+0xc1>
+ .byte 235,50 // jmp 335d9 <_sk_store_4444_sse41_lowp+0xc1>
.byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,33 // jmp 32bc5 <_sk_store_4444_sse41_lowp+0xc1>
+ .byte 235,33 // jmp 335d9 <_sk_store_4444_sse41_lowp+0xc1>
.byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
@@ -50228,7 +50771,7 @@ _sk_gather_4444_sse41_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,188,123,0,0 // movdqa 0x7bbc(%rip),%xmm0 # 3a8d0 <_sk_srcover_bgra_8888_sse2_lowp+0x137c>
+ .byte 102,15,111,5,200,123,0,0 // movdqa 0x7bc8(%rip),%xmm0 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -50266,18 +50809,18 @@ _sk_load_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 32da6 <_sk_load_a8_sse41_lowp+0x39>
+ .byte 119,34 // ja 337ba <_sk_load_a8_sse41_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 32e24 <_sk_load_a8_sse41_lowp+0xb7>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 33838 <_sk_load_a8_sse41_lowp+0xb7>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,100 // jmp 32e0a <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 3381e <_sk_load_a8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,28,16 // pmovzxbw (%r8,%rdx,1),%xmm3
- .byte 235,91 // jmp 32e0a <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 3381e <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -50285,7 +50828,7 @@ _sk_load_a8_sse41_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,252 // pblendw $0xfc,%xmm0,%xmm3
- .byte 235,54 // jmp 32e0a <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 3381e <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -50296,14 +50839,14 @@ _sk_load_a8_sse41_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,240 // pblendw $0xf0,%xmm0,%xmm3
- .byte 102,15,219,29,190,114,0,0 // pand 0x72be(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,15,219,29,202,114,0,0 // pand 0x72ca(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,255 // ja 32e25 <_sk_load_a8_sse41_lowp+0xb8>
+ .byte 119,255 // ja 33839 <_sk_load_a8_sse41_lowp+0xb8>
.byte 255 // (bad)
.byte 255,154,255,255,255,139 // lcall *-0x74000001(%rdx)
.byte 255 // (bad)
@@ -50332,18 +50875,18 @@ _sk_load_a8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 32e79 <_sk_load_a8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 3388d <_sk_load_a8_dst_sse41_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 32ef4 <_sk_load_a8_dst_sse41_lowp+0xb4>
+ .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 33908 <_sk_load_a8_dst_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,100 // jmp 32edd <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 338f1 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,60,16 // pmovzxbw (%r8,%rdx,1),%xmm7
- .byte 235,91 // jmp 32edd <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 338f1 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -50351,7 +50894,7 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,252 // pblendw $0xfc,%xmm4,%xmm7
- .byte 235,54 // jmp 32edd <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 338f1 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -50362,13 +50905,13 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,240 // pblendw $0xf0,%xmm4,%xmm7
- .byte 102,15,219,61,235,113,0,0 // pand 0x71eb(%rip),%xmm7 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,15,219,61,247,113,0,0 // pand 0x71f7(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 122,255 // jp 32ef5 <_sk_load_a8_dst_sse41_lowp+0xb5>
+ .byte 122,255 // jp 33909 <_sk_load_a8_dst_sse41_lowp+0xb5>
.byte 255 // (bad)
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
.byte 255 // (bad)
@@ -50399,28 +50942,28 @@ _sk_store_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 32f44 <_sk_store_a8_sse41_lowp+0x34>
+ .byte 119,29 // ja 33958 <_sk_store_a8_sse41_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 32fb4 <_sk_store_a8_sse41_lowp+0xa4>
+ .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 339c8 <_sk_store_a8_sse41_lowp+0xa4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,58,20,28,16,0 // pextrb $0x0,%xmm3,(%r8,%rdx,1)
- .byte 235,105 // jmp 32fad <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,105 // jmp 339c1 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,205,120,0,0 // pshufb 0x78cd(%rip),%xmm8 # 3a820 <_sk_srcover_bgra_8888_sse2_lowp+0x12cc>
+ .byte 102,68,15,56,0,5,217,120,0,0 // pshufb 0x78d9(%rip),%xmm8 # 3b240 <_sk_srcover_bgra_8888_sse2_lowp+0x12d8>
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,82 // jmp 32fad <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,82 // jmp 339c1 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,2,4 // pextrb $0x4,%xmm3,0x2(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,109,113,0,0 // pshufb 0x716d(%rip),%xmm8 # 3a0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xb8c>
+ .byte 102,68,15,56,0,5,121,113,0,0 // pshufb 0x7179(%rip),%xmm8 # 3ab00 <_sk_srcover_bgra_8888_sse2_lowp+0xb98>
.byte 102,69,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,48 // jmp 32fad <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,48 // jmp 339c1 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,6,12 // pextrb $0xc,%xmm3,0x6(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,5,10 // pextrb $0xa,%xmm3,0x5(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,4,8 // pextrb $0x8,%xmm3,0x4(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,73,113,0,0 // pshufb 0x7149(%rip),%xmm8 # 3a0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xb9c>
+ .byte 102,68,15,56,0,5,85,113,0,0 // pshufb 0x7155(%rip),%xmm8 # 3ab10 <_sk_srcover_bgra_8888_sse2_lowp+0xba8>
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -50533,18 +51076,18 @@ _sk_load_g8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 33136 <_sk_load_g8_sse41_lowp+0x39>
+ .byte 119,34 // ja 33b4a <_sk_load_g8_sse41_lowp+0x39>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,150,0,0,0 // lea 0x96(%rip),%r9 # 331b8 <_sk_load_g8_sse41_lowp+0xbb>
+ .byte 76,141,13,150,0,0,0 // lea 0x96(%rip),%r9 # 33bcc <_sk_load_g8_sse41_lowp+0xbb>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,100 // jmp 3319a <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 33bae <_sk_load_g8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm0
- .byte 235,91 // jmp 3319a <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 33bae <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,2 // pinsrw $0x2,%eax,%xmm1
@@ -50552,7 +51095,7 @@ _sk_load_g8_sse41_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,54 // jmp 3319a <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 33bae <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,6 // pinsrw $0x6,%eax,%xmm1
@@ -50563,14 +51106,14 @@ _sk_load_g8_sse41_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
- .byte 102,15,219,5,46,111,0,0 // pand 0x6f2e(%rip),%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,15,219,5,58,111,0,0 // pand 0x6f3a(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,37,111,0,0 // movaps 0x6f25(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 15,40,29,49,111,0,0 // movaps 0x6f31(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 115,255 // jae 331b9 <_sk_load_g8_sse41_lowp+0xbc>
+ .byte 115,255 // jae 33bcd <_sk_load_g8_sse41_lowp+0xbc>
.byte 255 // (bad)
.byte 255,150,255,255,255,135 // callq *-0x78000001(%rsi)
.byte 255 // (bad)
@@ -50599,18 +51142,18 @@ _sk_load_g8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3320d <_sk_load_g8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 33c21 <_sk_load_g8_dst_sse41_lowp+0x39>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 3328c <_sk_load_g8_dst_sse41_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 33ca0 <_sk_load_g8_dst_sse41_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,100 // jmp 33271 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 33c85 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,36,16 // pmovzxbw (%r8,%rdx,1),%xmm4
- .byte 235,91 // jmp 33271 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 33c85 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,2 // pinsrw $0x2,%eax,%xmm5
@@ -50618,7 +51161,7 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,54 // jmp 33271 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 33c85 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,6 // pinsrw $0x6,%eax,%xmm5
@@ -50629,13 +51172,13 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
- .byte 102,15,219,37,87,110,0,0 // pand 0x6e57(%rip),%xmm4 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,15,219,37,99,110,0,0 // pand 0x6e63(%rip),%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,78,110,0,0 // movaps 0x6e4e(%rip),%xmm7 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 15,40,61,90,110,0,0 // movaps 0x6e5a(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 118,255 // jbe 3328d <_sk_load_g8_dst_sse41_lowp+0xb9>
+ .byte 118,255 // jbe 33ca1 <_sk_load_g8_dst_sse41_lowp+0xb9>
.byte 255 // (bad)
.byte 255,153,255,255,255,138 // lcall *-0x75000001(%rcx)
.byte 255 // (bad)
@@ -50657,10 +51200,10 @@ HIDDEN _sk_luminance_to_alpha_sse41_lowp
FUNCTION(_sk_luminance_to_alpha_sse41_lowp)
_sk_luminance_to_alpha_sse41_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,92,118,0,0 // pmullw 0x765c(%rip),%xmm0 # 3a910 <_sk_srcover_bgra_8888_sse2_lowp+0x13bc>
- .byte 102,15,213,13,100,118,0,0 // pmullw 0x7664(%rip),%xmm1 # 3a920 <_sk_srcover_bgra_8888_sse2_lowp+0x13cc>
+ .byte 102,15,213,5,104,118,0,0 // pmullw 0x7668(%rip),%xmm0 # 3b330 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
+ .byte 102,15,213,13,112,118,0,0 // pmullw 0x7670(%rip),%xmm1 # 3b340 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,104,118,0,0 // pmullw 0x7668(%rip),%xmm3 # 3a930 <_sk_srcover_bgra_8888_sse2_lowp+0x13dc>
+ .byte 102,15,213,29,116,118,0,0 // pmullw 0x7674(%rip),%xmm3 # 3b350 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8>
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -50736,7 +51279,7 @@ _sk_gather_g8_sse41_lowp:
.byte 102,15,58,32,192,7 // pinsrb $0x7,%eax,%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,209,108,0,0 // movaps 0x6cd1(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 15,40,29,221,108,0,0 // movaps 0x6cdd(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 91 // pop %rbx
@@ -50752,14 +51295,14 @@ FUNCTION(_sk_scale_1_float_sse41_lowp)
_sk_scale_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,15,100,0,0 // mulss 0x640f(%rip),%xmm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,214,99,0,0 // addss 0x63d6(%rip),%xmm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,15,100,0,0 // mulss 0x640f(%rip),%xmm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,214,99,0,0 // addss 0x63d6(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,130,108,0,0 // movdqa 0x6c82(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,142,108,0,0 // movdqa 0x6c8e(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -50780,13 +51323,13 @@ FUNCTION(_sk_lerp_1_float_sse41_lowp)
_sk_lerp_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,151,99,0,0 // mulss 0x6397(%rip),%xmm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,94,99,0,0 // addss 0x635e(%rip),%xmm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,151,99,0,0 // mulss 0x6397(%rip),%xmm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,94,99,0,0 // addss 0x635e(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,15,108,0,0 // movdqa 0x6c0f(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,27,108,0,0 // movdqa 0x6c1b(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -50826,18 +51369,18 @@ _sk_scale_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 33578 <_sk_scale_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 33f8c <_sk_scale_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 33640 <_sk_scale_u8_sse41_lowp+0x103>
+ .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 34054 <_sk_scale_u8_sse41_lowp+0x103>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 335e7 <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 33ffb <_sk_scale_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 335e7 <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 33ffb <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -50845,7 +51388,7 @@ _sk_scale_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 335e7 <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 33ffb <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -50856,9 +51399,9 @@ _sk_scale_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,224,106,0,0 // pand 0x6ae0(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,219,5,236,106,0,0 // pand 0x6aec(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,210,106,0,0 // movdqa 0x6ad2(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,222,106,0,0 // movdqa 0x6ade(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -50883,7 +51426,7 @@ _sk_scale_u8_sse41_lowp:
.byte 255,148,255,255,255,136,255 // callq *-0x770001(%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 33655 <_sk_scale_u8_sse41_lowp+0x118>
+ .byte 124,255 // jl 34069 <_sk_scale_u8_sse41_lowp+0x118>
.byte 255 // (bad)
.byte 255,107,255 // ljmp *-0x1(%rbx)
.byte 255 // (bad)
@@ -50901,18 +51444,18 @@ _sk_lerp_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 33697 <_sk_lerp_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 340ab <_sk_lerp_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 337a0 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 341b4 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 33706 <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 3411a <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 33706 <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 3411a <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -50920,7 +51463,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 33706 <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 3411a <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -50931,8 +51474,8 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,193,105,0,0 // pand 0x69c1(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
- .byte 102,68,15,111,21,184,105,0,0 // movdqa 0x69b8(%rip),%xmm10 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,219,5,205,105,0,0 // pand 0x69cd(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,21,196,105,0,0 // movdqa 0x69c4(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -50962,7 +51505,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 235,254 // jmp 337a0 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 235,254 // jmp 341b4 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 255 // (bad)
.byte 255,17 // callq *(%rcx)
.byte 255 // (bad)
@@ -50996,23 +51539,23 @@ _sk_scale_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 337fe <_sk_scale_565_sse41_lowp+0x42>
+ .byte 119,35 // ja 34212 <_sk_scale_565_sse41_lowp+0x42>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 33958 <_sk_scale_565_sse41_lowp+0x19c>
+ .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 3436c <_sk_scale_565_sse41_lowp+0x19c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 3384a <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,76 // jmp 3425e <_sk_scale_565_sse41_lowp+0x8e>
.byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 3384a <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,68 // jmp 3425e <_sk_scale_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
.byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 3384a <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,41 // jmp 3425e <_sk_scale_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -51021,11 +51564,11 @@ _sk_scale_565_sse41_lowp:
.byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,36,112,0,0 // pand 0x7024(%rip),%xmm0 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c>
+ .byte 102,15,219,5,48,112,0,0 // pand 0x7030(%rip),%xmm0 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,32,112,0,0 // pand 0x7020(%rip),%xmm10 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c>
- .byte 102,68,15,111,29,39,112,0,0 // movdqa 0x7027(%rip),%xmm11 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c>
+ .byte 102,68,15,219,21,44,112,0,0 // pand 0x702c(%rip),%xmm10 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,68,15,111,29,51,112,0,0 // movdqa 0x7033(%rip),%xmm11 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,69,15,219,217 // pand %xmm9,%xmm11
.byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
.byte 102,68,15,235,200 // por %xmm0,%xmm9
@@ -51037,7 +51580,7 @@ _sk_scale_565_sse41_lowp:
.byte 102,15,113,240,3 // psllw $0x3,%xmm0
.byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
.byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,133,111,0,0 // movdqa 0x6f85(%rip),%xmm0 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec>
+ .byte 102,15,111,5,145,111,0,0 // movdqa 0x6f91(%rip),%xmm0 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
.byte 102,68,15,239,224 // pxor %xmm0,%xmm12
.byte 102,15,239,199 // pxor %xmm7,%xmm0
@@ -51050,7 +51593,7 @@ _sk_scale_565_sse41_lowp:
.byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
.byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
.byte 102,69,15,213,200 // pmullw %xmm8,%xmm9
- .byte 102,15,111,5,205,103,0,0 // movdqa 0x67cd(%rip),%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,15,111,5,217,103,0,0 // movdqa 0x67d9(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,68,15,253,200 // paddw %xmm0,%xmm9
.byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
.byte 102,68,15,213,209 // pmullw %xmm1,%xmm10
@@ -51104,23 +51647,23 @@ _sk_lerp_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 339b6 <_sk_lerp_565_sse41_lowp+0x42>
+ .byte 119,35 // ja 343ca <_sk_lerp_565_sse41_lowp+0x42>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 33b5c <_sk_lerp_565_sse41_lowp+0x1e8>
+ .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 34570 <_sk_lerp_565_sse41_lowp+0x1e8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 33a02 <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,76 // jmp 34416 <_sk_lerp_565_sse41_lowp+0x8e>
.byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 33a02 <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,68 // jmp 34416 <_sk_lerp_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
.byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 33a02 <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,41 // jmp 34416 <_sk_lerp_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -51129,11 +51672,11 @@ _sk_lerp_565_sse41_lowp:
.byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,108,110,0,0 // pand 0x6e6c(%rip),%xmm0 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c>
+ .byte 102,15,219,5,120,110,0,0 // pand 0x6e78(%rip),%xmm0 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,104,110,0,0 // pand 0x6e68(%rip),%xmm10 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c>
- .byte 102,68,15,111,29,111,110,0,0 // movdqa 0x6e6f(%rip),%xmm11 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c>
+ .byte 102,68,15,219,21,116,110,0,0 // pand 0x6e74(%rip),%xmm10 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,68,15,111,29,123,110,0,0 // movdqa 0x6e7b(%rip),%xmm11 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,69,15,219,217 // pand %xmm9,%xmm11
.byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
.byte 102,68,15,235,200 // por %xmm0,%xmm9
@@ -51145,7 +51688,7 @@ _sk_lerp_565_sse41_lowp:
.byte 102,15,113,240,3 // psllw $0x3,%xmm0
.byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
.byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,205,109,0,0 // movdqa 0x6dcd(%rip),%xmm0 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec>
+ .byte 102,15,111,5,217,109,0,0 // movdqa 0x6dd9(%rip),%xmm0 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
.byte 102,68,15,239,224 // pxor %xmm0,%xmm12
.byte 102,15,239,199 // pxor %xmm7,%xmm0
@@ -51157,7 +51700,7 @@ _sk_lerp_565_sse41_lowp:
.byte 102,69,15,56,62,227 // pmaxuw %xmm11,%xmm12
.byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
.byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
- .byte 102,68,15,111,45,25,102,0,0 // movdqa 0x6619(%rip),%xmm13 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,45,37,102,0,0 // movdqa 0x6625(%rip),%xmm13 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,239,197 // pxor %xmm13,%xmm0
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
@@ -51214,7 +51757,7 @@ _sk_clamp_x_1_sse41_lowp:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,164,101,0,0 // movaps 0x65a4(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,176,101,0,0 // movaps 0x65b0(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -51231,7 +51774,7 @@ _sk_repeat_x_1_sse41_lowp:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,110,101,0,0 // movaps 0x656e(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,122,101,0,0 // movaps 0x657a(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -51241,10 +51784,10 @@ HIDDEN _sk_mirror_x_1_sse41_lowp
.globl _sk_mirror_x_1_sse41_lowp
FUNCTION(_sk_mirror_x_1_sse41_lowp)
_sk_mirror_x_1_sse41_lowp:
- .byte 68,15,40,5,186,101,0,0 // movaps 0x65ba(%rip),%xmm8 # 3a190 <_sk_srcover_bgra_8888_sse2_lowp+0xc3c>
+ .byte 68,15,40,5,198,101,0,0 // movaps 0x65c6(%rip),%xmm8 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
.byte 65,15,88,192 // addps %xmm8,%xmm0
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,13,58,101,0,0 // movaps 0x653a(%rip),%xmm9 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,40,13,70,101,0,0 // movaps 0x6546(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 68,15,89,200 // mulps %xmm0,%xmm9
@@ -51256,13 +51799,13 @@ _sk_mirror_x_1_sse41_lowp:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 65,15,88,200 // addps %xmm8,%xmm1
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,5,48,106,0,0 // movaps 0x6a30(%rip),%xmm8 # 3a650 <_sk_srcover_bgra_8888_sse2_lowp+0x10fc>
+ .byte 68,15,40,5,60,106,0,0 // movaps 0x6a3c(%rip),%xmm8 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 65,15,84,200 // andps %xmm8,%xmm1
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,244,100,0,0 // movaps 0x64f4(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,0,101,0,0 // movaps 0x6500(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -51289,7 +51832,7 @@ _sk_gradient_sse41_lowp:
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 72,131,249,2 // cmp $0x2,%rcx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 114,57 // jb 33cbd <_sk_gradient_sse41_lowp+0x75>
+ .byte 114,57 // jb 346d1 <_sk_gradient_sse41_lowp+0x75>
.byte 72,139,80,72 // mov 0x48(%rax),%rdx
.byte 72,255,201 // dec %rcx
.byte 72,131,194,4 // add $0x4,%rdx
@@ -51304,7 +51847,7 @@ _sk_gradient_sse41_lowp:
.byte 102,15,250,218 // psubd %xmm2,%xmm3
.byte 72,131,194,4 // add $0x4,%rdx
.byte 72,255,201 // dec %rcx
- .byte 117,219 // jne 33c98 <_sk_gradient_sse41_lowp+0x50>
+ .byte 117,219 // jne 346ac <_sk_gradient_sse41_lowp+0x50>
.byte 102,72,15,58,22,219,1 // pextrq $0x1,%xmm3,%rbx
.byte 65,137,221 // mov %ebx,%r13d
.byte 72,193,235,32 // shr $0x20,%rbx
@@ -51383,14 +51926,14 @@ _sk_gradient_sse41_lowp:
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 15,88,223 // addps %xmm7,%xmm3
- .byte 15,40,61,119,99,0,0 // movaps 0x6377(%rip),%xmm7 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
+ .byte 15,40,61,131,99,0,0 // movaps 0x6383(%rip),%xmm7 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 68,15,89,239 // mulps %xmm7,%xmm13
.byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 68,15,40,61,120,98,0,0 // movaps 0x6278(%rip),%xmm15 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,40,61,132,98,0,0 // movaps 0x6284(%rip),%xmm15 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 65,15,88,223 // addps %xmm15,%xmm3
.byte 243,65,15,91,245 // cvttps2dq %xmm13,%xmm6
- .byte 102,68,15,111,45,146,105,0,0 // movdqa 0x6992(%rip),%xmm13 # 3a850 <_sk_srcover_bgra_8888_sse2_lowp+0x12fc>
+ .byte 102,68,15,111,45,158,105,0,0 // movdqa 0x699e(%rip),%xmm13 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,65,15,56,0,245 // pshufb %xmm13,%xmm6
.byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
.byte 102,69,15,56,0,197 // pshufb %xmm13,%xmm8
@@ -51494,9 +52037,9 @@ _sk_evenly_spaced_gradient_sse41_lowp:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 34096 <_sk_evenly_spaced_gradient_sse41_lowp+0x34>
+ .byte 120,7 // js 34aaa <_sk_evenly_spaced_gradient_sse41_lowp+0x34>
.byte 243,72,15,42,211 // cvtsi2ss %rbx,%xmm2
- .byte 235,21 // jmp 340ab <_sk_evenly_spaced_gradient_sse41_lowp+0x49>
+ .byte 235,21 // jmp 34abf <_sk_evenly_spaced_gradient_sse41_lowp+0x49>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -51634,14 +52177,14 @@ _sk_evenly_spaced_gradient_sse41_lowp:
.byte 15,40,100,36,176 // movaps -0x50(%rsp),%xmm4
.byte 68,15,89,196 // mulps %xmm4,%xmm8
.byte 68,15,88,192 // addps %xmm0,%xmm8
- .byte 15,40,5,84,94,0,0 // movaps 0x5e54(%rip),%xmm0 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
+ .byte 15,40,5,96,94,0,0 // movaps 0x5e60(%rip),%xmm0 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 68,15,40,53,85,93,0,0 // movaps 0x5d55(%rip),%xmm14 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,40,53,97,93,0,0 // movaps 0x5d61(%rip),%xmm14 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 69,15,88,198 // addps %xmm14,%xmm8
.byte 65,15,88,222 // addps %xmm14,%xmm3
.byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
- .byte 102,15,111,5,113,100,0,0 // movdqa 0x6471(%rip),%xmm0 # 3a850 <_sk_srcover_bgra_8888_sse2_lowp+0x12fc>
+ .byte 102,15,111,5,125,100,0,0 // movdqa 0x647d(%rip),%xmm0 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,15,56,0,216 // pshufb %xmm0,%xmm3
.byte 243,69,15,91,192 // cvttps2dq %xmm8,%xmm8
.byte 102,68,15,56,0,192 // pshufb %xmm0,%xmm8
@@ -51651,7 +52194,7 @@ _sk_evenly_spaced_gradient_sse41_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 68,15,89,203 // mulps %xmm3,%xmm9
.byte 68,15,88,201 // addps %xmm1,%xmm9
- .byte 15,40,13,4,94,0,0 // movaps 0x5e04(%rip),%xmm1 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
+ .byte 15,40,13,16,94,0,0 // movaps 0x5e10(%rip),%xmm1 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 15,40,225 // movaps %xmm1,%xmm4
@@ -51720,14 +52263,14 @@ _sk_evenly_spaced_2_stop_gradient_sse41_lowp:
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 65,15,88,216 // addps %xmm8,%xmm3
.byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 68,15,40,21,254,92,0,0 // movaps 0x5cfe(%rip),%xmm10 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
+ .byte 68,15,40,21,10,93,0,0 // movaps 0x5d0a(%rip),%xmm10 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 65,15,89,210 // mulps %xmm10,%xmm2
.byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 68,15,40,37,254,91,0,0 // movaps 0x5bfe(%rip),%xmm12 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,40,37,10,92,0,0 // movaps 0x5c0a(%rip),%xmm12 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 65,15,88,220 // addps %xmm12,%xmm3
.byte 65,15,88,212 // addps %xmm12,%xmm2
.byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 102,68,15,111,29,25,99,0,0 // movdqa 0x6319(%rip),%xmm11 # 3a850 <_sk_srcover_bgra_8888_sse2_lowp+0x12fc>
+ .byte 102,68,15,111,29,37,99,0,0 // movdqa 0x6325(%rip),%xmm11 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,65,15,56,0,211 // pshufb %xmm11,%xmm2
.byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
.byte 102,69,15,56,0,195 // pshufb %xmm11,%xmm8
@@ -51800,7 +52343,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 15,40,251 // movaps %xmm3,%xmm7
.byte 15,40,242 // movaps %xmm2,%xmm6
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 15,40,37,239,95,0,0 // movaps 0x5fef(%rip),%xmm4 # 3a650 <_sk_srcover_bgra_8888_sse2_lowp+0x10fc>
+ .byte 15,40,37,251,95,0,0 // movaps 0x5ffb(%rip),%xmm4 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
.byte 68,15,40,233 // movaps %xmm1,%xmm13
.byte 68,15,84,236 // andps %xmm4,%xmm13
.byte 69,15,40,216 // movaps %xmm8,%xmm11
@@ -51825,18 +52368,18 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 69,15,94,251 // divps %xmm11,%xmm15
.byte 65,15,40,199 // movaps %xmm15,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,29,239,95,0,0 // movaps 0x5fef(%rip),%xmm11 # 3a6c0 <_sk_srcover_bgra_8888_sse2_lowp+0x116c>
+ .byte 68,15,40,29,251,95,0,0 // movaps 0x5ffb(%rip),%xmm11 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
.byte 68,15,40,224 // movaps %xmm0,%xmm12
.byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 68,15,88,37,239,95,0,0 // addps 0x5fef(%rip),%xmm12 # 3a6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x117c>
+ .byte 68,15,88,37,251,95,0,0 // addps 0x5ffb(%rip),%xmm12 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,45,244,95,0,0 // movaps 0x5ff4(%rip),%xmm5 # 3a6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x118c>
+ .byte 15,40,45,0,96,0,0 // movaps 0x6000(%rip),%xmm5 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
.byte 68,15,88,229 // addps %xmm5,%xmm12
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,37,245,95,0,0 // movaps 0x5ff5(%rip),%xmm4 # 3a6f0 <_sk_srcover_bgra_8888_sse2_lowp+0x119c>
+ .byte 15,40,37,1,96,0,0 // movaps 0x6001(%rip),%xmm4 # 3b110 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
.byte 68,15,88,228 // addps %xmm4,%xmm12
.byte 69,15,89,231 // mulps %xmm15,%xmm12
- .byte 15,40,21,246,95,0,0 // movaps 0x5ff6(%rip),%xmm2 # 3a700 <_sk_srcover_bgra_8888_sse2_lowp+0x11ac>
+ .byte 15,40,21,2,96,0,0 // movaps 0x6002(%rip),%xmm2 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 65,15,92,212 // subps %xmm12,%xmm2
.byte 65,15,40,194 // movaps %xmm10,%xmm0
@@ -51845,7 +52388,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,88,29,158,95,0,0 // addps 0x5f9e(%rip),%xmm11 # 3a6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x117c>
+ .byte 68,15,88,29,170,95,0,0 // addps 0x5faa(%rip),%xmm11 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
.byte 68,15,89,216 // mulps %xmm0,%xmm11
.byte 68,15,88,221 // addps %xmm5,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
@@ -51856,7 +52399,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 102,68,15,56,20,219 // blendvps %xmm0,%xmm3,%xmm11
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 69,15,194,193,1 // cmpltps %xmm9,%xmm8
- .byte 15,40,21,188,89,0,0 // movaps 0x59bc(%rip),%xmm2 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,40,21,200,89,0,0 // movaps 0x59c8(%rip),%xmm2 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 65,15,92,212 // subps %xmm12,%xmm2
.byte 65,15,40,192 // movaps %xmm8,%xmm0
@@ -51867,7 +52410,7 @@ _sk_xy_to_unit_angle_sse41_lowp:
.byte 102,68,15,56,20,219 // blendvps %xmm0,%xmm3,%xmm11
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 65,15,194,193,1 // cmpltps %xmm9,%xmm0
- .byte 15,40,13,154,89,0,0 // movaps 0x599a(%rip),%xmm1 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 15,40,13,166,89,0,0 // movaps 0x59a6(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 65,15,92,204 // subps %xmm12,%xmm1
.byte 102,68,15,56,20,225 // blendvps %xmm0,%xmm1,%xmm12
@@ -51921,48 +52464,48 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 34862 <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
+ .byte 119,38 // ja 35276 <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,20,2,0,0 // lea 0x214(%rip),%r11 # 34a5c <_sk_srcover_rgba_8888_sse41_lowp+0x245>
+ .byte 76,141,29,20,2,0,0 // lea 0x214(%rip),%r11 # 35470 <_sk_srcover_rgba_8888_sse41_lowp+0x245>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 348bb <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,89 // jmp 352cf <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 348bb <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,74 // jmp 352cf <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 348bb <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,37 // jmp 352cf <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,141,95,0,0 // movdqa 0x5f8d(%rip),%xmm4 # 3a850 <_sk_srcover_bgra_8888_sse2_lowp+0x12fc>
+ .byte 102,15,111,37,153,95,0,0 // movdqa 0x5f99(%rip),%xmm4 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,37,237,87,0,0 // movdqa 0x57ed(%rip),%xmm12 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,37,249,87,0,0 // movdqa 0x57f9(%rip),%xmm12 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,13,102,95,0,0 // movdqa 0x5f66(%rip),%xmm9 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x130c>
+ .byte 102,68,15,111,13,114,95,0,0 // movdqa 0x5f72(%rip),%xmm9 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
.byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7
- .byte 102,68,15,111,13,83,95,0,0 // movdqa 0x5f53(%rip),%xmm9 # 3a870 <_sk_srcover_bgra_8888_sse2_lowp+0x131c>
+ .byte 102,68,15,111,13,95,95,0,0 // movdqa 0x5f5f(%rip),%xmm9 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,65,15,56,0,241 // pshufb %xmm9,%xmm6
.byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -52004,19 +52547,19 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 102,65,15,235,196 // por %xmm12,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 34a05 <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
- .byte 76,141,21,132,0,0,0 // lea 0x84(%rip),%r10 # 34a78 <_sk_srcover_rgba_8888_sse41_lowp+0x261>
+ .byte 119,24 // ja 35419 <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
+ .byte 76,141,21,132,0,0,0 // lea 0x84(%rip),%r10 # 3548c <_sk_srcover_rgba_8888_sse41_lowp+0x261>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4)
- .byte 235,63 // jmp 34a44 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,63 // jmp 35458 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
.byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 34a44 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,48 // jmp 35458 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
.byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4)
- .byte 235,31 // jmp 34a44 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,31 // jmp 35458 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
.byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
.byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4)
@@ -52033,7 +52576,7 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 255,38 // jmpq *(%rsi)
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,21,254,255,255,89 // callq *0x59fffffe(%rip) # 5a034a67 <_sk_srcover_bgra_8888_sse2_lowp+0x59ffb513>
+ .byte 255,21,254,255,255,89 // callq *0x59fffffe(%rip) # 5a03547b <_sk_srcover_bgra_8888_sse2_lowp+0x59ffb513>
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255,80,254 // callq *-0x2(%rax)
@@ -52072,48 +52615,48 @@ _sk_srcover_bgra_8888_sse41_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 34adf <_sk_srcover_bgra_8888_sse41_lowp+0x4b>
+ .byte 119,38 // ja 354f3 <_sk_srcover_bgra_8888_sse41_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 34cdc <_sk_srcover_bgra_8888_sse41_lowp+0x248>
+ .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 356f0 <_sk_srcover_bgra_8888_sse41_lowp+0x248>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 34b38 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
+ .byte 235,89 // jmp 3554c <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 34b38 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
+ .byte 235,74 // jmp 3554c <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4
.byte 102,68,15,111,197 // movdqa %xmm5,%xmm8
- .byte 235,37 // jmp 34b38 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
+ .byte 235,37 // jmp 3554c <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 102,15,111,53,16,93,0,0 // movdqa 0x5d10(%rip),%xmm6 # 3a850 <_sk_srcover_bgra_8888_sse2_lowp+0x12fc>
+ .byte 102,15,111,53,28,93,0,0 // movdqa 0x5d1c(%rip),%xmm6 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,254 // pshufb %xmm6,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,37,112,85,0,0 // movdqa 0x5570(%rip),%xmm12 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,37,124,85,0,0 // movdqa 0x557c(%rip),%xmm12 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,244 // pand %xmm12,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,13,233,92,0,0 // movdqa 0x5ce9(%rip),%xmm9 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x130c>
+ .byte 102,68,15,111,13,245,92,0,0 // movdqa 0x5cf5(%rip),%xmm9 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
.byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7
- .byte 102,68,15,111,13,214,92,0,0 // movdqa 0x5cd6(%rip),%xmm9 # 3a870 <_sk_srcover_bgra_8888_sse2_lowp+0x131c>
+ .byte 102,68,15,111,13,226,92,0,0 // movdqa 0x5ce2(%rip),%xmm9 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
.byte 102,65,15,56,0,225 // pshufb %xmm9,%xmm4
.byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8
.byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4
@@ -52155,19 +52698,19 @@ _sk_srcover_bgra_8888_sse41_lowp:
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 102,65,15,235,196 // por %xmm12,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 34c82 <_sk_srcover_bgra_8888_sse41_lowp+0x1ee>
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 34cf8 <_sk_srcover_bgra_8888_sse41_lowp+0x264>
+ .byte 119,24 // ja 35696 <_sk_srcover_bgra_8888_sse41_lowp+0x1ee>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 3570c <_sk_srcover_bgra_8888_sse41_lowp+0x264>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4)
- .byte 235,63 // jmp 34cc1 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
+ .byte 235,63 // jmp 356d5 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
.byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
.byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 34cc1 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
+ .byte 235,48 // jmp 356d5 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
.byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4)
- .byte 235,31 // jmp 34cc1 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
+ .byte 235,31 // jmp 356d5 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
.byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
.byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4)
@@ -52232,13 +52775,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 34dca <_sk_start_pipeline_sse2_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 357de <_sk_start_pipeline_sse2_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 34d98 <_sk_start_pipeline_sse2_lowp+0x84>
+ .byte 119,59 // ja 357ac <_sk_start_pipeline_sse2_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -52257,10 +52800,10 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 34d61 <_sk_start_pipeline_sse2_lowp+0x4d>
+ .byte 118,201 // jbe 35775 <_sk_start_pipeline_sse2_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 34dc1 <_sk_start_pipeline_sse2_lowp+0xad>
+ .byte 116,33 // je 357d5 <_sk_start_pipeline_sse2_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -52274,7 +52817,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 34d53 <_sk_start_pipeline_sse2_lowp+0x3f>
+ .byte 117,137 // jne 35767 <_sk_start_pipeline_sse2_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -52305,7 +52848,7 @@ _sk_seed_shader_sse2_lowp:
.byte 102,15,110,209 // movd %ecx,%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,88,21,24,83,0,0 // addps 0x5318(%rip),%xmm2 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,88,21,36,83,0,0 // addps 0x5324(%rip),%xmm2 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 255,224 // jmpq *%rax
@@ -52482,7 +53025,7 @@ HIDDEN _sk_black_color_sse2_lowp
FUNCTION(_sk_black_color_sse2_lowp)
_sk_black_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,93,80,0,0 // movaps 0x505d(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 15,40,29,105,80,0,0 // movaps 0x5069(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -52493,7 +53036,7 @@ HIDDEN _sk_white_color_sse2_lowp
FUNCTION(_sk_white_color_sse2_lowp)
_sk_white_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,73,80,0,0 // movaps 0x5049(%rip),%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 15,40,5,85,80,0,0 // movaps 0x5055(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -52504,10 +53047,10 @@ HIDDEN _sk_set_rgb_sse2_lowp
FUNCTION(_sk_set_rgb_sse2_lowp)
_sk_set_rgb_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,148,71,0,0 // movss 0x4794(%rip),%xmm2 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,15,16,21,148,71,0,0 // movss 0x4794(%rip),%xmm2 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,83,71,0,0 // movss 0x4753(%rip),%xmm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,16,5,83,71,0,0 // movss 0x4753(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -52533,7 +53076,7 @@ HIDDEN _sk_clamp_a_sse2_lowp
.globl _sk_clamp_a_sse2_lowp
FUNCTION(_sk_clamp_a_sse2_lowp)
_sk_clamp_a_sse2_lowp:
- .byte 102,68,15,111,5,47,87,0,0 // movdqa 0x572f(%rip),%xmm8 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec>
+ .byte 102,68,15,111,5,59,87,0,0 // movdqa 0x573b(%rip),%xmm8 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
.byte 102,68,15,111,211 // movdqa %xmm3,%xmm10
@@ -52562,7 +53105,7 @@ HIDDEN _sk_clamp_a_dst_sse2_lowp
.globl _sk_clamp_a_dst_sse2_lowp
FUNCTION(_sk_clamp_a_dst_sse2_lowp)
_sk_clamp_a_dst_sse2_lowp:
- .byte 102,68,15,111,5,185,86,0,0 // movdqa 0x56b9(%rip),%xmm8 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec>
+ .byte 102,68,15,111,5,197,86,0,0 // movdqa 0x56c5(%rip),%xmm8 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,68,15,111,204 // movdqa %xmm4,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
.byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
@@ -52592,7 +53135,7 @@ HIDDEN _sk_premul_sse2_lowp
FUNCTION(_sk_premul_sse2_lowp)
_sk_premul_sse2_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,207,78,0,0 // movdqa 0x4ecf(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,219,78,0,0 // movdqa 0x4edb(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -52609,7 +53152,7 @@ HIDDEN _sk_premul_dst_sse2_lowp
FUNCTION(_sk_premul_dst_sse2_lowp)
_sk_premul_dst_sse2_lowp:
.byte 102,15,213,231 // pmullw %xmm7,%xmm4
- .byte 102,68,15,111,5,152,78,0,0 // movdqa 0x4e98(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,164,78,0,0 // movdqa 0x4ea4(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,224 // paddw %xmm8,%xmm4
.byte 102,15,113,212,8 // psrlw $0x8,%xmm4
.byte 102,15,213,239 // pmullw %xmm7,%xmm5
@@ -52657,7 +53200,7 @@ HIDDEN _sk_invert_sse2_lowp
.globl _sk_invert_sse2_lowp
FUNCTION(_sk_invert_sse2_lowp)
_sk_invert_sse2_lowp:
- .byte 102,68,15,111,5,54,78,0,0 // movdqa 0x4e36(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,66,78,0,0 // movdqa 0x4e42(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -52689,7 +53232,7 @@ FUNCTION(_sk_srcatop_sse2_lowp)
_sk_srcatop_sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,218,77,0,0 // movdqa 0x4dda(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,15,111,29,230,77,0,0 // movdqa 0x4de6(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -52721,7 +53264,7 @@ FUNCTION(_sk_dstatop_sse2_lowp)
_sk_dstatop_sse2_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,90,77,0,0 // movdqa 0x4d5a(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,102,77,0,0 // movdqa 0x4d66(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -52750,7 +53293,7 @@ HIDDEN _sk_srcin_sse2_lowp
FUNCTION(_sk_srcin_sse2_lowp)
_sk_srcin_sse2_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,229,76,0,0 // movdqa 0x4ce5(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,241,76,0,0 // movdqa 0x4cf1(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -52771,7 +53314,7 @@ FUNCTION(_sk_dstin_sse2_lowp)
_sk_dstin_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,156,76,0,0 // movdqa 0x4c9c(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,168,76,0,0 // movdqa 0x4ca8(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -52792,7 +53335,7 @@ HIDDEN _sk_srcout_sse2_lowp
.globl _sk_srcout_sse2_lowp
FUNCTION(_sk_srcout_sse2_lowp)
_sk_srcout_sse2_lowp:
- .byte 102,68,15,111,5,83,76,0,0 // movdqa 0x4c53(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,95,76,0,0 // movdqa 0x4c5f(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -52815,7 +53358,7 @@ HIDDEN _sk_dstout_sse2_lowp
FUNCTION(_sk_dstout_sse2_lowp)
_sk_dstout_sse2_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,252,75,0,0 // movdqa 0x4bfc(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,8,76,0,0 // movdqa 0x4c08(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -52840,7 +53383,7 @@ HIDDEN _sk_srcover_sse2_lowp
.globl _sk_srcover_sse2_lowp
FUNCTION(_sk_srcover_sse2_lowp)
_sk_srcover_sse2_lowp:
- .byte 102,68,15,111,13,162,75,0,0 // movdqa 0x4ba2(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,174,75,0,0 // movdqa 0x4bae(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -52869,7 +53412,7 @@ HIDDEN _sk_dstover_sse2_lowp
.globl _sk_dstover_sse2_lowp
FUNCTION(_sk_dstover_sse2_lowp)
_sk_dstover_sse2_lowp:
- .byte 102,68,15,111,5,40,75,0,0 // movdqa 0x4b28(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,52,75,0,0 // movdqa 0x4b34(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -52896,7 +53439,7 @@ HIDDEN _sk_modulate_sse2_lowp
FUNCTION(_sk_modulate_sse2_lowp)
_sk_modulate_sse2_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,193,74,0,0 // movdqa 0x4ac1(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,205,74,0,0 // movdqa 0x4acd(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -52915,7 +53458,7 @@ HIDDEN _sk_multiply_sse2_lowp
.globl _sk_multiply_sse2_lowp
FUNCTION(_sk_multiply_sse2_lowp)
_sk_multiply_sse2_lowp:
- .byte 102,68,15,111,13,128,74,0,0 // movdqa 0x4a80(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,140,74,0,0 // movdqa 0x4a8c(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -52960,12 +53503,12 @@ _sk_plus__sse2_lowp:
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,68,15,111,21,44,82,0,0 // movdqa 0x522c(%rip),%xmm10 # 3a940 <_sk_srcover_bgra_8888_sse2_lowp+0x13ec>
+ .byte 102,68,15,111,21,56,82,0,0 // movdqa 0x5238(%rip),%xmm10 # 3b360 <_sk_srcover_bgra_8888_sse2_lowp+0x13f8>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,217,194 // psubusw %xmm10,%xmm0
.byte 102,69,15,239,228 // pxor %xmm12,%xmm12
.byte 102,65,15,117,196 // pcmpeqw %xmm12,%xmm0
- .byte 102,68,15,111,29,160,73,0,0 // movdqa 0x49a0(%rip),%xmm11 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,29,172,73,0,0 // movdqa 0x49ac(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 102,65,15,223,195 // pandn %xmm11,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
@@ -53004,7 +53547,7 @@ _sk_screen_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,0,73,0,0 // movdqa 0x4900(%rip),%xmm10 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,21,12,73,0,0 // movdqa 0x490c(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -53036,7 +53579,7 @@ HIDDEN _sk_xor__sse2_lowp
FUNCTION(_sk_xor__sse2_lowp)
_sk_xor__sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,126,72,0,0 // movdqa 0x487e(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,138,72,0,0 // movdqa 0x488a(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -53078,7 +53621,7 @@ _sk_darken_sse2_lowp:
.byte 102,65,15,253,194 // paddw %xmm10,%xmm0
.byte 102,68,15,213,215 // pmullw %xmm7,%xmm10
.byte 102,68,15,213,227 // pmullw %xmm3,%xmm12
- .byte 102,68,15,111,13,57,79,0,0 // movdqa 0x4f39(%rip),%xmm9 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec>
+ .byte 102,68,15,111,13,69,79,0,0 // movdqa 0x4f45(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,204 // movdqa %xmm12,%xmm1
@@ -53087,7 +53630,7 @@ _sk_darken_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,152,71,0,0 // movdqa 0x4798(%rip),%xmm10 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,21,164,71,0,0 // movdqa 0x47a4(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -53143,7 +53686,7 @@ _sk_lighten_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,16,78,0,0 // movdqa 0x4e10(%rip),%xmm9 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec>
+ .byte 102,68,15,111,13,28,78,0,0 // movdqa 0x4e1c(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -53152,7 +53695,7 @@ _sk_lighten_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,111,70,0,0 // movdqa 0x466f(%rip),%xmm10 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,21,123,70,0,0 // movdqa 0x467b(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -53208,7 +53751,7 @@ _sk_difference_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,231,76,0,0 // movdqa 0x4ce7(%rip),%xmm9 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec>
+ .byte 102,68,15,111,13,243,76,0,0 // movdqa 0x4cf3(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -53217,10 +53760,10 @@ _sk_difference_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,70,69,0,0 // movdqa 0x4546(%rip),%xmm10 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,21,82,69,0,0 // movdqa 0x4552(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,29,147,76,0,0 // movdqa 0x4c93(%rip),%xmm11 # 3a830 <_sk_srcover_bgra_8888_sse2_lowp+0x12dc>
+ .byte 102,68,15,111,29,159,76,0,0 // movdqa 0x4c9f(%rip),%xmm11 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
@@ -53275,10 +53818,10 @@ _sk_exclusion_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,67,68,0,0 // movdqa 0x4443(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,79,68,0,0 // movdqa 0x444f(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,144,75,0,0 // movdqa 0x4b90(%rip),%xmm10 # 3a830 <_sk_srcover_bgra_8888_sse2_lowp+0x12dc>
+ .byte 102,68,15,111,21,156,75,0,0 // movdqa 0x4b9c(%rip),%xmm10 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -53314,7 +53857,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,15,111,21,159,67,0,0 // movdqa 0x439f(%rip),%xmm2 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,15,111,21,171,67,0,0 // movdqa 0x43ab(%rip),%xmm2 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,68,15,249,231 // psubw %xmm7,%xmm12
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -53327,7 +53870,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,249,241 // psubw %xmm9,%xmm14
.byte 102,69,15,253,201 // paddw %xmm9,%xmm9
- .byte 102,15,111,21,203,74,0,0 // movdqa 0x4acb(%rip),%xmm2 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec>
+ .byte 102,15,111,21,215,74,0,0 // movdqa 0x4ad7(%rip),%xmm2 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
@@ -53346,7 +53889,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,232 // pand %xmm0,%xmm13
.byte 102,65,15,223,193 // pandn %xmm9,%xmm0
.byte 102,65,15,235,197 // por %xmm13,%xmm0
- .byte 102,15,253,5,254,66,0,0 // paddw 0x42fe(%rip),%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,15,253,5,10,67,0,0 // paddw 0x430a(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,199 // paddw %xmm15,%xmm0
.byte 102,69,15,111,204 // movdqa %xmm12,%xmm9
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
@@ -53369,7 +53912,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,65,15,219,249 // pand %xmm9,%xmm7
.byte 102,68,15,223,201 // pandn %xmm1,%xmm9
.byte 102,68,15,235,207 // por %xmm7,%xmm9
- .byte 102,68,15,253,13,137,66,0,0 // paddw 0x4289(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,253,13,149,66,0,0 // paddw 0x4295(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,253,205 // paddw %xmm13,%xmm9
.byte 102,69,15,213,224 // pmullw %xmm8,%xmm12
.byte 102,69,15,111,251 // movdqa %xmm11,%xmm15
@@ -53391,7 +53934,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,65,15,223,208 // pandn %xmm8,%xmm2
.byte 102,65,15,235,210 // por %xmm10,%xmm2
- .byte 102,68,15,111,5,25,66,0,0 // movdqa 0x4219(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,37,66,0,0 // movdqa 0x4225(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
.byte 102,65,15,253,215 // paddw %xmm15,%xmm2
.byte 102,68,15,213,220 // pmullw %xmm4,%xmm11
@@ -53419,7 +53962,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,127,124,36,232 // movdqa %xmm7,-0x18(%rsp)
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
- .byte 102,15,111,53,170,65,0,0 // movdqa 0x41aa(%rip),%xmm6 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,15,111,53,182,65,0,0 // movdqa 0x41b6(%rip),%xmm6 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,69,15,249,222 // psubw %xmm14,%xmm11
.byte 102,65,15,111,203 // movdqa %xmm11,%xmm1
@@ -53441,7 +53984,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,253,201 // paddw %xmm1,%xmm1
.byte 102,69,15,111,225 // movdqa %xmm9,%xmm12
.byte 102,68,15,249,225 // psubw %xmm1,%xmm12
- .byte 102,15,111,13,174,72,0,0 // movdqa 0x48ae(%rip),%xmm1 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec>
+ .byte 102,15,111,13,186,72,0,0 // movdqa 0x48ba(%rip),%xmm1 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,69,15,111,238 // movdqa %xmm14,%xmm13
.byte 102,68,15,239,233 // pxor %xmm1,%xmm13
.byte 102,15,239,249 // pxor %xmm1,%xmm7
@@ -53468,7 +54011,7 @@ _sk_overlay_sse2_lowp:
.byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,61,45,72,0,0 // movdqa 0x482d(%rip),%xmm7 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec>
+ .byte 102,15,111,61,57,72,0,0 // movdqa 0x4839(%rip),%xmm7 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,15,239,231 // pxor %xmm7,%xmm4
.byte 102,65,15,101,229 // pcmpgtw %xmm13,%xmm4
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
@@ -53528,27 +54071,27 @@ _sk_load_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 36129 <_sk_load_8888_sse2_lowp+0x44>
+ .byte 119,41 // ja 36b3d <_sk_load_8888_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,25,1,0,0 // lea 0x119(%rip),%r9 # 36228 <_sk_load_8888_sse2_lowp+0x143>
+ .byte 76,141,13,25,1,0,0 // lea 0x119(%rip),%r9 # 36c3c <_sk_load_8888_sse2_lowp+0x143>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 3618f <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 36ba3 <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 3618f <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 36ba3 <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 3618f <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 36ba3 <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -53565,7 +54108,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,23,63,0,0 // movdqa 0x3f17(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,35,63,0,0 // movdqa 0x3f23(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -53622,27 +54165,27 @@ _sk_load_8888_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 36288 <_sk_load_8888_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 36c9c <_sk_load_8888_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 36384 <_sk_load_8888_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 36d98 <_sk_load_8888_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 362ee <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 36d02 <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 362ee <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 36d02 <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 362ee <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 36d02 <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -53659,7 +54202,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,184,61,0,0 // movdqa 0x3db8(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,196,61,0,0 // movdqa 0x3dc4(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -53727,21 +54270,21 @@ _sk_store_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 36423 <_sk_store_8888_sse2_lowp+0x83>
+ .byte 119,27 // ja 36e37 <_sk_store_8888_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 36474 <_sk_store_8888_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 36e88 <_sk_store_8888_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 3646e <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,75 // jmp 36e82 <_sk_store_8888_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 3646e <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,60 // jmp 36e82 <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 3646e <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,39 // jmp 36e82 <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -53786,27 +54329,27 @@ _sk_load_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 364d4 <_sk_load_bgra_sse2_lowp+0x44>
+ .byte 119,41 // ja 36ee8 <_sk_load_bgra_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 365d0 <_sk_load_bgra_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 36fe4 <_sk_load_bgra_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 3653a <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 36f4e <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 3653a <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 36f4e <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 3653a <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 36f4e <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -53823,7 +54366,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,108,59,0,0 // movdqa 0x3b6c(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,120,59,0,0 // movdqa 0x3b78(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -53876,27 +54419,27 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 36630 <_sk_load_bgra_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 37044 <_sk_load_bgra_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 3672c <_sk_load_bgra_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 37140 <_sk_load_bgra_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 36696 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 370aa <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 36696 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 370aa <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 36696 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 370aa <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -53913,7 +54456,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,16,58,0,0 // movdqa 0x3a10(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,28,58,0,0 // movdqa 0x3a1c(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -53981,21 +54524,21 @@ _sk_store_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 367cb <_sk_store_bgra_sse2_lowp+0x83>
+ .byte 119,27 // ja 371df <_sk_store_bgra_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 3681c <_sk_store_bgra_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 37230 <_sk_store_bgra_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 36816 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,75 // jmp 3722a <_sk_store_bgra_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 36816 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,60 // jmp 3722a <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 36816 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,39 // jmp 3722a <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -54109,7 +54652,7 @@ _sk_gather_8888_sse2_lowp:
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,114,225,16 // psrad $0x10,%xmm1
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,44,55,0,0 // movdqa 0x372c(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,56,55,0,0 // movdqa 0x3738(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -54219,7 +54762,7 @@ _sk_gather_bgra_sse2_lowp:
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,114,225,16 // psrad $0x10,%xmm1
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,77,53,0,0 // movdqa 0x354d(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,89,53,0,0 // movdqa 0x3559(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -54260,23 +54803,23 @@ _sk_load_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 36c32 <_sk_load_565_sse2_lowp+0x3c>
+ .byte 119,34 // ja 37646 <_sk_load_565_sse2_lowp+0x3c>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,190,0,0,0 // lea 0xbe(%rip),%r9 # 36cdc <_sk_load_565_sse2_lowp+0xe6>
+ .byte 76,141,13,190,0,0,0 // lea 0xbe(%rip),%r9 # 376f0 <_sk_load_565_sse2_lowp+0xe6>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,66 // jmp 36c74 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 37688 <_sk_load_565_sse2_lowp+0x7e>
.byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,58 // jmp 36c74 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 37688 <_sk_load_565_sse2_lowp+0x7e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 243,65,15,16,12,80 // movss (%r8,%rdx,2),%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,34 // jmp 36c74 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 37688 <_sk_load_565_sse2_lowp+0x7e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -54284,11 +54827,11 @@ _sk_load_565_sse2_lowp:
.byte 102,65,15,18,4,80 // movlpd (%r8,%rdx,2),%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,251,59,0,0 // pand 0x3bfb(%rip),%xmm3 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c>
+ .byte 102,15,219,29,7,60,0,0 // pand 0x3c07(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,250,59,0,0 // pand 0x3bfa(%rip),%xmm1 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c>
- .byte 102,15,111,21,2,60,0,0 // movdqa 0x3c02(%rip),%xmm2 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c>
+ .byte 102,15,219,13,6,60,0,0 // pand 0x3c06(%rip),%xmm1 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,111,21,14,60,0,0 // movdqa 0x3c0e(%rip),%xmm2 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -54301,7 +54844,7 @@ _sk_load_565_sse2_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,248,51,0,0 // movaps 0x33f8(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 15,40,29,4,52,0,0 // movaps 0x3404(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 75,255 // rex.WXB (bad)
@@ -54331,23 +54874,23 @@ _sk_load_565_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 36d34 <_sk_load_565_dst_sse2_lowp+0x3c>
+ .byte 119,34 // ja 37748 <_sk_load_565_dst_sse2_lowp+0x3c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 36ddc <_sk_load_565_dst_sse2_lowp+0xe4>
+ .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 377f0 <_sk_load_565_dst_sse2_lowp+0xe4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,66 // jmp 36d76 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 3778a <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,58 // jmp 36d76 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 3778a <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
.byte 243,65,15,16,44,80 // movss (%r8,%rdx,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,34 // jmp 36d76 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 3778a <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
.byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
@@ -54355,11 +54898,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,65,15,18,36,80 // movlpd (%r8,%rdx,2),%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,249,58,0,0 // pand 0x3af9(%rip),%xmm7 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c>
+ .byte 102,15,219,61,5,59,0,0 // pand 0x3b05(%rip),%xmm7 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,248,58,0,0 // pand 0x3af8(%rip),%xmm5 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c>
- .byte 102,15,111,53,0,59,0,0 // movdqa 0x3b00(%rip),%xmm6 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c>
+ .byte 102,15,219,45,4,59,0,0 // pand 0x3b04(%rip),%xmm5 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,111,53,12,59,0,0 // movdqa 0x3b0c(%rip),%xmm6 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -54372,7 +54915,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,246,50,0,0 // movaps 0x32f6(%rip),%xmm7 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 15,40,61,2,51,0,0 // movaps 0x3302(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 255,224 // jmpq *%rax
.byte 77,255 // rex.WRB (bad)
.byte 255 // (bad)
@@ -54396,10 +54939,10 @@ _sk_store_565_sse2_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,148,58,0,0 // pand 0x3a94(%rip),%xmm8 # 3a8b0 <_sk_srcover_bgra_8888_sse2_lowp+0x135c>
+ .byte 102,68,15,219,5,160,58,0,0 // pand 0x3aa0(%rip),%xmm8 # 3b2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,144,58,0,0 // pand 0x3a90(%rip),%xmm9 # 3a8c0 <_sk_srcover_bgra_8888_sse2_lowp+0x136c>
+ .byte 102,68,15,219,13,156,58,0,0 // pand 0x3a9c(%rip),%xmm9 # 3b2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1378>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -54408,21 +54951,21 @@ _sk_store_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,31 // ja 36e6e <_sk_store_565_sse2_lowp+0x76>
+ .byte 119,31 // ja 37882 <_sk_store_565_sse2_lowp+0x76>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 36eb8 <_sk_store_565_sse2_lowp+0xc0>
+ .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 378cc <_sk_store_565_sse2_lowp+0xc0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,70 // jmp 36eb4 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,70 // jmp 378c8 <_sk_store_565_sse2_lowp+0xbc>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,62 // jmp 36eb4 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,62 // jmp 378c8 <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax
.byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,42 // jmp 36eb4 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,42 // jmp 378c8 <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax
.byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2)
.byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax
@@ -54541,11 +55084,11 @@ _sk_gather_565_sse2_lowp:
.byte 102,15,108,193 // punpcklqdq %xmm1,%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,61,56,0,0 // pand 0x383d(%rip),%xmm3 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c>
+ .byte 102,15,219,29,73,56,0,0 // pand 0x3849(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,60,56,0,0 // pand 0x383c(%rip),%xmm1 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c>
- .byte 102,15,111,21,68,56,0,0 // movdqa 0x3844(%rip),%xmm2 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c>
+ .byte 102,15,219,13,72,56,0,0 // pand 0x3848(%rip),%xmm1 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,15,111,21,80,56,0,0 // movdqa 0x3850(%rip),%xmm2 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -54558,7 +55101,7 @@ _sk_gather_565_sse2_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,58,48,0,0 // movaps 0x303a(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 15,40,29,70,48,0,0 // movaps 0x3046(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -54579,23 +55122,23 @@ _sk_load_4444_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 370de <_sk_load_4444_sse2_lowp+0x3e>
+ .byte 119,36 // ja 37af2 <_sk_load_4444_sse2_lowp+0x3e>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 37190 <_sk_load_4444_sse2_lowp+0xf0>
+ .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 37ba4 <_sk_load_4444_sse2_lowp+0xf0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,69 // jmp 37123 <_sk_load_4444_sse2_lowp+0x83>
+ .byte 235,69 // jmp 37b37 <_sk_load_4444_sse2_lowp+0x83>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,61 // jmp 37123 <_sk_load_4444_sse2_lowp+0x83>
+ .byte 235,61 // jmp 37b37 <_sk_load_4444_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm8
.byte 243,65,15,16,4,80 // movss (%r8,%rdx,2),%xmm0
.byte 243,68,15,16,192 // movss %xmm0,%xmm8
- .byte 235,35 // jmp 37123 <_sk_load_4444_sse2_lowp+0x83>
+ .byte 235,35 // jmp 37b37 <_sk_load_4444_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm8
.byte 102,69,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm8
@@ -54605,7 +55148,7 @@ _sk_load_4444_sse2_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,145,55,0,0 // movdqa 0x3791(%rip),%xmm0 # 3a8d0 <_sk_srcover_bgra_8888_sse2_lowp+0x137c>
+ .byte 102,15,111,5,157,55,0,0 // movdqa 0x379d(%rip),%xmm0 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -54635,7 +55178,7 @@ _sk_load_4444_sse2_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 371a5 <_sk_load_4444_sse2_lowp+0x105>
+ .byte 125,255 // jge 37bb9 <_sk_load_4444_sse2_lowp+0x105>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -54654,23 +55197,23 @@ _sk_load_4444_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 371ea <_sk_load_4444_dst_sse2_lowp+0x3e>
+ .byte 119,36 // ja 37bfe <_sk_load_4444_dst_sse2_lowp+0x3e>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 3729c <_sk_load_4444_dst_sse2_lowp+0xf0>
+ .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 37cb0 <_sk_load_4444_dst_sse2_lowp+0xf0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,69 // jmp 3722f <_sk_load_4444_dst_sse2_lowp+0x83>
+ .byte 235,69 // jmp 37c43 <_sk_load_4444_dst_sse2_lowp+0x83>
.byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,61 // jmp 3722f <_sk_load_4444_dst_sse2_lowp+0x83>
+ .byte 235,61 // jmp 37c43 <_sk_load_4444_dst_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm8
.byte 243,65,15,16,36,80 // movss (%r8,%rdx,2),%xmm4
.byte 243,68,15,16,196 // movss %xmm4,%xmm8
- .byte 235,35 // jmp 3722f <_sk_load_4444_dst_sse2_lowp+0x83>
+ .byte 235,35 // jmp 37c43 <_sk_load_4444_dst_sse2_lowp+0x83>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,69,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm8
.byte 102,69,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm8
@@ -54680,7 +55223,7 @@ _sk_load_4444_dst_sse2_lowp:
.byte 102,15,113,213,12 // psrlw $0xc,%xmm5
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,111,37,133,54,0,0 // movdqa 0x3685(%rip),%xmm4 # 3a8d0 <_sk_srcover_bgra_8888_sse2_lowp+0x137c>
+ .byte 102,15,111,37,145,54,0,0 // movdqa 0x3691(%rip),%xmm4 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,113,215,4 // psrlw $0x4,%xmm7
@@ -54710,7 +55253,7 @@ _sk_load_4444_dst_sse2_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 372b1 <_sk_load_4444_dst_sse2_lowp+0x105>
+ .byte 125,255 // jge 37cc5 <_sk_load_4444_dst_sse2_lowp+0x105>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -54727,12 +55270,12 @@ _sk_store_4444_sse2_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,4,54,0,0 // pand 0x3604(%rip),%xmm8 # 3a8e0 <_sk_srcover_bgra_8888_sse2_lowp+0x138c>
+ .byte 102,68,15,219,5,16,54,0,0 // pand 0x3610(%rip),%xmm8 # 3b300 <_sk_srcover_bgra_8888_sse2_lowp+0x1398>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,4 // psllw $0x4,%xmm9
- .byte 102,68,15,219,13,0,54,0,0 // pand 0x3600(%rip),%xmm9 # 3a8f0 <_sk_srcover_bgra_8888_sse2_lowp+0x139c>
+ .byte 102,68,15,219,13,12,54,0,0 // pand 0x360c(%rip),%xmm9 # 3b310 <_sk_srcover_bgra_8888_sse2_lowp+0x13a8>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
- .byte 102,68,15,111,21,2,54,0,0 // movdqa 0x3602(%rip),%xmm10 # 3a900 <_sk_srcover_bgra_8888_sse2_lowp+0x13ac>
+ .byte 102,68,15,111,21,14,54,0,0 // movdqa 0x360e(%rip),%xmm10 # 3b320 <_sk_srcover_bgra_8888_sse2_lowp+0x13b8>
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,65,15,113,208,4 // psrlw $0x4,%xmm8
@@ -54742,21 +55285,21 @@ _sk_store_4444_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,31 // ja 37341 <_sk_store_4444_sse2_lowp+0x89>
+ .byte 119,31 // ja 37d55 <_sk_store_4444_sse2_lowp+0x89>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,96,0,0,0 // lea 0x60(%rip),%r9 # 3738c <_sk_store_4444_sse2_lowp+0xd4>
+ .byte 76,141,13,96,0,0,0 // lea 0x60(%rip),%r9 # 37da0 <_sk_store_4444_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,70 // jmp 37387 <_sk_store_4444_sse2_lowp+0xcf>
+ .byte 235,70 // jmp 37d9b <_sk_store_4444_sse2_lowp+0xcf>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,62 // jmp 37387 <_sk_store_4444_sse2_lowp+0xcf>
+ .byte 235,62 // jmp 37d9b <_sk_store_4444_sse2_lowp+0xcf>
.byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax
.byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,42 // jmp 37387 <_sk_store_4444_sse2_lowp+0xcf>
+ .byte 235,42 // jmp 37d9b <_sk_store_4444_sse2_lowp+0xcf>
.byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax
.byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2)
.byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax
@@ -54775,7 +55318,7 @@ _sk_store_4444_sse2_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,221 // jmpq ffffffffde0373a0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddffde4c>
+ .byte 233,255,255,255,221 // jmpq ffffffffde037db4 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddffde4c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,209 // callq *%rcx
@@ -54872,7 +55415,7 @@ _sk_gather_4444_sse2_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,170,51,0,0 // movdqa 0x33aa(%rip),%xmm0 # 3a8d0 <_sk_srcover_bgra_8888_sse2_lowp+0x137c>
+ .byte 102,15,111,5,182,51,0,0 // movdqa 0x33b6(%rip),%xmm0 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -54910,19 +55453,19 @@ _sk_load_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 375b8 <_sk_load_a8_sse2_lowp+0x39>
+ .byte 119,34 // ja 37fcc <_sk_load_a8_sse2_lowp+0x39>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,140,0,0,0 // lea 0x8c(%rip),%r9 # 37630 <_sk_load_a8_sse2_lowp+0xb1>
+ .byte 76,141,13,140,0,0,0 // lea 0x8c(%rip),%r9 # 38044 <_sk_load_a8_sse2_lowp+0xb1>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,97 // jmp 37619 <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 3802d <_sk_load_a8_sse2_lowp+0x9a>
.byte 243,65,15,126,28,16 // movq (%r8,%rdx,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,85 // jmp 37619 <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 3802d <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,2 // pinsrw $0x2,%eax,%xmm3
@@ -54930,7 +55473,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 243,15,16,216 // movss %xmm0,%xmm3
- .byte 235,51 // jmp 37619 <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 3802d <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,6 // pinsrw $0x6,%eax,%xmm3
@@ -54941,14 +55484,14 @@ _sk_load_a8_sse2_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 102,15,219,29,175,42,0,0 // pand 0x2aaf(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,15,219,29,187,42,0,0 // pand 0x2abb(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
- .byte 125,255 // jge 37631 <_sk_load_a8_sse2_lowp+0xb2>
+ .byte 125,255 // jge 38045 <_sk_load_a8_sse2_lowp+0xb2>
.byte 255 // (bad)
.byte 255,163,255,255,255,148 // jmpq *-0x6b000001(%rbx)
.byte 255 // (bad)
@@ -54979,19 +55522,19 @@ _sk_load_a8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 37685 <_sk_load_a8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 38099 <_sk_load_a8_dst_sse2_lowp+0x39>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 376fc <_sk_load_a8_dst_sse2_lowp+0xb0>
+ .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 38110 <_sk_load_a8_dst_sse2_lowp+0xb0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,97 // jmp 376e6 <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 380fa <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,60,16 // movq (%r8,%rdx,1),%xmm7
.byte 102,15,96,248 // punpcklbw %xmm0,%xmm7
- .byte 235,85 // jmp 376e6 <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 380fa <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,2 // pinsrw $0x2,%eax,%xmm7
@@ -54999,7 +55542,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,252 // movss %xmm4,%xmm7
- .byte 235,51 // jmp 376e6 <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 380fa <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,6 // pinsrw $0x6,%eax,%xmm7
@@ -55010,14 +55553,14 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 102,15,219,61,226,41,0,0 // pand 0x29e2(%rip),%xmm7 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,15,219,61,238,41,0,0 // pand 0x29ee(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 126,255 // jle 376fd <_sk_load_a8_dst_sse2_lowp+0xb1>
+ .byte 126,255 // jle 38111 <_sk_load_a8_dst_sse2_lowp+0xb1>
.byte 255 // (bad)
.byte 255,164,255,255,255,149,255 // jmpq *-0x6a0001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -55047,42 +55590,42 @@ _sk_store_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 3774c <_sk_store_a8_sse2_lowp+0x34>
+ .byte 119,29 // ja 38160 <_sk_store_a8_sse2_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 377cc <_sk_store_a8_sse2_lowp+0xb4>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 381e0 <_sk_store_a8_sse2_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 65,136,4,16 // mov %al,(%r8,%rdx,1)
- .byte 235,123 // jmp 377c7 <_sk_store_a8_sse2_lowp+0xaf>
- .byte 102,68,15,111,5,123,41,0,0 // movdqa 0x297b(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 235,123 // jmp 381db <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 102,68,15,111,5,135,41,0,0 // movdqa 0x2987(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 377c7 <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,96 // jmp 381db <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,2 // pextrw $0x2,%xmm3,%eax
.byte 65,136,68,16,2 // mov %al,0x2(%r8,%rdx,1)
- .byte 102,68,15,111,5,86,41,0,0 // movdqa 0x2956(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,98,41,0,0 // movdqa 0x2962(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,16 // mov %ax,(%r8,%rdx,1)
- .byte 235,55 // jmp 377c7 <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,55 // jmp 381db <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,6 // pextrw $0x6,%xmm3,%eax
.byte 65,136,68,16,6 // mov %al,0x6(%r8,%rdx,1)
.byte 102,15,197,195,5 // pextrw $0x5,%xmm3,%eax
.byte 65,136,68,16,5 // mov %al,0x5(%r8,%rdx,1)
.byte 102,15,197,195,4 // pextrw $0x4,%xmm3,%eax
.byte 65,136,68,16,4 // mov %al,0x4(%r8,%rdx,1)
- .byte 102,68,15,111,5,25,41,0,0 // movdqa 0x2919(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,37,41,0,0 // movdqa 0x2925(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 118,255 // jbe 377cd <_sk_store_a8_sse2_lowp+0xb5>
+ .byte 118,255 // jbe 381e1 <_sk_store_a8_sse2_lowp+0xb5>
.byte 255 // (bad)
.byte 255,165,255,255,255,155 // jmpq *-0x64000001(%rbp)
.byte 255 // (bad)
@@ -55207,19 +55750,19 @@ _sk_load_g8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 37989 <_sk_load_g8_sse2_lowp+0x39>
+ .byte 119,34 // ja 3839d <_sk_load_g8_sse2_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 37a08 <_sk_load_g8_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 3841c <_sk_load_g8_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,97 // jmp 379ea <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 383fe <_sk_load_g8_sse2_lowp+0x9a>
.byte 243,65,15,126,4,16 // movq (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,85 // jmp 379ea <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 383fe <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -55227,7 +55770,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,51 // jmp 379ea <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 383fe <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -55238,14 +55781,14 @@ _sk_load_g8_sse2_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 102,15,219,5,222,38,0,0 // pand 0x26de(%rip),%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,15,219,5,234,38,0,0 // pand 0x26ea(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,213,38,0,0 // movaps 0x26d5(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 15,40,29,225,38,0,0 // movaps 0x26e1(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 37a09 <_sk_load_g8_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 3841d <_sk_load_g8_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -55273,19 +55816,19 @@ _sk_load_g8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 37a5d <_sk_load_g8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 38471 <_sk_load_g8_dst_sse2_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 37adc <_sk_load_g8_dst_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 384f0 <_sk_load_g8_dst_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,97 // jmp 37abe <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 384d2 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,36,16 // movq (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,85 // jmp 37abe <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 384d2 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -55293,7 +55836,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,51 // jmp 37abe <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 384d2 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -55304,14 +55847,14 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,37,10,38,0,0 // pand 0x260a(%rip),%xmm4 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,15,219,37,22,38,0,0 // pand 0x2616(%rip),%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,1,38,0,0 // movaps 0x2601(%rip),%xmm7 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 15,40,61,13,38,0,0 // movaps 0x260d(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 37add <_sk_load_g8_dst_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 384f1 <_sk_load_g8_dst_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -55332,10 +55875,10 @@ HIDDEN _sk_luminance_to_alpha_sse2_lowp
FUNCTION(_sk_luminance_to_alpha_sse2_lowp)
_sk_luminance_to_alpha_sse2_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,12,46,0,0 // pmullw 0x2e0c(%rip),%xmm0 # 3a910 <_sk_srcover_bgra_8888_sse2_lowp+0x13bc>
- .byte 102,15,213,13,20,46,0,0 // pmullw 0x2e14(%rip),%xmm1 # 3a920 <_sk_srcover_bgra_8888_sse2_lowp+0x13cc>
+ .byte 102,15,213,5,24,46,0,0 // pmullw 0x2e18(%rip),%xmm0 # 3b330 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
+ .byte 102,15,213,13,32,46,0,0 // pmullw 0x2e20(%rip),%xmm1 # 3b340 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,24,46,0,0 // pmullw 0x2e18(%rip),%xmm3 # 3a930 <_sk_srcover_bgra_8888_sse2_lowp+0x13dc>
+ .byte 102,15,213,29,36,46,0,0 // pmullw 0x2e24(%rip),%xmm3 # 3b350 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8>
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -55428,7 +55971,7 @@ _sk_gather_g8_sse2_lowp:
.byte 102,15,196,197,3 // pinsrw $0x3,%ebp,%xmm0
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,70,36,0,0 // movaps 0x2446(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 15,40,29,82,36,0,0 // movaps 0x2452(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 91 // pop %rbx
@@ -55444,14 +55987,14 @@ FUNCTION(_sk_scale_1_float_sse2_lowp)
_sk_scale_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,132,27,0,0 // mulss 0x1b84(%rip),%xmm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,75,27,0,0 // addss 0x1b4b(%rip),%xmm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,132,27,0,0 // mulss 0x1b84(%rip),%xmm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,75,27,0,0 // addss 0x1b4b(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,247,35,0,0 // movdqa 0x23f7(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,3,36,0,0 // movdqa 0x2403(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -55472,13 +56015,13 @@ FUNCTION(_sk_lerp_1_float_sse2_lowp)
_sk_lerp_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,12,27,0,0 // mulss 0x1b0c(%rip),%xmm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,211,26,0,0 // addss 0x1ad3(%rip),%xmm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
+ .byte 243,68,15,89,5,12,27,0,0 // mulss 0x1b0c(%rip),%xmm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,211,26,0,0 // addss 0x1ad3(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,132,35,0,0 // movdqa 0x2384(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,144,35,0,0 // movdqa 0x2390(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -55518,19 +56061,19 @@ _sk_scale_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 37e03 <_sk_scale_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 38817 <_sk_scale_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,218,0,0,0 // lea 0xda(%rip),%r9 # 37ec8 <_sk_scale_u8_sse2_lowp+0x100>
+ .byte 76,141,13,218,0,0,0 // lea 0xda(%rip),%r9 # 388dc <_sk_scale_u8_sse2_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 37e70 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 38884 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 37e70 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 38884 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -55538,7 +56081,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 37e70 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 38884 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -55549,9 +56092,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,87,34,0,0 // pand 0x2257(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,219,5,99,34,0,0 // pand 0x2263(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,73,34,0,0 // movdqa 0x2249(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,13,85,34,0,0 // movdqa 0x2255(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -55593,19 +56136,19 @@ _sk_lerp_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 37f1f <_sk_lerp_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 38933 <_sk_lerp_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 38028 <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 38a3c <_sk_lerp_u8_sse2_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 37f8c <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 389a0 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 37f8c <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 389a0 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -55613,7 +56156,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 37f8c <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 389a0 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -55624,8 +56167,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,59,33,0,0 // pand 0x213b(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
- .byte 102,68,15,111,21,50,33,0,0 // movdqa 0x2132(%rip),%xmm10 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,219,5,71,33,0,0 // pand 0x2147(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
+ .byte 102,68,15,111,21,62,33,0,0 // movdqa 0x213e(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -55655,9 +56198,9 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 235,254 // jmp 38028 <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 235,254 // jmp 38a3c <_sk_lerp_u8_sse2_lowp+0x144>
.byte 255 // (bad)
- .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 5038030 <_sk_srcover_bgra_8888_sse2_lowp+0x4ffeadc>
+ .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 5038a44 <_sk_srcover_bgra_8888_sse2_lowp+0x4ffeadc>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,84,255,255 // callq *-0x1(%rdi,%rdi,8)
@@ -55687,23 +56230,23 @@ _sk_scale_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3808f <_sk_scale_565_sse2_lowp+0x4b>
+ .byte 119,34 // ja 38aa3 <_sk_scale_565_sse2_lowp+0x4b>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 38260 <_sk_scale_565_sse2_lowp+0x21c>
+ .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 38c74 <_sk_scale_565_sse2_lowp+0x21c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 235,67 // jmp 380d2 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,67 // jmp 38ae6 <_sk_scale_565_sse2_lowp+0x8e>
.byte 243,65,15,111,52,80 // movdqu (%r8,%rdx,2),%xmm6
- .byte 235,59 // jmp 380d2 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,59 // jmp 38ae6 <_sk_scale_565_sse2_lowp+0x8e>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,65,15,196,116,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm6
.byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
.byte 243,65,15,16,241 // movss %xmm9,%xmm6
- .byte 235,34 // jmp 380d2 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,34 // jmp 38ae6 <_sk_scale_565_sse2_lowp+0x8e>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,65,15,196,116,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm6
.byte 102,65,15,196,116,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm6
@@ -55711,11 +56254,11 @@ _sk_scale_565_sse2_lowp:
.byte 102,65,15,18,52,80 // movlpd (%r8,%rdx,2),%xmm6
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,154,39,0,0 // pand 0x279a(%rip),%xmm11 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c>
+ .byte 102,68,15,219,29,166,39,0,0 // pand 0x27a6(%rip),%xmm11 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,68,15,111,206 // movdqa %xmm6,%xmm9
.byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,150,39,0,0 // pand 0x2796(%rip),%xmm9 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c>
- .byte 102,68,15,111,21,157,39,0,0 // movdqa 0x279d(%rip),%xmm10 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c>
+ .byte 102,68,15,219,13,162,39,0,0 // pand 0x27a2(%rip),%xmm9 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,68,15,111,21,169,39,0,0 // movdqa 0x27a9(%rip),%xmm10 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,68,15,219,214 // pand %xmm6,%xmm10
.byte 102,15,113,214,13 // psrlw $0xd,%xmm6
.byte 102,65,15,235,243 // por %xmm11,%xmm6
@@ -55727,7 +56270,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
.byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,249,38,0,0 // movdqa 0x26f9(%rip),%xmm12 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec>
+ .byte 102,68,15,111,37,5,39,0,0 // movdqa 0x2705(%rip),%xmm12 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
.byte 102,69,15,239,236 // pxor %xmm12,%xmm13
.byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
@@ -55768,7 +56311,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
.byte 102,68,15,213,210 // pmullw %xmm2,%xmm10
.byte 102,68,15,213,219 // pmullw %xmm3,%xmm11
- .byte 102,15,111,5,187,30,0,0 // movdqa 0x1ebb(%rip),%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,15,111,5,199,30,0,0 // movdqa 0x1ec7(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,253,240 // paddw %xmm0,%xmm6
.byte 102,68,15,253,200 // paddw %xmm0,%xmm9
.byte 102,68,15,253,208 // paddw %xmm0,%xmm10
@@ -55815,23 +56358,23 @@ _sk_lerp_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 382c7 <_sk_lerp_565_sse2_lowp+0x4b>
+ .byte 119,34 // ja 38cdb <_sk_lerp_565_sse2_lowp+0x4b>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 384e0 <_sk_lerp_565_sse2_lowp+0x264>
+ .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 38ef4 <_sk_lerp_565_sse2_lowp+0x264>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 235,67 // jmp 3830a <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,67 // jmp 38d1e <_sk_lerp_565_sse2_lowp+0x8e>
.byte 243,65,15,111,20,80 // movdqu (%r8,%rdx,2),%xmm2
- .byte 235,59 // jmp 3830a <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,59 // jmp 38d1e <_sk_lerp_565_sse2_lowp+0x8e>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,65,15,196,84,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm2
.byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
.byte 243,65,15,16,209 // movss %xmm9,%xmm2
- .byte 235,34 // jmp 3830a <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,34 // jmp 38d1e <_sk_lerp_565_sse2_lowp+0x8e>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,65,15,196,84,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm2
.byte 102,65,15,196,84,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm2
@@ -55839,11 +56382,11 @@ _sk_lerp_565_sse2_lowp:
.byte 102,65,15,18,20,80 // movlpd (%r8,%rdx,2),%xmm2
.byte 102,68,15,111,218 // movdqa %xmm2,%xmm11
.byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,98,37,0,0 // pand 0x2562(%rip),%xmm11 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c>
+ .byte 102,68,15,219,29,110,37,0,0 // pand 0x256e(%rip),%xmm11 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
.byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
.byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,94,37,0,0 // pand 0x255e(%rip),%xmm9 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c>
- .byte 102,68,15,111,21,101,37,0,0 // movdqa 0x2565(%rip),%xmm10 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c>
+ .byte 102,68,15,219,13,106,37,0,0 // pand 0x256a(%rip),%xmm9 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
+ .byte 102,68,15,111,21,113,37,0,0 // movdqa 0x2571(%rip),%xmm10 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,15,113,210,13 // psrlw $0xd,%xmm2
.byte 102,65,15,235,211 // por %xmm11,%xmm2
@@ -55855,7 +56398,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
.byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,193,36,0,0 // movdqa 0x24c1(%rip),%xmm12 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec>
+ .byte 102,68,15,111,37,205,36,0,0 // movdqa 0x24cd(%rip),%xmm12 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
.byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
.byte 102,69,15,239,236 // pxor %xmm12,%xmm13
.byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
@@ -55894,7 +56437,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,69,15,235,222 // por %xmm14,%xmm11
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,213,209 // pmullw %xmm1,%xmm2
- .byte 102,68,15,111,5,141,28,0,0 // movdqa 0x1c8d(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,5,153,28,0,0 // movdqa 0x1c99(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,65,15,239,192 // pxor %xmm8,%xmm0
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
@@ -55956,7 +56499,7 @@ _sk_clamp_x_1_sse2_lowp:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,95,200 // maxps %xmm8,%xmm1
.byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,32,28,0,0 // movaps 0x1c20(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,5,44,28,0,0 // movaps 0x1c2c(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -55974,7 +56517,7 @@ _sk_repeat_x_1_sse2_lowp:
.byte 69,15,194,208,1 // cmpltps %xmm8,%xmm10
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 69,15,194,217,1 // cmpltps %xmm9,%xmm11
- .byte 68,15,40,37,232,27,0,0 // movaps 0x1be8(%rip),%xmm12 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,37,244,27,0,0 // movaps 0x1bf4(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,84,212 // andps %xmm12,%xmm10
.byte 69,15,87,237 // xorps %xmm13,%xmm13
@@ -55993,10 +56536,10 @@ HIDDEN _sk_mirror_x_1_sse2_lowp
.globl _sk_mirror_x_1_sse2_lowp
FUNCTION(_sk_mirror_x_1_sse2_lowp)
_sk_mirror_x_1_sse2_lowp:
- .byte 68,15,40,5,16,28,0,0 // movaps 0x1c10(%rip),%xmm8 # 3a190 <_sk_srcover_bgra_8888_sse2_lowp+0xc3c>
+ .byte 68,15,40,5,28,28,0,0 // movaps 0x1c1c(%rip),%xmm8 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
.byte 65,15,88,192 // addps %xmm8,%xmm0
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,144,27,0,0 // movaps 0x1b90(%rip),%xmm10 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,40,21,156,27,0,0 // movaps 0x1b9c(%rip),%xmm10 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,40,217 // movaps %xmm1,%xmm11
.byte 69,15,89,218 // mulps %xmm10,%xmm11
.byte 68,15,89,208 // mulps %xmm0,%xmm10
@@ -56006,7 +56549,7 @@ _sk_mirror_x_1_sse2_lowp:
.byte 69,15,91,233 // cvtdq2ps %xmm9,%xmm13
.byte 69,15,194,213,1 // cmpltps %xmm13,%xmm10
.byte 69,15,194,220,1 // cmpltps %xmm12,%xmm11
- .byte 68,15,40,13,112,27,0,0 // movaps 0x1b70(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,13,124,27,0,0 // movaps 0x1b7c(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,84,217 // andps %xmm9,%xmm11
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,87,246 // xorps %xmm14,%xmm14
@@ -56018,7 +56561,7 @@ _sk_mirror_x_1_sse2_lowp:
.byte 65,15,92,204 // subps %xmm12,%xmm1
.byte 65,15,88,200 // addps %xmm8,%xmm1
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,5,92,32,0,0 // movaps 0x205c(%rip),%xmm8 # 3a650 <_sk_srcover_bgra_8888_sse2_lowp+0x10fc>
+ .byte 68,15,40,5,104,32,0,0 // movaps 0x2068(%rip),%xmm8 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 65,15,84,200 // andps %xmm8,%xmm1
.byte 65,15,95,206 // maxps %xmm14,%xmm1
@@ -56047,7 +56590,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 73,131,248,2 // cmp $0x2,%r8
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 114,56 // jb 3867c <_sk_gradient_sse2_lowp+0x6c>
+ .byte 114,56 // jb 39090 <_sk_gradient_sse2_lowp+0x6c>
.byte 72,139,88,72 // mov 0x48(%rax),%rbx
.byte 73,255,200 // dec %r8
.byte 72,131,195,4 // add $0x4,%rbx
@@ -56062,7 +56605,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,250,220 // psubd %xmm4,%xmm3
.byte 72,131,195,4 // add $0x4,%rbx
.byte 73,255,200 // dec %r8
- .byte 117,219 // jne 38657 <_sk_gradient_sse2_lowp+0x47>
+ .byte 117,219 // jne 3906b <_sk_gradient_sse2_lowp+0x47>
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
.byte 102,73,15,126,225 // movq %xmm4,%r9
.byte 69,137,200 // mov %r9d,%r8d
@@ -56205,10 +56748,10 @@ _sk_gradient_sse2_lowp:
.byte 15,88,221 // addps %xmm5,%xmm3
.byte 69,15,89,207 // mulps %xmm15,%xmm9
.byte 68,15,88,204 // addps %xmm4,%xmm9
- .byte 15,40,53,215,24,0,0 // movaps 0x18d7(%rip),%xmm6 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
+ .byte 15,40,53,227,24,0,0 // movaps 0x18e3(%rip),%xmm6 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 15,89,222 // mulps %xmm6,%xmm3
.byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 15,40,37,217,23,0,0 // movaps 0x17d9(%rip),%xmm4 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,40,37,229,23,0,0 // movaps 0x17e5(%rip),%xmm4 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,88,204 // addps %xmm4,%xmm9
.byte 15,88,220 // addps %xmm4,%xmm3
.byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
@@ -56304,9 +56847,9 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 38ac0 <_sk_evenly_spaced_gradient_sse2_lowp+0x34>
+ .byte 120,7 // js 394d4 <_sk_evenly_spaced_gradient_sse2_lowp+0x34>
.byte 243,72,15,42,211 // cvtsi2ss %rbx,%xmm2
- .byte 235,21 // jmp 38ad5 <_sk_evenly_spaced_gradient_sse2_lowp+0x49>
+ .byte 235,21 // jmp 394e9 <_sk_evenly_spaced_gradient_sse2_lowp+0x49>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -56461,10 +57004,10 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 15,40,68,36,176 // movaps -0x50(%rsp),%xmm0
.byte 68,15,89,192 // mulps %xmm0,%xmm8
.byte 68,15,88,193 // addps %xmm1,%xmm8
- .byte 15,40,13,99,20,0,0 // movaps 0x1463(%rip),%xmm1 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
+ .byte 15,40,13,111,20,0,0 // movaps 0x146f(%rip),%xmm1 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 15,89,217 // mulps %xmm1,%xmm3
.byte 68,15,89,193 // mulps %xmm1,%xmm8
- .byte 15,40,13,101,19,0,0 // movaps 0x1365(%rip),%xmm1 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,40,13,113,19,0,0 // movaps 0x1371(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,88,193 // addps %xmm1,%xmm8
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
@@ -56481,7 +57024,7 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 68,15,88,204 // addps %xmm4,%xmm9
- .byte 15,40,5,7,20,0,0 // movaps 0x1407(%rip),%xmm0 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
+ .byte 15,40,5,19,20,0,0 // movaps 0x1413(%rip),%xmm0 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 68,15,88,201 // addps %xmm1,%xmm9
@@ -56560,10 +57103,10 @@ _sk_evenly_spaced_2_stop_gradient_sse2_lowp:
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 65,15,88,216 // addps %xmm8,%xmm3
.byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 68,15,40,21,204,18,0,0 // movaps 0x12cc(%rip),%xmm10 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc>
+ .byte 68,15,40,21,216,18,0,0 // movaps 0x12d8(%rip),%xmm10 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
.byte 65,15,89,210 // mulps %xmm10,%xmm2
.byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 68,15,40,29,204,17,0,0 // movaps 0x11cc(%rip),%xmm11 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 68,15,40,29,216,17,0,0 // movaps 0x11d8(%rip),%xmm11 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 65,15,88,219 // addps %xmm11,%xmm3
.byte 65,15,88,211 // addps %xmm11,%xmm2
.byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
@@ -56656,7 +57199,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 68,15,40,37,128,21,0,0 // movaps 0x1580(%rip),%xmm12 # 3a650 <_sk_srcover_bgra_8888_sse2_lowp+0x10fc>
+ .byte 68,15,40,37,140,21,0,0 // movaps 0x158c(%rip),%xmm12 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
.byte 68,15,40,194 // movaps %xmm2,%xmm8
.byte 69,15,84,196 // andps %xmm12,%xmm8
.byte 68,15,40,217 // movaps %xmm1,%xmm11
@@ -56690,26 +57233,26 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 69,15,89,246 // mulps %xmm14,%xmm14
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,37,99,21,0,0 // movaps 0x1563(%rip),%xmm12 # 3a6c0 <_sk_srcover_bgra_8888_sse2_lowp+0x116c>
+ .byte 68,15,40,37,111,21,0,0 // movaps 0x156f(%rip),%xmm12 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
.byte 68,15,40,232 // movaps %xmm0,%xmm13
.byte 69,15,89,236 // mulps %xmm12,%xmm13
.byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 68,15,40,61,95,21,0,0 // movaps 0x155f(%rip),%xmm15 # 3a6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x117c>
+ .byte 68,15,40,61,107,21,0,0 // movaps 0x156b(%rip),%xmm15 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
.byte 69,15,88,231 // addps %xmm15,%xmm12
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 68,15,89,232 // mulps %xmm0,%xmm13
.byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 68,15,40,61,87,21,0,0 // movaps 0x1557(%rip),%xmm15 # 3a6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x118c>
+ .byte 68,15,40,61,99,21,0,0 // movaps 0x1563(%rip),%xmm15 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
.byte 69,15,88,231 // addps %xmm15,%xmm12
.byte 69,15,88,239 // addps %xmm15,%xmm13
.byte 68,15,89,232 // mulps %xmm0,%xmm13
.byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 15,40,5,80,21,0,0 // movaps 0x1550(%rip),%xmm0 # 3a6f0 <_sk_srcover_bgra_8888_sse2_lowp+0x119c>
+ .byte 15,40,5,92,21,0,0 // movaps 0x155c(%rip),%xmm0 # 3b110 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
.byte 68,15,88,224 // addps %xmm0,%xmm12
.byte 68,15,88,232 // addps %xmm0,%xmm13
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 69,15,89,224 // mulps %xmm8,%xmm12
- .byte 15,40,5,73,21,0,0 // movaps 0x1549(%rip),%xmm0 # 3a700 <_sk_srcover_bgra_8888_sse2_lowp+0x11ac>
+ .byte 15,40,5,85,21,0,0 // movaps 0x1555(%rip),%xmm0 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 65,15,92,197 // subps %xmm13,%xmm0
.byte 65,15,84,194 // andps %xmm10,%xmm0
@@ -56721,7 +57264,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 69,15,86,200 // orps %xmm8,%xmm9
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 65,15,194,200,1 // cmpltps %xmm8,%xmm1
- .byte 15,40,5,53,15,0,0 // movaps 0xf35(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc>
+ .byte 15,40,5,65,15,0,0 // movaps 0xf41(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8>
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 15,84,193 // andps %xmm1,%xmm0
@@ -56734,7 +57277,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 65,15,86,211 // orps %xmm11,%xmm2
.byte 68,15,40,219 // movaps %xmm3,%xmm11
.byte 69,15,194,216,1 // cmpltps %xmm8,%xmm11
- .byte 68,15,40,13,13,15,0,0 // movaps 0xf0d(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc>
+ .byte 68,15,40,13,25,15,0,0 // movaps 0xf19(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,201 // subps %xmm1,%xmm9
.byte 69,15,84,203 // andps %xmm11,%xmm9
@@ -56792,26 +57335,26 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 392f3 <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
+ .byte 119,38 // ja 39d07 <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 3951c <_sk_srcover_rgba_8888_sse2_lowp+0x274>
+ .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 39f30 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 39359 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,102 // jmp 39d6d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 39359 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,87 // jmp 39d6d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 39359 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,52 // jmp 39d6d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -56828,7 +57371,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,37,77,13,0,0 // movdqa 0xd4d(%rip),%xmm12 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,37,89,13,0,0 // movdqa 0xd59(%rip),%xmm12 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -56886,20 +57429,20 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 394bb <_sk_srcover_rgba_8888_sse2_lowp+0x213>
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 39538 <_sk_srcover_rgba_8888_sse2_lowp+0x290>
+ .byte 119,24 // ja 39ecf <_sk_srcover_rgba_8888_sse2_lowp+0x213>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 39f4c <_sk_srcover_rgba_8888_sse2_lowp+0x290>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4)
- .byte 235,73 // jmp 39504 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,73 // jmp 39f18 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
.byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4)
- .byte 235,58 // jmp 39504 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,58 // jmp 39f18 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0
.byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4)
.byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4)
- .byte 235,37 // jmp 39504 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,37 // jmp 39f18 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4)
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
@@ -56932,7 +57475,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 39539 <_sk_srcover_rgba_8888_sse2_lowp+0x291>
+ .byte 123,255 // jnp 39f4d <_sk_srcover_rgba_8888_sse2_lowp+0x291>
.byte 255 // (bad)
.byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi)
.byte 255 // (bad)
@@ -56964,26 +57507,26 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 3959f <_sk_srcover_bgra_8888_sse2_lowp+0x4b>
+ .byte 119,38 // ja 39fb3 <_sk_srcover_bgra_8888_sse2_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 397c8 <_sk_srcover_bgra_8888_sse2_lowp+0x274>
+ .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 3a1dc <_sk_srcover_bgra_8888_sse2_lowp+0x274>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 39605 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
+ .byte 235,102 // jmp 3a019 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 39605 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
+ .byte 235,87 // jmp 3a019 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 39605 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
+ .byte 235,52 // jmp 3a019 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -57000,7 +57543,7 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,37,161,10,0,0 // movdqa 0xaa1(%rip),%xmm12 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
+ .byte 102,68,15,111,37,173,10,0,0 // movdqa 0xaad(%rip),%xmm12 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,244 // pand %xmm12,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -57058,20 +57601,20 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 39767 <_sk_srcover_bgra_8888_sse2_lowp+0x213>
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 397e4 <_sk_srcover_bgra_8888_sse2_lowp+0x290>
+ .byte 119,24 // ja 3a17b <_sk_srcover_bgra_8888_sse2_lowp+0x213>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 3a1f8 <_sk_srcover_bgra_8888_sse2_lowp+0x290>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4)
- .byte 235,73 // jmp 397b0 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
+ .byte 235,73 // jmp 3a1c4 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
.byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
.byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4)
- .byte 235,58 // jmp 397b0 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
+ .byte 235,58 // jmp 3a1c4 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
.byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0
.byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4)
.byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4)
- .byte 235,37 // jmp 397b0 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
+ .byte 235,37 // jmp 3a1c4 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4)
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
@@ -57104,7 +57647,7 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 397e5 <_sk_srcover_bgra_8888_sse2_lowp+0x291>
+ .byte 123,255 // jnp 3a1f9 <_sk_srcover_bgra_8888_sse2_lowp+0x291>
.byte 255 // (bad)
.byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi)
.byte 255 // (bad)
@@ -57137,14 +57680,14 @@ BALIGN4
.byte 252 // cld
.byte 190,0,0,128,191 // mov $0xbf800000,%esi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 39864 <.literal4+0x64>
+ .byte 224,64 // loopne 3a278 <.literal4+0x64>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
.byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope 3986d <.literal4+0x6d>
+ .byte 71,225,61 // rex.RXB loope 3a281 <.literal4+0x6d>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 39877 <.literal4+0x77>
+ .byte 127,67 // jg 3a28b <.literal4+0x77>
.byte 0,0 // add %al,(%rax)
.byte 128,127,145,131 // cmpb $0x83,-0x6f(%rdi)
.byte 158 // sahf
@@ -57181,7 +57724,7 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 39891 <.literal4+0x91>
+ .byte 224,7 // loopne 3a2a5 <.literal4+0x91>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -57192,8 +57735,8 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 0,52,255 // add %dh,(%rdi,%rdi,8)
.byte 255 // (bad)
- .byte 127,0 // jg 398a4 <.literal4+0xa4>
- .byte 119,115 // ja 39919 <.literal4+0x119>
+ .byte 127,0 // jg 3a2b8 <.literal4+0xa4>
+ .byte 119,115 // ja 3a32d <.literal4+0x119>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -57216,12 +57759,12 @@ BALIGN4
.byte 190,80,128,3,62 // mov $0x3e038050,%esi
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3992f <.literal4+0x12f>
+ .byte 118,63 // jbe 3a343 <.literal4+0x12f>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 3993e <.literal4+0x13e>
+ .byte 124,66 // jl 3a352 <.literal4+0x13e>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax)
@@ -57231,9 +57774,9 @@ BALIGN4
.byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax)
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax)
- .byte 112,65 // jo 39961 <.literal4+0x161>
+ .byte 112,65 // jo 3a375 <.literal4+0x161>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3996b <.literal4+0x16b>
+ .byte 127,71 // jg 3a37f <.literal4+0x16b>
.byte 89 // pop %rcx
.byte 23 // (bad)
.byte 55 // (bad)
@@ -57254,18 +57797,18 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0,191,0,0,192,191 // add %bh,-0x40400000(%rdi)
- .byte 114,28 // jb 39976 <.literal4+0x176>
+ .byte 114,28 // jb 3a38a <.literal4+0x176>
.byte 199 // (bad)
.byte 62,85 // ds push %rbp
.byte 85 // push %rbp
.byte 149 // xchg %eax,%ebp
.byte 191,0,0,192,63 // mov $0x3fc00000,%edi
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 399ab <_sk_srcover_bgra_8888_sse2_lowp+0x457>
+ .byte 127,63 // jg 3a3bf <_sk_srcover_bgra_8888_sse2_lowp+0x457>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 45,16,17,192,18 // sub $0x12c01110,%eax
- .byte 120,57 // js 399b0 <_sk_srcover_bgra_8888_sse2_lowp+0x45c>
+ .byte 120,57 // js 3a3c4 <_sk_srcover_bgra_8888_sse2_lowp+0x45c>
.byte 64,32,148,90,62,4,157,30 // and %dl,0x1e9d043e(%rdx,%rbx,2)
.byte 62,0,24 // add %bl,%ds:(%rax)
.byte 161,57,109,165,144,63,252,191,16 // movabs 0x10bffc3f90a56d39,%eax
@@ -57275,7 +57818,7 @@ BALIGN4
.byte 56,255 // cmp %bh,%bh
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 39999 <.literal4+0x199>
+ .byte 127,0 // jg 3a3ad <.literal4+0x199>
.byte 0,128,56,0,64,254 // add %al,-0x1bfffc8(%rax)
.byte 255 // .byte 0xff
@@ -57327,16 +57870,16 @@ BALIGN32
.byte 0,1 // add %al,(%rcx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039a08 <_sk_srcover_bgra_8888_sse2_lowp+0xa0004b4>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a428 <_sk_srcover_bgra_8888_sse2_lowp+0xa0004c0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039a10 <_sk_srcover_bgra_8888_sse2_lowp+0x120004bc>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a430 <_sk_srcover_bgra_8888_sse2_lowp+0x120004c8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039a18 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0004c4>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a438 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0004d0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039a20 <_sk_srcover_bgra_8888_sse2_lowp+0x30004cc>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a440 <_sk_srcover_bgra_8888_sse2_lowp+0x30004d8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -57379,16 +57922,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039a68 <_sk_srcover_bgra_8888_sse2_lowp+0xa000514>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a488 <_sk_srcover_bgra_8888_sse2_lowp+0xa000520>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039a70 <_sk_srcover_bgra_8888_sse2_lowp+0x1200051c>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a490 <_sk_srcover_bgra_8888_sse2_lowp+0x12000528>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039a78 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000524>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a498 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000530>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039a80 <_sk_srcover_bgra_8888_sse2_lowp+0x300052c>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000538>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -57431,16 +57974,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039ac8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000574>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a4e8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000580>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1200057c>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000588>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039ad8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000584>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000590>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x300058c>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a500 <_sk_srcover_bgra_8888_sse2_lowp+0x3000598>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -57483,16 +58026,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039b28 <_sk_srcover_bgra_8888_sse2_lowp+0xa0005d4>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a548 <_sk_srcover_bgra_8888_sse2_lowp+0xa0005e0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039b30 <_sk_srcover_bgra_8888_sse2_lowp+0x120005dc>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a550 <_sk_srcover_bgra_8888_sse2_lowp+0x120005e8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039b38 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0005e4>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a558 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0005f0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039b40 <_sk_srcover_bgra_8888_sse2_lowp+0x30005ec>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a560 <_sk_srcover_bgra_8888_sse2_lowp+0x30005f8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -57535,16 +58078,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039b88 <_sk_srcover_bgra_8888_sse2_lowp+0xa000634>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a5a8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000640>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039b90 <_sk_srcover_bgra_8888_sse2_lowp+0x1200063c>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000648>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039b98 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000644>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000650>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039ba0 <_sk_srcover_bgra_8888_sse2_lowp+0x300064c>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000658>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -57587,16 +58130,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039be8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000694>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a608 <_sk_srcover_bgra_8888_sse2_lowp+0xa0006a0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1200069c>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a610 <_sk_srcover_bgra_8888_sse2_lowp+0x120006a8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039bf8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0006a4>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a618 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0006b0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039c00 <_sk_srcover_bgra_8888_sse2_lowp+0x30006ac>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a620 <_sk_srcover_bgra_8888_sse2_lowp+0x30006b8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -57639,16 +58182,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039c48 <_sk_srcover_bgra_8888_sse2_lowp+0xa0006f4>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a668 <_sk_srcover_bgra_8888_sse2_lowp+0xa000700>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039c50 <_sk_srcover_bgra_8888_sse2_lowp+0x120006fc>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a670 <_sk_srcover_bgra_8888_sse2_lowp+0x12000708>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039c58 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000704>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a678 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000710>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039c60 <_sk_srcover_bgra_8888_sse2_lowp+0x300070c>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a680 <_sk_srcover_bgra_8888_sse2_lowp+0x3000718>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -57691,16 +58234,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039ca8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000754>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a6c8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000760>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039cb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1200075c>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000768>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039cb8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000764>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a6d8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000770>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039cc0 <_sk_srcover_bgra_8888_sse2_lowp+0x300076c>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000778>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -57743,16 +58286,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039d08 <_sk_srcover_bgra_8888_sse2_lowp+0xa0007b4>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a728 <_sk_srcover_bgra_8888_sse2_lowp+0xa0007c0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039d10 <_sk_srcover_bgra_8888_sse2_lowp+0x120007bc>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a730 <_sk_srcover_bgra_8888_sse2_lowp+0x120007c8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039d18 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0007c4>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a738 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0007d0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039d20 <_sk_srcover_bgra_8888_sse2_lowp+0x30007cc>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a740 <_sk_srcover_bgra_8888_sse2_lowp+0x30007d8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58057,7 +58600,7 @@ BALIGN32
.byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
- .byte 224,255 // loopne 39f73 <.const+0x5d3>
+ .byte 224,255 // loopne 3a993 <.const+0x5d3>
.byte 248 // clc
.byte 0,63 // add %bh,(%rdi)
.byte 0,31 // add %bl,(%rdi)
@@ -58318,11 +58861,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%rax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3a1e8 <.literal16+0x118>
+ .byte 224,64 // loopne 3ac08 <.literal16+0x118>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3a1ec <.literal16+0x11c>
+ .byte 224,64 // loopne 3ac0c <.literal16+0x11c>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3a1f0 <.literal16+0x120>
+ .byte 224,64 // loopne 3ac10 <.literal16+0x120>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
@@ -58342,13 +58885,13 @@ BALIGN16
.byte 10,23 // or (%rdi),%dl
.byte 63 // (bad)
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3a211 <.literal16+0x141>
+ .byte 71,225,61 // rex.RXB loope 3ac31 <.literal16+0x141>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3a215 <.literal16+0x145>
+ .byte 71,225,61 // rex.RXB loope 3ac35 <.literal16+0x145>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3a219 <.literal16+0x149>
+ .byte 71,225,61 // rex.RXB loope 3ac39 <.literal16+0x149>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3a21d <.literal16+0x14d>
+ .byte 71,225,61 // rex.RXB loope 3ac3d <.literal16+0x14d>
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
@@ -58359,10 +58902,10 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a1f8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000ca4>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03ac18 <_sk_srcover_bgra_8888_sse2_lowp+0xa000cb0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 303a200 <_sk_srcover_bgra_8888_sse2_lowp+0x3000cac>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 303ac20 <_sk_srcover_bgra_8888_sse2_lowp+0x3000cb8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -58377,11 +58920,11 @@ BALIGN16
.byte 255,0 // incl (%rax)
.byte 0,127,67 // add %bh,0x43(%rdi)
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3a25b <.literal16+0x18b>
+ .byte 127,67 // jg 3ac7b <.literal16+0x18b>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3a25f <.literal16+0x18f>
+ .byte 127,67 // jg 3ac7f <.literal16+0x18f>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3a263 <.literal16+0x193>
+ .byte 127,67 // jg 3ac83 <.literal16+0x193>
.byte 0,0 // add %al,(%rax)
.byte 128,127,0,0 // cmpb $0x0,0x0(%rdi)
.byte 128,127,0,0 // cmpb $0x0,0x0(%rdi)
@@ -58537,13 +59080,13 @@ BALIGN16
.byte 132,55 // test %dh,(%rdi)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 3a379 <.literal16+0x2a9>
+ .byte 224,7 // loopne 3ad99 <.literal16+0x2a9>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 3a37d <.literal16+0x2ad>
+ .byte 224,7 // loopne 3ad9d <.literal16+0x2ad>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 3a381 <.literal16+0x2b1>
+ .byte 224,7 // loopne 3ada1 <.literal16+0x2b1>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 3a385 <.literal16+0x2b5>
+ .byte 224,7 // loopne 3ada5 <.literal16+0x2b5>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -58597,17 +59140,17 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 3a3f4 <.literal16+0x324>
+ .byte 127,0 // jg 3ae14 <.literal16+0x324>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3a3f8 <.literal16+0x328>
+ .byte 127,0 // jg 3ae18 <.literal16+0x328>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3a3fc <.literal16+0x32c>
+ .byte 127,0 // jg 3ae1c <.literal16+0x32c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3a400 <.literal16+0x330>
- .byte 119,115 // ja 3a475 <.literal16+0x3a5>
+ .byte 127,0 // jg 3ae20 <.literal16+0x330>
+ .byte 119,115 // ja 3ae95 <.literal16+0x3a5>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -58618,7 +59161,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 3a3d9 <.literal16+0x309>
+ .byte 117,191 // jne 3adf9 <.literal16+0x309>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -58630,7 +59173,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a6e41a <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe9a34ec6>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a6ee3a <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe9a34ed2>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -58720,16 +59263,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%rbx)
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3a563 <.literal16+0x493>
+ .byte 118,63 // jbe 3af83 <.literal16+0x493>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3a567 <.literal16+0x497>
+ .byte 118,63 // jbe 3af87 <.literal16+0x497>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3a56b <.literal16+0x49b>
+ .byte 118,63 // jbe 3af8b <.literal16+0x49b>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3a56f <.literal16+0x49f>
+ .byte 118,63 // jbe 3af8f <.literal16+0x49f>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
@@ -58750,13 +59293,13 @@ BALIGN16
.byte 65,0,0 // add %al,(%r8)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 3a5a6 <.literal16+0x4d6>
+ .byte 124,66 // jl 3afc6 <.literal16+0x4d6>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3a5aa <.literal16+0x4da>
+ .byte 124,66 // jl 3afca <.literal16+0x4da>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3a5ae <.literal16+0x4de>
+ .byte 124,66 // jl 3afce <.literal16+0x4de>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3a5b2 <.literal16+0x4e2>
+ .byte 124,66 // jl 3afd2 <.literal16+0x4e2>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 0,240 // add %dh,%al
@@ -58802,25 +59345,25 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3a635 <.literal16+0x565>
+ .byte 112,65 // jo 3b055 <.literal16+0x565>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3a639 <.literal16+0x569>
+ .byte 112,65 // jo 3b059 <.literal16+0x569>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3a63d <.literal16+0x56d>
+ .byte 112,65 // jo 3b05d <.literal16+0x56d>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3a641 <.literal16+0x571>
+ .byte 112,65 // jo 3b061 <.literal16+0x571>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 3a613 <.literal16+0x543>
+ .byte 127,0 // jg 3b033 <.literal16+0x543>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3a617 <.literal16+0x547>
+ .byte 127,0 // jg 3b037 <.literal16+0x547>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3a61b <.literal16+0x54b>
+ .byte 127,0 // jg 3b03b <.literal16+0x54b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3a61f <.literal16+0x54f>
+ .byte 127,0 // jg 3b03f <.literal16+0x54f>
.byte 0,0 // add %al,(%rax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
@@ -58846,13 +59389,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 3a658 <.literal16+0x588>
+ .byte 127,255 // jg 3b078 <.literal16+0x588>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 3a65c <.literal16+0x58c>
+ .byte 127,255 // jg 3b07c <.literal16+0x58c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3a661 <.literal16+0x591>
+ .byte 127,0 // jg 3b081 <.literal16+0x591>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
.byte 56,0 // cmp %al,(%rax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
@@ -58866,13 +59409,13 @@ BALIGN16
.byte 64,254 // rex (bad)
.byte 255,0 // incl (%rax)
.byte 255 // (bad)
- .byte 127,71 // jg 3a6cb <.literal16+0x5fb>
+ .byte 127,71 // jg 3b0eb <.literal16+0x5fb>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3a6cf <.literal16+0x5ff>
+ .byte 127,71 // jg 3b0ef <.literal16+0x5ff>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3a6d3 <.literal16+0x603>
+ .byte 127,71 // jg 3b0f3 <.literal16+0x603>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3a6d7 <.literal16+0x607>
+ .byte 127,71 // jg 3b0f7 <.literal16+0x607>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,208 // ds (bad)
@@ -58949,13 +59492,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb 3a76e <.literal16+0x69e>
+ .byte 114,28 // jb 3b18e <.literal16+0x69e>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 3a772 <.literal16+0x6a2>
+ .byte 62,114,28 // jb,pt 3b192 <.literal16+0x6a2>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 3a776 <.literal16+0x6a6>
+ .byte 62,114,28 // jb,pt 3b196 <.literal16+0x6a6>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 3a77a <.literal16+0x6aa>
+ .byte 62,114,28 // jb,pt 3b19a <.literal16+0x6aa>
.byte 199 // (bad)
.byte 62,85 // ds push %rbp
.byte 85 // push %rbp
@@ -58974,15 +59517,15 @@ BALIGN16
.byte 0,192 // add %al,%al
.byte 63 // (bad)
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d6735c5 <_sk_srcover_bgra_8888_sse2_lowp+0x3d63a071>
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d673fe5 <_sk_srcover_bgra_8888_sse2_lowp+0x3d63a07d>
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 3a7d3 <.literal16+0x703>
- .byte 114,249 // jb 3a78f <.literal16+0x6bf>
- .byte 127,63 // jg 3a7d7 <.literal16+0x707>
- .byte 114,249 // jb 3a793 <.literal16+0x6c3>
- .byte 127,63 // jg 3a7db <.literal16+0x70b>
- .byte 114,249 // jb 3a797 <.literal16+0x6c7>
- .byte 127,63 // jg 3a7df <.literal16+0x70f>
+ .byte 127,63 // jg 3b1f3 <.literal16+0x703>
+ .byte 114,249 // jb 3b1af <.literal16+0x6bf>
+ .byte 127,63 // jg 3b1f7 <.literal16+0x707>
+ .byte 114,249 // jb 3b1b3 <.literal16+0x6c3>
+ .byte 127,63 // jg 3b1fb <.literal16+0x70b>
+ .byte 114,249 // jb 3b1b7 <.literal16+0x6c7>
+ .byte 127,63 // jg 3b1ff <.literal16+0x70f>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 3,0 // add (%rax),%eax
@@ -59006,9 +59549,9 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,45,16,17,192,45 // ljmp *0x2dc01110(%rip) # 2dc3b8d5 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc02381>
+ .byte 255,45,16,17,192,45 // ljmp *0x2dc01110(%rip) # 2dc3c2f5 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc0238d>
.byte 16,17 // adc %dl,(%rcx)
- .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc3b8de <_sk_srcover_bgra_8888_sse2_lowp+0x2dc0238a>
+ .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc3c2fe <_sk_srcover_bgra_8888_sse2_lowp+0x2dc02396>
.byte 17,192 // adc %eax,%eax
.byte 18,120,57 // adc 0x39(%rax),%bh
.byte 64,18,120,57 // adc 0x39(%rax),%dil
@@ -59112,14 +59655,14 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne 3a8c1 <.literal16+0x7f1>
- .byte 224,255 // loopne 3a8c3 <.literal16+0x7f3>
- .byte 224,255 // loopne 3a8c5 <.literal16+0x7f5>
- .byte 224,255 // loopne 3a8c7 <.literal16+0x7f7>
- .byte 224,255 // loopne 3a8c9 <.literal16+0x7f9>
- .byte 224,255 // loopne 3a8cb <.literal16+0x7fb>
- .byte 224,255 // loopne 3a8cd <.literal16+0x7fd>
- .byte 224,255 // loopne 3a8cf <.literal16+0x7ff>
+ .byte 224,255 // loopne 3b2e1 <.literal16+0x7f1>
+ .byte 224,255 // loopne 3b2e3 <.literal16+0x7f3>
+ .byte 224,255 // loopne 3b2e5 <.literal16+0x7f5>
+ .byte 224,255 // loopne 3b2e7 <.literal16+0x7f7>
+ .byte 224,255 // loopne 3b2e9 <.literal16+0x7f9>
+ .byte 224,255 // loopne 3b2eb <.literal16+0x7fb>
+ .byte 224,255 // loopne 3b2ed <.literal16+0x7fd>
+ .byte 224,255 // loopne 3b2ef <.literal16+0x7ff>
.byte 15,0,15 // str (%rdi)
.byte 0,15 // add %cl,(%rdi)
.byte 0,15 // add %cl,(%rdi)
@@ -59192,9 +59735,9 @@ BALIGN8
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 3a96b <.literal8+0x1b>
+ .byte 127,0 // jg 3b38b <.literal8+0x1b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3a96f <.literal8+0x1f>
+ .byte 127,0 // jg 3b38f <.literal8+0x1f>
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0 // .byte 0x0
@@ -59306,7 +59849,7 @@ _sk_seed_shader_sse2:
.byte 102,15,110,73,4 // movd 0x4(%ecx),%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,136,87,248,0,0 // addps 0xf857(%eax),%xmm1
+ .byte 15,88,136,71,250,0,0 // addps 0xfa47(%eax),%xmm1
.byte 141,114,8 // lea 0x8(%edx),%esi
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 15,41,81,64 // movaps %xmm2,0x40(%ecx)
@@ -59314,7 +59857,7 @@ _sk_seed_shader_sse2:
.byte 15,41,81,32 // movaps %xmm2,0x20(%ecx)
.byte 15,41,81,16 // movaps %xmm2,0x10(%ecx)
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,144,103,248,0,0 // movaps 0xf867(%eax),%xmm2
+ .byte 15,40,144,87,250,0,0 // movaps 0xfa57(%eax),%xmm2
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
@@ -59341,15 +59884,15 @@ _sk_dither_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 102,15,110,32 // movd (%eax),%xmm4
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 102,15,254,161,0,248,0,0 // paddd 0xf800(%ecx),%xmm4
+ .byte 102,15,254,161,240,249,0,0 // paddd 0xf9f0(%ecx),%xmm4
.byte 102,15,110,104,4 // movd 0x4(%eax),%xmm5
.byte 102,15,112,253,0 // pshufd $0x0,%xmm5,%xmm7
.byte 102,15,239,252 // pxor %xmm4,%xmm7
- .byte 102,15,111,177,16,248,0,0 // movdqa 0xf810(%ecx),%xmm6
+ .byte 102,15,111,177,0,250,0,0 // movdqa 0xfa00(%ecx),%xmm6
.byte 102,15,111,207 // movdqa %xmm7,%xmm1
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,114,241,5 // pslld $0x5,%xmm1
- .byte 102,15,111,129,48,248,0,0 // movdqa 0xf830(%ecx),%xmm0
+ .byte 102,15,111,129,32,250,0,0 // movdqa 0xfa20(%ecx),%xmm0
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
.byte 102,15,219,232 // pand %xmm0,%xmm5
.byte 102,15,114,245,2 // pslld $0x2,%xmm5
@@ -59359,7 +59902,7 @@ _sk_dither_sse2:
.byte 102,15,219,196 // pand %xmm4,%xmm0
.byte 102,15,254,192 // paddd %xmm0,%xmm0
.byte 102,15,235,198 // por %xmm6,%xmm0
- .byte 102,15,111,137,32,248,0,0 // movdqa 0xf820(%ecx),%xmm1
+ .byte 102,15,111,137,16,250,0,0 // movdqa 0xfa10(%ecx),%xmm1
.byte 102,15,219,249 // pand %xmm1,%xmm7
.byte 102,15,219,225 // pand %xmm1,%xmm4
.byte 102,15,114,212,2 // psrld $0x2,%xmm4
@@ -59370,8 +59913,8 @@ _sk_dither_sse2:
.byte 102,15,114,215,1 // psrld $0x1,%xmm7
.byte 102,15,235,231 // por %xmm7,%xmm4
.byte 15,91,196 // cvtdq2ps %xmm4,%xmm0
- .byte 15,89,129,64,248,0,0 // mulps 0xf840(%ecx),%xmm0
- .byte 15,88,129,80,248,0,0 // addps 0xf850(%ecx),%xmm0
+ .byte 15,89,129,48,250,0,0 // mulps 0xfa30(%ecx),%xmm0
+ .byte 15,88,129,64,250,0,0 // addps 0xfa40(%ecx),%xmm0
.byte 243,15,16,14 // movss (%esi),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -59439,7 +59982,7 @@ _sk_black_color_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,152,180,246,0,0 // movaps 0xf6b4(%eax),%xmm3
+ .byte 15,40,152,164,248,0,0 // movaps 0xf8a4(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -59462,7 +60005,7 @@ _sk_white_color_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,128,132,246,0,0 // movaps 0xf684(%eax),%xmm0
+ .byte 15,40,128,116,248,0,0 // movaps 0xf874(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -59552,7 +60095,7 @@ _sk_srcatop_sse2:
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,170,213,245,0,0 // movaps 0xf5d5(%edx),%xmm5
+ .byte 15,40,170,197,247,0,0 // movaps 0xf7c5(%edx),%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
@@ -59591,7 +60134,7 @@ _sk_dstatop_sse2:
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,40,162,118,245,0,0 // movaps 0xf576(%edx),%xmm4
+ .byte 15,40,162,102,247,0,0 // movaps 0xf766(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
@@ -59675,7 +60218,7 @@ _sk_srcout_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,181,244,0,0 // movaps 0xf4b5(%eax),%xmm4
+ .byte 15,40,160,165,246,0,0 // movaps 0xf6a5(%eax),%xmm4
.byte 15,92,98,64 // subps 0x40(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
@@ -59701,7 +60244,7 @@ _sk_dstout_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,125,244,0,0 // movaps 0xf47d(%eax),%xmm4
+ .byte 15,40,160,109,246,0,0 // movaps 0xf66d(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,66,16 // movaps 0x10(%edx),%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -59731,7 +60274,7 @@ _sk_srcover_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,54,244,0,0 // movaps 0xf436(%eax),%xmm4
+ .byte 15,40,160,38,246,0,0 // movaps 0xf626(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -59765,7 +60308,7 @@ _sk_dstover_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,106,64 // movaps 0x40(%edx),%xmm5
- .byte 15,40,160,230,243,0,0 // movaps 0xf3e6(%eax),%xmm4
+ .byte 15,40,160,214,245,0,0 // movaps 0xf5d6(%eax),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,66,16 // addps 0x10(%edx),%xmm0
@@ -59821,7 +60364,7 @@ _sk_multiply_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,40,129,103,243,0,0 // movaps 0xf367(%ecx),%xmm0
+ .byte 15,40,129,87,245,0,0 // movaps 0xf557(%ecx),%xmm0
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
@@ -59881,7 +60424,7 @@ _sk_plus__sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,88,66,16 // addps 0x10(%edx),%xmm0
- .byte 15,40,160,193,242,0,0 // movaps 0xf2c1(%eax),%xmm4
+ .byte 15,40,160,177,244,0,0 // movaps 0xf4b1(%eax),%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
.byte 15,88,74,32 // addps 0x20(%edx),%xmm1
.byte 15,93,204 // minps %xmm4,%xmm1
@@ -59953,7 +60496,7 @@ _sk_xor__sse2:
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
- .byte 15,40,154,19,242,0,0 // movaps 0xf213(%edx),%xmm3
+ .byte 15,40,154,3,244,0,0 // movaps 0xf403(%edx),%xmm3
.byte 15,40,243 // movaps %xmm3,%xmm6
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,89,198 // mulps %xmm6,%xmm0
@@ -60015,7 +60558,7 @@ _sk_darken_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,95,209 // maxps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,171,241,0,0 // movaps 0xf1ab(%edx),%xmm1
+ .byte 15,40,138,155,243,0,0 // movaps 0xf39b(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -60064,7 +60607,7 @@ _sk_lighten_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,93,209 // minps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,43,241,0,0 // movaps 0xf12b(%edx),%xmm1
+ .byte 15,40,138,27,243,0,0 // movaps 0xf31b(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -60117,7 +60660,7 @@ _sk_difference_sse2:
.byte 15,93,214 // minps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,146,168,240,0,0 // movaps 0xf0a8(%edx),%xmm2
+ .byte 15,40,146,152,242,0,0 // movaps 0xf298(%edx),%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -60161,7 +60704,7 @@ _sk_exclusion_sse2:
.byte 15,89,202 // mulps %xmm2,%xmm1
.byte 15,88,201 // addps %xmm1,%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,40,138,34,240,0,0 // movaps 0xf022(%edx),%xmm1
+ .byte 15,40,138,18,242,0,0 // movaps 0xf212(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,73,64 // mulps 0x40(%ecx),%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -60202,7 +60745,7 @@ _sk_colorburn_sse2:
.byte 15,93,198 // minps %xmm6,%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,92,232 // subps %xmm0,%xmm5
- .byte 15,40,177,163,239,0,0 // movaps 0xefa3(%ecx),%xmm6
+ .byte 15,40,177,147,241,0,0 // movaps 0xf193(%ecx),%xmm6
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
@@ -60319,7 +60862,7 @@ _sk_colordodge_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
- .byte 15,40,145,26,238,0,0 // movaps 0xee1a(%ecx),%xmm2
+ .byte 15,40,145,10,240,0,0 // movaps 0xf00a(%ecx),%xmm2
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,40,250 // movaps %xmm2,%xmm7
@@ -60436,7 +60979,7 @@ _sk_hardlight_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
- .byte 15,40,145,185,236,0,0 // movaps 0xecb9(%ecx),%xmm2
+ .byte 15,40,145,169,238,0,0 // movaps 0xeea9(%ecx),%xmm2
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,40,225 // movaps %xmm1,%xmm4
@@ -60546,7 +61089,7 @@ _sk_overlay_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
- .byte 15,40,161,110,235,0,0 // movaps 0xeb6e(%ecx),%xmm4
+ .byte 15,40,161,94,237,0,0 // movaps 0xed5e(%ecx),%xmm4
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
@@ -60674,17 +61217,17 @@ _sk_softlight_sse2:
.byte 232,0,0,0,0 // call f52 <_sk_softlight_sse2+0x52>
.byte 89 // pop %ecx
.byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,137,78,234,0,0 // movaps 0xea4e(%ecx),%xmm1
+ .byte 15,40,137,62,236,0,0 // movaps 0xec3e(%ecx),%xmm1
.byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
.byte 15,88,193 // addps %xmm1,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,185,222,233,0,0 // movaps 0xe9de(%ecx),%xmm7
+ .byte 15,40,185,206,235,0,0 // movaps 0xebce(%ecx),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,82,242 // rsqrtps %xmm2,%xmm6
.byte 15,83,206 // rcpps %xmm6,%xmm1
.byte 15,92,202 // subps %xmm2,%xmm1
- .byte 15,40,161,94,234,0,0 // movaps 0xea5e(%ecx),%xmm4
+ .byte 15,40,161,78,236,0,0 // movaps 0xec4e(%ecx),%xmm4
.byte 15,41,101,152 // movaps %xmm4,-0x68(%ebp)
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
@@ -60890,7 +61433,7 @@ _sk_hue_sse2:
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 15,40,169,29,231,0,0 // movaps 0xe71d(%ecx),%xmm5
+ .byte 15,40,169,13,233,0,0 // movaps 0xe90d(%ecx),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
@@ -60923,17 +61466,17 @@ _sk_hue_sse2:
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp)
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,153,173,231,0,0 // movaps 0xe7ad(%ecx),%xmm3
+ .byte 15,40,153,157,233,0,0 // movaps 0xe99d(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,117,152 // movaps -0x68(%ebp),%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,153,189,231,0,0 // movaps 0xe7bd(%ecx),%xmm3
+ .byte 15,40,153,173,233,0,0 // movaps 0xe9ad(%ecx),%xmm3
.byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,89,251 // mulps %xmm3,%xmm7
.byte 15,88,249 // addps %xmm1,%xmm7
- .byte 15,40,137,29,231,0,0 // movaps 0xe71d(%ecx),%xmm1
+ .byte 15,40,137,13,233,0,0 // movaps 0xe90d(%ecx),%xmm1
.byte 15,92,77,184 // subps -0x48(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,152 // movaps %xmm6,-0x68(%ebp)
@@ -60943,7 +61486,7 @@ _sk_hue_sse2:
.byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,168 // movaps %xmm6,-0x58(%ebp)
- .byte 15,40,169,205,231,0,0 // movaps 0xe7cd(%ecx),%xmm5
+ .byte 15,40,169,189,233,0,0 // movaps 0xe9bd(%ecx),%xmm5
.byte 15,89,205 // mulps %xmm5,%xmm1
.byte 15,88,207 // addps %xmm7,%xmm1
.byte 15,94,212 // divps %xmm4,%xmm2
@@ -61136,17 +61679,17 @@ _sk_saturation_sse2:
.byte 15,89,253 // mulps %xmm5,%xmm7
.byte 232,0,0,0,0 // call 1567 <_sk_saturation_sse2+0xb0>
.byte 89 // pop %ecx
- .byte 15,40,153,89,228,0,0 // movaps 0xe459(%ecx),%xmm3
+ .byte 15,40,153,73,230,0,0 // movaps 0xe649(%ecx),%xmm3
.byte 15,41,157,88,255,255,255 // movaps %xmm3,-0xa8(%ebp)
.byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,153,105,228,0,0 // movaps 0xe469(%ecx),%xmm3
+ .byte 15,40,153,89,230,0,0 // movaps 0xe659(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,238 // movaps %xmm6,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,129,201,227,0,0 // movaps 0xe3c9(%ecx),%xmm0
+ .byte 15,40,129,185,229,0,0 // movaps 0xe5b9(%ecx),%xmm0
.byte 15,41,133,104,255,255,255 // movaps %xmm0,-0x98(%ebp)
.byte 15,92,69,216 // subps -0x28(%ebp),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -61158,7 +61701,7 @@ _sk_saturation_sse2:
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,129,121,228,0,0 // movaps 0xe479(%ecx),%xmm0
+ .byte 15,40,129,105,230,0,0 // movaps 0xe669(%ecx),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5
@@ -61317,16 +61860,16 @@ _sk_color_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,16 // movaps 0x10(%eax),%xmm2
.byte 15,40,72,32 // movaps 0x20(%eax),%xmm1
- .byte 15,40,177,254,225,0,0 // movaps 0xe1fe(%ecx),%xmm6
+ .byte 15,40,177,238,227,0,0 // movaps 0xe3ee(%ecx),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,153,14,226,0,0 // movaps 0xe20e(%ecx),%xmm3
+ .byte 15,40,153,254,227,0,0 // movaps 0xe3fe(%ecx),%xmm3
.byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 15,40,129,110,225,0,0 // movaps 0xe16e(%ecx),%xmm0
+ .byte 15,40,129,94,227,0,0 // movaps 0xe35e(%ecx),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,69,200 // subps -0x38(%ebp),%xmm0
.byte 15,89,208 // mulps %xmm0,%xmm2
@@ -61336,7 +61879,7 @@ _sk_color_sse2:
.byte 15,40,80,48 // movaps 0x30(%eax),%xmm2
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
- .byte 15,40,137,30,226,0,0 // movaps 0xe21e(%ecx),%xmm1
+ .byte 15,40,137,14,228,0,0 // movaps 0xe40e(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,214 // addps %xmm6,%xmm2
.byte 15,40,88,64 // movaps 0x40(%eax),%xmm3
@@ -61495,18 +62038,18 @@ _sk_luminosity_sse2:
.byte 232,0,0,0,0 // call 1a25 <_sk_luminosity_sse2+0x11>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,161,155,223,0,0 // movaps 0xdf9b(%ecx),%xmm4
+ .byte 15,40,161,139,225,0,0 // movaps 0xe18b(%ecx),%xmm4
.byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,40,161,171,223,0,0 // movaps 0xdfab(%ecx),%xmm4
+ .byte 15,40,161,155,225,0,0 // movaps 0xe19b(%ecx),%xmm4
.byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,40,161,11,223,0,0 // movaps 0xdf0b(%ecx),%xmm4
+ .byte 15,40,161,251,224,0,0 // movaps 0xe0fb(%ecx),%xmm4
.byte 15,40,252 // movaps %xmm4,%xmm7
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,89,199 // mulps %xmm7,%xmm0
@@ -61516,7 +62059,7 @@ _sk_luminosity_sse2:
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,41,189,104,255,255,255 // movaps %xmm7,-0x98(%ebp)
.byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,137,187,223,0,0 // movaps 0xdfbb(%ecx),%xmm1
+ .byte 15,40,137,171,225,0,0 // movaps 0xe1ab(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,213 // addps %xmm5,%xmm2
.byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
@@ -61676,9 +62219,10 @@ _sk_srcover_rgba_8888_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,44 // sub $0x2c,%esp
- .byte 102,15,127,85,200 // movdqa %xmm2,-0x38(%ebp)
- .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 232,0,0,0,0 // call 1c90 <_sk_srcover_rgba_8888_sse2+0x17>
+ .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
+ .byte 102,15,127,77,216 // movdqa %xmm1,-0x28(%ebp)
+ .byte 102,15,111,232 // movdqa %xmm0,%xmm5
+ .byte 232,0,0,0,0 // call 1c94 <_sk_srcover_rgba_8888_sse2+0x1b>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -61690,62 +62234,73 @@ _sk_srcover_rgba_8888_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,133,224,0,0,0 // jne 1d92 <_sk_srcover_rgba_8888_sse2+0x119>
- .byte 243,15,111,20,178 // movdqu (%edx,%esi,4),%xmm2
- .byte 102,15,111,167,96,221,0,0 // movdqa 0xdd60(%edi),%xmm4
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,219,236 // pand %xmm4,%xmm5
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
+ .byte 15,133,2,1,0,0 // jne 1db8 <_sk_srcover_rgba_8888_sse2+0x13f>
+ .byte 243,15,111,12,178 // movdqu (%edx,%esi,4),%xmm1
+ .byte 102,15,111,135,76,223,0,0 // movdqa 0xdf4c(%edi),%xmm0
+ .byte 102,15,111,209 // movdqa %xmm1,%xmm2
+ .byte 102,15,219,208 // pand %xmm0,%xmm2
+ .byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,114,214,8 // psrld $0x8,%xmm6
- .byte 102,15,219,244 // pand %xmm4,%xmm6
- .byte 102,15,111,250 // movdqa %xmm2,%xmm7
+ .byte 102,15,219,240 // pand %xmm0,%xmm6
+ .byte 102,15,111,249 // movdqa %xmm1,%xmm7
.byte 102,15,114,215,16 // psrld $0x10,%xmm7
- .byte 102,15,219,252 // pand %xmm4,%xmm7
- .byte 15,91,229 // cvtdq2ps %xmm5,%xmm4
- .byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
- .byte 15,40,175,160,220,0,0 // movaps 0xdca0(%edi),%xmm5
- .byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,40,143,112,221,0,0 // movaps 0xdd70(%edi),%xmm1
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,224 // addps %xmm0,%xmm4
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,41,113,32 // movaps %xmm6,0x20(%ecx)
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,240 // addps %xmm0,%xmm6
- .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,41,121,48 // movaps %xmm7,0x30(%ecx)
- .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,89,253 // mulps %xmm5,%xmm7
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 102,15,114,210,24 // psrld $0x18,%xmm2
+ .byte 102,15,219,248 // pand %xmm0,%xmm7
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,41,65,64 // movaps %xmm0,0x40(%ecx)
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 15,88,235 // addps %xmm3,%xmm5
- .byte 102,15,91,196 // cvtps2dq %xmm4,%xmm0
- .byte 102,15,91,206 // cvtps2dq %xmm6,%xmm1
- .byte 102,15,114,241,8 // pslld $0x8,%xmm1
- .byte 102,15,235,200 // por %xmm0,%xmm1
- .byte 102,15,91,215 // cvtps2dq %xmm7,%xmm2
+ .byte 15,41,65,16 // movaps %xmm0,0x10(%ecx)
+ .byte 15,40,167,140,222,0,0 // movaps 0xde8c(%edi),%xmm4
+ .byte 15,92,227 // subps %xmm3,%xmm4
+ .byte 15,40,151,92,223,0,0 // movaps 0xdf5c(%edi),%xmm2
+ .byte 15,89,234 // mulps %xmm2,%xmm5
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 15,88,197 // addps %xmm5,%xmm0
+ .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
+ .byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
+ .byte 15,40,117,216 // movaps -0x28(%ebp),%xmm6
+ .byte 15,89,242 // mulps %xmm2,%xmm6
+ .byte 15,89,236 // mulps %xmm4,%xmm5
+ .byte 15,88,238 // addps %xmm6,%xmm5
+ .byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
+ .byte 15,41,113,48 // movaps %xmm6,0x30(%ecx)
+ .byte 15,40,125,200 // movaps -0x38(%ebp),%xmm7
+ .byte 15,89,250 // mulps %xmm2,%xmm7
+ .byte 15,89,244 // mulps %xmm4,%xmm6
+ .byte 15,88,247 // addps %xmm7,%xmm6
+ .byte 15,87,255 // xorps %xmm7,%xmm7
+ .byte 102,15,114,209,24 // psrld $0x18,%xmm1
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 15,41,73,64 // movaps %xmm1,0x40(%ecx)
+ .byte 15,89,218 // mulps %xmm2,%xmm3
+ .byte 15,89,225 // mulps %xmm1,%xmm4
+ .byte 15,88,227 // addps %xmm3,%xmm4
+ .byte 15,87,201 // xorps %xmm1,%xmm1
+ .byte 15,95,200 // maxps %xmm0,%xmm1
+ .byte 15,93,202 // minps %xmm2,%xmm1
+ .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
+ .byte 15,87,219 // xorps %xmm3,%xmm3
+ .byte 15,95,221 // maxps %xmm5,%xmm3
+ .byte 15,93,218 // minps %xmm2,%xmm3
+ .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3
+ .byte 102,15,114,243,8 // pslld $0x8,%xmm3
+ .byte 102,15,235,217 // por %xmm1,%xmm3
+ .byte 102,15,87,201 // xorpd %xmm1,%xmm1
+ .byte 15,95,206 // maxps %xmm6,%xmm1
+ .byte 15,93,202 // minps %xmm2,%xmm1
+ .byte 15,95,252 // maxps %xmm4,%xmm7
+ .byte 15,93,250 // minps %xmm2,%xmm7
+ .byte 102,15,91,209 // cvtps2dq %xmm1,%xmm2
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,15,91,197 // cvtps2dq %xmm5,%xmm0
- .byte 102,15,114,240,24 // pslld $0x18,%xmm0
- .byte 102,15,235,194 // por %xmm2,%xmm0
- .byte 102,15,235,193 // por %xmm1,%xmm0
+ .byte 102,15,91,207 // cvtps2dq %xmm7,%xmm1
+ .byte 102,15,114,241,24 // pslld $0x18,%xmm1
+ .byte 102,15,235,202 // por %xmm2,%xmm1
+ .byte 102,15,235,203 // por %xmm3,%xmm1
.byte 133,219 // test %ebx,%ebx
- .byte 117,95 // jne 1dcd <_sk_srcover_rgba_8888_sse2+0x154>
- .byte 243,15,127,4,178 // movdqu %xmm0,(%edx,%esi,4)
+ .byte 117,92 // jne 1df3 <_sk_srcover_rgba_8888_sse2+0x17a>
+ .byte 243,15,127,12,178 // movdqu %xmm1,(%edx,%esi,4)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,40,215 // movaps %xmm7,%xmm2
- .byte 15,40,221 // movaps %xmm5,%xmm3
+ .byte 15,40,205 // movaps %xmm5,%xmm1
+ .byte 15,40,214 // movaps %xmm6,%xmm2
+ .byte 15,40,220 // movaps %xmm4,%xmm3
.byte 82 // push %edx
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -61759,33 +62314,33 @@ _sk_srcover_rgba_8888_sse2:
.byte 136,69,243 // mov %al,-0xd(%ebp)
.byte 128,101,243,3 // andb $0x3,-0xd(%ebp)
.byte 128,125,243,1 // cmpb $0x1,-0xd(%ebp)
- .byte 116,80 // je 1df1 <_sk_srcover_rgba_8888_sse2+0x178>
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
+ .byte 116,80 // je 1e17 <_sk_srcover_rgba_8888_sse2+0x19e>
+ .byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 128,125,243,2 // cmpb $0x2,-0xd(%ebp)
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 116,21 // je 1dc3 <_sk_srcover_rgba_8888_sse2+0x14a>
+ .byte 116,21 // je 1de9 <_sk_srcover_rgba_8888_sse2+0x170>
.byte 128,125,243,3 // cmpb $0x3,-0xd(%ebp)
- .byte 15,133,255,254,255,255 // jne 1cb7 <_sk_srcover_rgba_8888_sse2+0x3e>
- .byte 102,15,110,84,178,8 // movd 0x8(%edx,%esi,4),%xmm2
- .byte 102,15,112,210,69 // pshufd $0x45,%xmm2,%xmm2
- .byte 102,15,18,20,178 // movlpd (%edx,%esi,4),%xmm2
- .byte 233,234,254,255,255 // jmp 1cb7 <_sk_srcover_rgba_8888_sse2+0x3e>
+ .byte 15,133,221,254,255,255 // jne 1cbb <_sk_srcover_rgba_8888_sse2+0x42>
+ .byte 102,15,110,68,178,8 // movd 0x8(%edx,%esi,4),%xmm0
+ .byte 102,15,112,200,69 // pshufd $0x45,%xmm0,%xmm1
+ .byte 102,15,18,12,178 // movlpd (%edx,%esi,4),%xmm1
+ .byte 233,200,254,255,255 // jmp 1cbb <_sk_srcover_rgba_8888_sse2+0x42>
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,41 // je 1dfe <_sk_srcover_rgba_8888_sse2+0x185>
+ .byte 116,41 // je 1e24 <_sk_srcover_rgba_8888_sse2+0x1ab>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 1dea <_sk_srcover_rgba_8888_sse2+0x171>
+ .byte 116,16 // je 1e10 <_sk_srcover_rgba_8888_sse2+0x197>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,148 // jne 1d73 <_sk_srcover_rgba_8888_sse2+0xfa>
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,15,126,76,178,8 // movd %xmm1,0x8(%edx,%esi,4)
- .byte 102,15,214,4,178 // movq %xmm0,(%edx,%esi,4)
- .byte 235,130 // jmp 1d73 <_sk_srcover_rgba_8888_sse2+0xfa>
- .byte 102,15,110,20,178 // movd (%edx,%esi,4),%xmm2
+ .byte 117,151 // jne 1d9c <_sk_srcover_rgba_8888_sse2+0x123>
+ .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
+ .byte 102,15,126,84,178,8 // movd %xmm2,0x8(%edx,%esi,4)
+ .byte 102,15,214,12,178 // movq %xmm1,(%edx,%esi,4)
+ .byte 235,133 // jmp 1d9c <_sk_srcover_rgba_8888_sse2+0x123>
+ .byte 102,15,110,12,178 // movd (%edx,%esi,4),%xmm1
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 233,185,254,255,255 // jmp 1cb7 <_sk_srcover_rgba_8888_sse2+0x3e>
- .byte 102,15,126,4,178 // movd %xmm0,(%edx,%esi,4)
- .byte 233,107,255,255,255 // jmp 1d73 <_sk_srcover_rgba_8888_sse2+0xfa>
+ .byte 233,151,254,255,255 // jmp 1cbb <_sk_srcover_rgba_8888_sse2+0x42>
+ .byte 102,15,126,12,178 // movd %xmm1,(%edx,%esi,4)
+ .byte 233,110,255,255,255 // jmp 1d9c <_sk_srcover_rgba_8888_sse2+0x123>
HIDDEN _sk_srcover_bgra_8888_sse2
.globl _sk_srcover_bgra_8888_sse2
@@ -61797,9 +62352,10 @@ _sk_srcover_bgra_8888_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,44 // sub $0x2c,%esp
- .byte 102,15,127,85,200 // movdqa %xmm2,-0x38(%ebp)
+ .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 232,0,0,0,0 // call 1e1f <_sk_srcover_bgra_8888_sse2+0x17>
+ .byte 102,15,111,248 // movdqa %xmm0,%xmm7
+ .byte 232,0,0,0,0 // call 1e48 <_sk_srcover_bgra_8888_sse2+0x1a>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -61811,61 +62367,71 @@ _sk_srcover_bgra_8888_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,133,221,0,0,0 // jne 1f1e <_sk_srcover_bgra_8888_sse2+0x116>
+ .byte 15,133,252,0,0,0 // jne 1f66 <_sk_srcover_bgra_8888_sse2+0x138>
.byte 243,15,111,36,178 // movdqu (%edx,%esi,4),%xmm4
- .byte 102,15,111,151,209,219,0,0 // movdqa 0xdbd1(%edi),%xmm2
+ .byte 102,15,111,135,152,221,0,0 // movdqa 0xdd98(%edi),%xmm0
+ .byte 102,15,111,204 // movdqa %xmm4,%xmm1
+ .byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,219,234 // pand %xmm2,%xmm5
+ .byte 102,15,114,213,8 // psrld $0x8,%xmm5
+ .byte 102,15,219,232 // pand %xmm0,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,114,214,8 // psrld $0x8,%xmm6
- .byte 102,15,219,242 // pand %xmm2,%xmm6
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,15,114,215,16 // psrld $0x10,%xmm7
- .byte 102,15,219,250 // pand %xmm2,%xmm7
- .byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
+ .byte 102,15,114,214,16 // psrld $0x10,%xmm6
+ .byte 102,15,219,240 // pand %xmm0,%xmm6
+ .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
.byte 15,41,81,48 // movaps %xmm2,0x30(%ecx)
- .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
- .byte 15,41,113,16 // movaps %xmm6,0x10(%ecx)
- .byte 15,40,191,17,219,0,0 // movaps 0xdb11(%edi),%xmm7
- .byte 15,92,251 // subps %xmm3,%xmm7
- .byte 15,40,143,225,219,0,0 // movaps 0xdbe1(%edi),%xmm1
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 15,88,240 // addps %xmm0,%xmm6
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
+ .byte 15,91,205 // cvtdq2ps %xmm5,%xmm1
+ .byte 15,41,73,32 // movaps %xmm1,0x20(%ecx)
+ .byte 15,91,198 // cvtdq2ps %xmm6,%xmm0
+ .byte 15,41,65,16 // movaps %xmm0,0x10(%ecx)
+ .byte 15,40,175,216,220,0,0 // movaps 0xdcd8(%edi),%xmm5
+ .byte 15,92,235 // subps %xmm3,%xmm5
+ .byte 15,40,183,168,221,0,0 // movaps 0xdda8(%edi),%xmm6
+ .byte 15,89,254 // mulps %xmm6,%xmm7
+ .byte 15,89,197 // mulps %xmm5,%xmm0
+ .byte 15,88,199 // addps %xmm7,%xmm0
+ .byte 15,40,125,216 // movaps -0x28(%ebp),%xmm7
+ .byte 15,89,254 // mulps %xmm6,%xmm7
+ .byte 15,89,205 // mulps %xmm5,%xmm1
+ .byte 15,88,207 // addps %xmm7,%xmm1
+ .byte 15,40,125,200 // movaps -0x38(%ebp),%xmm7
+ .byte 15,89,254 // mulps %xmm6,%xmm7
+ .byte 15,89,213 // mulps %xmm5,%xmm2
+ .byte 15,88,215 // addps %xmm7,%xmm2
+ .byte 15,87,255 // xorps %xmm7,%xmm7
.byte 102,15,114,212,24 // psrld $0x18,%xmm4
- .byte 15,91,196 // cvtdq2ps %xmm4,%xmm0
- .byte 15,41,65,64 // movaps %xmm0,0x40(%ecx)
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,89,248 // mulps %xmm0,%xmm7
- .byte 15,88,251 // addps %xmm3,%xmm7
- .byte 102,15,91,194 // cvtps2dq %xmm2,%xmm0
- .byte 102,15,91,205 // cvtps2dq %xmm5,%xmm1
- .byte 102,15,114,241,8 // pslld $0x8,%xmm1
- .byte 102,15,235,200 // por %xmm0,%xmm1
- .byte 102,15,91,222 // cvtps2dq %xmm6,%xmm3
- .byte 102,15,114,243,16 // pslld $0x10,%xmm3
- .byte 102,15,91,199 // cvtps2dq %xmm7,%xmm0
- .byte 102,15,114,240,24 // pslld $0x18,%xmm0
- .byte 102,15,235,195 // por %xmm3,%xmm0
- .byte 102,15,235,193 // por %xmm1,%xmm0
+ .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
+ .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
+ .byte 15,89,222 // mulps %xmm6,%xmm3
+ .byte 15,89,236 // mulps %xmm4,%xmm5
+ .byte 15,88,235 // addps %xmm3,%xmm5
+ .byte 15,87,219 // xorps %xmm3,%xmm3
+ .byte 15,95,218 // maxps %xmm2,%xmm3
+ .byte 15,93,222 // minps %xmm6,%xmm3
+ .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3
+ .byte 15,87,228 // xorps %xmm4,%xmm4
+ .byte 15,95,225 // maxps %xmm1,%xmm4
+ .byte 15,93,230 // minps %xmm6,%xmm4
+ .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
+ .byte 102,15,114,244,8 // pslld $0x8,%xmm4
+ .byte 102,15,235,227 // por %xmm3,%xmm4
+ .byte 102,15,87,219 // xorpd %xmm3,%xmm3
+ .byte 15,95,216 // maxps %xmm0,%xmm3
+ .byte 15,93,222 // minps %xmm6,%xmm3
+ .byte 15,95,253 // maxps %xmm5,%xmm7
+ .byte 15,93,254 // minps %xmm6,%xmm7
+ .byte 102,15,91,243 // cvtps2dq %xmm3,%xmm6
+ .byte 102,15,114,246,16 // pslld $0x10,%xmm6
+ .byte 102,15,91,223 // cvtps2dq %xmm7,%xmm3
+ .byte 102,15,114,243,24 // pslld $0x18,%xmm3
+ .byte 102,15,235,222 // por %xmm6,%xmm3
+ .byte 102,15,235,220 // por %xmm4,%xmm3
.byte 133,219 // test %ebx,%ebx
- .byte 117,92 // jne 1f59 <_sk_srcover_bgra_8888_sse2+0x151>
- .byte 243,15,127,4,178 // movdqu %xmm0,(%edx,%esi,4)
+ .byte 117,86 // jne 1fa1 <_sk_srcover_bgra_8888_sse2+0x173>
+ .byte 243,15,127,28,178 // movdqu %xmm3,(%edx,%esi,4)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,40,223 // movaps %xmm7,%xmm3
+ .byte 15,40,221 // movaps %xmm5,%xmm3
.byte 82 // push %edx
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -61879,33 +62445,33 @@ _sk_srcover_bgra_8888_sse2:
.byte 136,69,243 // mov %al,-0xd(%ebp)
.byte 128,101,243,3 // andb $0x3,-0xd(%ebp)
.byte 128,125,243,1 // cmpb $0x1,-0xd(%ebp)
- .byte 116,80 // je 1f7d <_sk_srcover_bgra_8888_sse2+0x175>
+ .byte 116,80 // je 1fc5 <_sk_srcover_bgra_8888_sse2+0x197>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,125,243,2 // cmpb $0x2,-0xd(%ebp)
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 116,21 // je 1f4f <_sk_srcover_bgra_8888_sse2+0x147>
+ .byte 116,21 // je 1f97 <_sk_srcover_bgra_8888_sse2+0x169>
.byte 128,125,243,3 // cmpb $0x3,-0xd(%ebp)
- .byte 15,133,2,255,255,255 // jne 1e46 <_sk_srcover_bgra_8888_sse2+0x3e>
- .byte 102,15,110,84,178,8 // movd 0x8(%edx,%esi,4),%xmm2
- .byte 102,15,112,226,69 // pshufd $0x45,%xmm2,%xmm4
+ .byte 15,133,227,254,255,255 // jne 1e6f <_sk_srcover_bgra_8888_sse2+0x41>
+ .byte 102,15,110,68,178,8 // movd 0x8(%edx,%esi,4),%xmm0
+ .byte 102,15,112,224,69 // pshufd $0x45,%xmm0,%xmm4
.byte 102,15,18,36,178 // movlpd (%edx,%esi,4),%xmm4
- .byte 233,237,254,255,255 // jmp 1e46 <_sk_srcover_bgra_8888_sse2+0x3e>
+ .byte 233,206,254,255,255 // jmp 1e6f <_sk_srcover_bgra_8888_sse2+0x41>
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,41 // je 1f8a <_sk_srcover_bgra_8888_sse2+0x182>
+ .byte 116,41 // je 1fd2 <_sk_srcover_bgra_8888_sse2+0x1a4>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 1f76 <_sk_srcover_bgra_8888_sse2+0x16e>
+ .byte 116,16 // je 1fbe <_sk_srcover_bgra_8888_sse2+0x190>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,151 // jne 1f02 <_sk_srcover_bgra_8888_sse2+0xfa>
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,15,126,76,178,8 // movd %xmm1,0x8(%edx,%esi,4)
- .byte 102,15,214,4,178 // movq %xmm0,(%edx,%esi,4)
- .byte 235,133 // jmp 1f02 <_sk_srcover_bgra_8888_sse2+0xfa>
+ .byte 117,157 // jne 1f50 <_sk_srcover_bgra_8888_sse2+0x122>
+ .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
+ .byte 102,15,126,100,178,8 // movd %xmm4,0x8(%edx,%esi,4)
+ .byte 102,15,214,28,178 // movq %xmm3,(%edx,%esi,4)
+ .byte 235,139 // jmp 1f50 <_sk_srcover_bgra_8888_sse2+0x122>
.byte 102,15,110,36,178 // movd (%edx,%esi,4),%xmm4
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 233,188,254,255,255 // jmp 1e46 <_sk_srcover_bgra_8888_sse2+0x3e>
- .byte 102,15,126,4,178 // movd %xmm0,(%edx,%esi,4)
- .byte 233,110,255,255,255 // jmp 1f02 <_sk_srcover_bgra_8888_sse2+0xfa>
+ .byte 233,157,254,255,255 // jmp 1e6f <_sk_srcover_bgra_8888_sse2+0x41>
+ .byte 102,15,126,28,178 // movd %xmm3,(%edx,%esi,4)
+ .byte 233,116,255,255,255 // jmp 1f50 <_sk_srcover_bgra_8888_sse2+0x122>
HIDDEN _sk_clamp_0_sse2
.globl _sk_clamp_0_sse2
@@ -61936,10 +62502,10 @@ _sk_clamp_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 1fc8 <_sk_clamp_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 2010 <_sk_clamp_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,104,217,0,0 // movaps 0xd968(%eax),%xmm4
+ .byte 15,40,160,16,219,0,0 // movaps 0xdb10(%eax),%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
.byte 15,93,204 // minps %xmm4,%xmm1
.byte 15,93,212 // minps %xmm4,%xmm2
@@ -61960,10 +62526,10 @@ _sk_clamp_a_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 1ffb <_sk_clamp_a_sse2+0xb>
+ .byte 232,0,0,0,0 // call 2043 <_sk_clamp_a_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,93,152,53,217,0,0 // minps 0xd935(%eax),%xmm3
+ .byte 15,93,152,221,218,0,0 // minps 0xdadd(%eax),%xmm3
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -61983,12 +62549,12 @@ _sk_clamp_a_dst_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 202b <_sk_clamp_a_dst_sse2+0xb>
+ .byte 232,0,0,0,0 // call 2073 <_sk_clamp_a_dst_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,98,64 // movaps 0x40(%edx),%xmm4
- .byte 15,93,160,5,217,0,0 // minps 0xd905(%eax),%xmm4
+ .byte 15,93,160,173,218,0,0 // minps 0xdaad(%eax),%xmm4
.byte 15,41,98,64 // movaps %xmm4,0x40(%edx)
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,40,114,32 // movaps 0x20(%edx),%xmm6
@@ -62059,10 +62625,10 @@ _sk_invert_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 20d6 <_sk_invert_sse2+0xb>
+ .byte 232,0,0,0,0 // call 211e <_sk_invert_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,90,216,0,0 // movaps 0xd85a(%eax),%xmm4
+ .byte 15,40,160,2,218,0,0 // movaps 0xda02(%eax),%xmm4
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,92,232 // subps %xmm0,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
@@ -62181,13 +62747,13 @@ _sk_unpremul_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 21d4 <_sk_unpremul_sse2+0xb>
+ .byte 232,0,0,0,0 // call 221c <_sk_unpremul_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,92,215,0,0 // movaps 0xd75c(%eax),%xmm4
+ .byte 15,40,160,4,217,0,0 // movaps 0xd904(%eax),%xmm4
.byte 15,94,227 // divps %xmm3,%xmm4
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,194,168,60,216,0,0,1 // cmpltps 0xd83c(%eax),%xmm5
+ .byte 15,194,168,228,217,0,0,1 // cmpltps 0xd9e4(%eax),%xmm5
.byte 15,84,236 // andps %xmm4,%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,89,205 // mulps %xmm5,%xmm1
@@ -62212,23 +62778,23 @@ _sk_from_srgb_sse2:
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,40,217 // movaps %xmm1,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 2222 <_sk_from_srgb_sse2+0x18>
+ .byte 232,0,0,0,0 // call 226a <_sk_from_srgb_sse2+0x18>
.byte 88 // pop %eax
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,201 // mulps %xmm1,%xmm1
- .byte 15,40,160,158,215,0,0 // movaps 0xd79e(%eax),%xmm4
+ .byte 15,40,160,70,217,0,0 // movaps 0xd946(%eax),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,176,14,216,0,0 // movaps 0xd80e(%eax),%xmm6
+ .byte 15,40,176,182,217,0,0 // movaps 0xd9b6(%eax),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,176,254,215,0,0 // movaps 0xd7fe(%eax),%xmm6
+ .byte 15,40,176,166,217,0,0 // movaps 0xd9a6(%eax),%xmm6
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,184,30,216,0,0 // movaps 0xd81e(%eax),%xmm7
+ .byte 15,40,184,198,217,0,0 // movaps 0xd9c6(%eax),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,184,46,216,0,0 // movaps 0xd82e(%eax),%xmm7
+ .byte 15,40,184,214,217,0,0 // movaps 0xd9d6(%eax),%xmm7
.byte 15,194,215,1 // cmpltps %xmm7,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -62282,24 +62848,24 @@ _sk_from_srgb_dst_sse2:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
.byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
- .byte 232,0,0,0,0 // call 22fd <_sk_from_srgb_dst_sse2+0x1b>
+ .byte 232,0,0,0,0 // call 2345 <_sk_from_srgb_dst_sse2+0x1b>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,40,161,195,214,0,0 // movaps 0xd6c3(%ecx),%xmm4
+ .byte 15,40,161,107,216,0,0 // movaps 0xd86b(%ecx),%xmm4
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,177,51,215,0,0 // movaps 0xd733(%ecx),%xmm6
+ .byte 15,40,177,219,216,0,0 // movaps 0xd8db(%ecx),%xmm6
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,169,35,215,0,0 // movaps 0xd723(%ecx),%xmm5
+ .byte 15,40,169,203,216,0,0 // movaps 0xd8cb(%ecx),%xmm5
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,40,185,67,215,0,0 // movaps 0xd743(%ecx),%xmm7
+ .byte 15,40,185,235,216,0,0 // movaps 0xd8eb(%ecx),%xmm7
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,153,83,215,0,0 // movaps 0xd753(%ecx),%xmm3
+ .byte 15,40,153,251,216,0,0 // movaps 0xd8fb(%ecx),%xmm3
.byte 15,194,203,1 // cmpltps %xmm3,%xmm1
.byte 15,84,209 // andps %xmm1,%xmm2
.byte 15,85,200 // andnps %xmm0,%xmm1
@@ -62358,28 +62924,28 @@ _sk_to_srgb_sse2:
.byte 15,40,250 // movaps %xmm2,%xmm7
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 23e8 <_sk_to_srgb_sse2+0x18>
+ .byte 232,0,0,0,0 // call 2430 <_sk_to_srgb_sse2+0x18>
.byte 88 // pop %eax
.byte 15,82,218 // rsqrtps %xmm2,%xmm3
- .byte 15,40,160,136,214,0,0 // movaps 0xd688(%eax),%xmm4
+ .byte 15,40,160,48,216,0,0 // movaps 0xd830(%eax),%xmm4
.byte 15,40,235 // movaps %xmm3,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,40,128,152,214,0,0 // movaps 0xd698(%eax),%xmm0
+ .byte 15,40,128,64,216,0,0 // movaps 0xd840(%eax),%xmm0
.byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,40,128,168,214,0,0 // movaps 0xd6a8(%eax),%xmm0
+ .byte 15,40,128,80,216,0,0 // movaps 0xd850(%eax),%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,128,184,214,0,0 // movaps 0xd6b8(%eax),%xmm0
+ .byte 15,40,128,96,216,0,0 // movaps 0xd860(%eax),%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
.byte 15,88,216 // addps %xmm0,%xmm3
.byte 15,83,195 // rcpps %xmm3,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,168,120,214,0,0 // movaps 0xd678(%eax),%xmm5
+ .byte 15,40,168,32,216,0,0 // movaps 0xd820(%eax),%xmm5
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,152,200,214,0,0 // movaps 0xd6c8(%eax),%xmm3
+ .byte 15,40,152,112,216,0,0 // movaps 0xd870(%eax),%xmm3
.byte 15,194,211,1 // cmpltps %xmm3,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -62436,7 +63002,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,249 // movaps %xmm1,%xmm7
.byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 24df <_sk_rgb_to_hsl_sse2+0x15>
+ .byte 232,0,0,0,0 // call 2527 <_sk_rgb_to_hsl_sse2+0x15>
.byte 88 // pop %eax
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,95,194 // maxps %xmm2,%xmm0
@@ -62450,14 +63016,14 @@ _sk_rgb_to_hsl_sse2:
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 15,40,136,81,212,0,0 // movaps 0xd451(%eax),%xmm1
+ .byte 15,40,136,249,213,0,0 // movaps 0xd5f9(%eax),%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,92,194 // subps %xmm2,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,194,234,1 // cmpltps %xmm2,%xmm5
- .byte 15,84,168,225,213,0,0 // andps 0xd5e1(%eax),%xmm5
+ .byte 15,84,168,137,215,0,0 // andps 0xd789(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,196,0 // cmpeqps %xmm4,%xmm0
@@ -62467,9 +63033,9 @@ _sk_rgb_to_hsl_sse2:
.byte 15,92,231 // subps %xmm7,%xmm4
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,40,136,241,213,0,0 // movaps 0xd5f1(%eax),%xmm1
+ .byte 15,40,136,153,215,0,0 // movaps 0xd799(%eax),%xmm1
.byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,88,160,1,214,0,0 // addps 0xd601(%eax),%xmm4
+ .byte 15,88,160,169,215,0,0 // addps 0xd7a9(%eax),%xmm4
.byte 15,84,214 // andps %xmm6,%xmm2
.byte 15,85,244 // andnps %xmm4,%xmm6
.byte 15,86,242 // orps %xmm2,%xmm6
@@ -62481,7 +63047,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,194,226,4 // cmpneqps %xmm2,%xmm4
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,40,168,65,212,0,0 // movaps 0xd441(%eax),%xmm5
+ .byte 15,40,168,233,213,0,0 // movaps 0xd5e9(%eax),%xmm5
.byte 15,92,202 // subps %xmm2,%xmm1
.byte 15,40,211 // movaps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
@@ -62491,7 +63057,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,86,233 // orps %xmm1,%xmm5
.byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
.byte 15,94,205 // divps %xmm5,%xmm1
- .byte 15,89,128,17,214,0,0 // mulps 0xd611(%eax),%xmm0
+ .byte 15,89,128,185,215,0,0 // mulps 0xd7b9(%eax),%xmm0
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,84,204 // andps %xmm4,%xmm1
.byte 139,69,12 // mov 0xc(%ebp),%eax
@@ -62514,9 +63080,9 @@ _sk_hsl_to_rgb_sse2:
.byte 129,236,200,0,0,0 // sub $0xc8,%esp
.byte 15,41,157,56,255,255,255 // movaps %xmm3,-0xc8(%ebp)
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 25da <_sk_hsl_to_rgb_sse2+0x19>
+ .byte 232,0,0,0,0 // call 2622 <_sk_hsl_to_rgb_sse2+0x19>
.byte 88 // pop %eax
- .byte 15,40,160,70,211,0,0 // movaps 0xd346(%eax),%xmm4
+ .byte 15,40,160,238,212,0,0 // movaps 0xd4ee(%eax),%xmm4
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp)
.byte 15,194,218,2 // cmpleps %xmm2,%xmm3
@@ -62529,13 +63095,13 @@ _sk_hsl_to_rgb_sse2:
.byte 15,84,243 // andps %xmm3,%xmm6
.byte 15,85,217 // andnps %xmm1,%xmm3
.byte 15,86,222 // orps %xmm6,%xmm3
- .byte 15,40,168,38,213,0,0 // movaps 0xd526(%eax),%xmm5
+ .byte 15,40,168,206,214,0,0 // movaps 0xd6ce(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 243,15,91,205 // cvttps2dq %xmm5,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,193,1 // cmpltps %xmm1,%xmm0
- .byte 15,40,176,86,211,0,0 // movaps 0xd356(%eax),%xmm6
+ .byte 15,40,176,254,212,0,0 // movaps 0xd4fe(%eax),%xmm6
.byte 15,41,117,136 // movaps %xmm6,-0x78(%ebp)
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,200 // subps %xmm0,%xmm1
@@ -62545,19 +63111,19 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,40,184,54,213,0,0 // movaps 0xd536(%eax),%xmm7
+ .byte 15,40,184,222,214,0,0 // movaps 0xd6de(%eax),%xmm7
.byte 15,41,189,88,255,255,255 // movaps %xmm7,-0xa8(%ebp)
.byte 15,194,253,2 // cmpleps %xmm5,%xmm7
.byte 15,92,218 // subps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,204 // movaps %xmm4,%xmm1
.byte 15,194,205,2 // cmpleps %xmm5,%xmm1
- .byte 15,40,160,22,213,0,0 // movaps 0xd516(%eax),%xmm4
+ .byte 15,40,160,190,214,0,0 // movaps 0xd6be(%eax),%xmm4
.byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp)
.byte 15,194,229,2 // cmpleps %xmm5,%xmm4
- .byte 15,40,176,230,212,0,0 // movaps 0xd4e6(%eax),%xmm6
+ .byte 15,40,176,142,214,0,0 // movaps 0xd68e(%eax),%xmm6
.byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,40,128,6,213,0,0 // movaps 0xd506(%eax),%xmm0
+ .byte 15,40,128,174,214,0,0 // movaps 0xd6ae(%eax),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
@@ -62583,18 +63149,18 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,136,86,211,0,0 // andps 0xd356(%eax),%xmm1
+ .byte 15,84,136,254,212,0,0 // andps 0xd4fe(%eax),%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,40,128,54,213,0,0 // movaps 0xd536(%eax),%xmm0
+ .byte 15,40,128,222,214,0,0 // movaps 0xd6de(%eax),%xmm0
.byte 15,194,193,2 // cmpleps %xmm1,%xmm0
- .byte 15,40,152,70,211,0,0 // movaps 0xd346(%eax),%xmm3
+ .byte 15,40,152,238,212,0,0 // movaps 0xd4ee(%eax),%xmm3
.byte 15,194,217,2 // cmpleps %xmm1,%xmm3
- .byte 15,40,160,22,213,0,0 // movaps 0xd516(%eax),%xmm4
+ .byte 15,40,160,190,214,0,0 // movaps 0xd6be(%eax),%xmm4
.byte 15,194,225,2 // cmpleps %xmm1,%xmm4
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,168,6,213,0,0 // movaps 0xd506(%eax),%xmm5
+ .byte 15,40,168,174,214,0,0 // movaps 0xd6ae(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,239 // mulps %xmm7,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
@@ -62614,7 +63180,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
.byte 15,85,252 // andnps %xmm4,%xmm7
.byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 15,88,152,70,213,0,0 // addps 0xd546(%eax),%xmm3
+ .byte 15,88,152,238,214,0,0 // addps 0xd6ee(%eax),%xmm3
.byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
@@ -62701,7 +63267,7 @@ _sk_scale_u8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 2854 <_sk_scale_u8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 289c <_sk_scale_u8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -62712,13 +63278,13 @@ _sk_scale_u8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,65 // jne 28b0 <_sk_scale_u8_sse2+0x6a>
+ .byte 117,65 // jne 28f8 <_sk_scale_u8_sse2+0x6a>
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,156,209,0,0 // pand 0xd19c(%edx),%xmm4
+ .byte 102,15,219,162,68,211,0,0 // pand 0xd344(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,220,210,0,0 // mulps 0xd2dc(%edx),%xmm4
+ .byte 15,89,162,132,212,0,0 // mulps 0xd484(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,89,212 // mulps %xmm4,%xmm2
@@ -62737,12 +63303,12 @@ _sk_scale_u8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 28ea <_sk_scale_u8_sse2+0xa4>
+ .byte 116,50 // je 2932 <_sk_scale_u8_sse2+0xa4>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 28d4 <_sk_scale_u8_sse2+0x8e>
+ .byte 116,19 // je 291c <_sk_scale_u8_sse2+0x8e>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,182 // jne 287c <_sk_scale_u8_sse2+0x36>
+ .byte 117,182 // jne 28c4 <_sk_scale_u8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -62751,10 +63317,10 @@ _sk_scale_u8_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,146 // jmp 287c <_sk_scale_u8_sse2+0x36>
+ .byte 235,146 // jmp 28c4 <_sk_scale_u8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,136 // jmp 287c <_sk_scale_u8_sse2+0x36>
+ .byte 235,136 // jmp 28c4 <_sk_scale_u8_sse2+0x36>
HIDDEN _sk_scale_565_sse2
.globl _sk_scale_565_sse2
@@ -62769,7 +63335,7 @@ _sk_scale_565_sse2:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 290e <_sk_scale_565_sse2+0x1a>
+ .byte 232,0,0,0,0 // call 2956 <_sk_scale_565_sse2+0x1a>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -62781,20 +63347,20 @@ _sk_scale_565_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,157,0,0,0 // jne 29cc <_sk_scale_565_sse2+0xd8>
+ .byte 15,133,157,0,0,0 // jne 2a14 <_sk_scale_565_sse2+0xd8>
.byte 243,15,126,52,126 // movq (%esi,%edi,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,162,50,210,0,0 // movdqa 0xd232(%edx),%xmm4
+ .byte 102,15,111,162,218,211,0,0 // movdqa 0xd3da(%edx),%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,212 // cvtdq2ps %xmm4,%xmm2
- .byte 15,89,146,66,210,0,0 // mulps 0xd242(%edx),%xmm2
- .byte 102,15,111,170,82,210,0,0 // movdqa 0xd252(%edx),%xmm5
+ .byte 15,89,146,234,211,0,0 // mulps 0xd3ea(%edx),%xmm2
+ .byte 102,15,111,170,250,211,0,0 // movdqa 0xd3fa(%edx),%xmm5
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,98,210,0,0 // mulps 0xd262(%edx),%xmm5
- .byte 102,15,219,178,114,210,0,0 // pand 0xd272(%edx),%xmm6
+ .byte 15,89,170,10,212,0,0 // mulps 0xd40a(%edx),%xmm5
+ .byte 102,15,219,178,26,212,0,0 // pand 0xd41a(%edx),%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,130,210,0,0 // mulps 0xd282(%edx),%xmm6
+ .byte 15,89,178,42,212,0,0 // mulps 0xd42a(%edx),%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,93,254 // minps %xmm6,%xmm7
.byte 15,40,226 // movaps %xmm2,%xmm4
@@ -62829,22 +63395,22 @@ _sk_scale_565_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,51 // je 2a07 <_sk_scale_565_sse2+0x113>
+ .byte 116,51 // je 2a4f <_sk_scale_565_sse2+0x113>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,23 // je 29f4 <_sk_scale_565_sse2+0x100>
+ .byte 116,23 // je 2a3c <_sk_scale_565_sse2+0x100>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,82,255,255,255 // jne 2938 <_sk_scale_565_sse2+0x44>
+ .byte 15,133,82,255,255,255 // jne 2980 <_sk_scale_565_sse2+0x44>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,15,110,36,126 // movd (%esi,%edi,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,244 // movsd %xmm4,%xmm6
- .byte 233,49,255,255,255 // jmp 2938 <_sk_scale_565_sse2+0x44>
+ .byte 233,49,255,255,255 // jmp 2980 <_sk_scale_565_sse2+0x44>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,246 // movd %esi,%xmm6
- .byte 233,36,255,255,255 // jmp 2938 <_sk_scale_565_sse2+0x44>
+ .byte 233,36,255,255,255 // jmp 2980 <_sk_scale_565_sse2+0x44>
HIDDEN _sk_lerp_1_float_sse2
.globl _sk_lerp_1_float_sse2
@@ -62893,7 +63459,7 @@ _sk_lerp_u8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 2a7c <_sk_lerp_u8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 2ac4 <_sk_lerp_u8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -62904,13 +63470,13 @@ _sk_lerp_u8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 2afd <_sk_lerp_u8_sse2+0x8f>
+ .byte 117,102 // jne 2b45 <_sk_lerp_u8_sse2+0x8f>
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,116,207,0,0 // pand 0xcf74(%edx),%xmm4
+ .byte 102,15,219,162,28,209,0,0 // pand 0xd11c(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,180,208,0,0 // mulps 0xd0b4(%edx),%xmm4
+ .byte 15,89,162,92,210,0,0 // mulps 0xd25c(%edx),%xmm4
.byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
.byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
.byte 15,92,197 // subps %xmm5,%xmm0
@@ -62940,12 +63506,12 @@ _sk_lerp_u8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,53 // je 2b3a <_sk_lerp_u8_sse2+0xcc>
+ .byte 116,53 // je 2b82 <_sk_lerp_u8_sse2+0xcc>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 2b21 <_sk_lerp_u8_sse2+0xb3>
+ .byte 116,19 // je 2b69 <_sk_lerp_u8_sse2+0xb3>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,145 // jne 2aa4 <_sk_lerp_u8_sse2+0x36>
+ .byte 117,145 // jne 2aec <_sk_lerp_u8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -62954,10 +63520,10 @@ _sk_lerp_u8_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,106,255,255,255 // jmp 2aa4 <_sk_lerp_u8_sse2+0x36>
+ .byte 233,106,255,255,255 // jmp 2aec <_sk_lerp_u8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,93,255,255,255 // jmp 2aa4 <_sk_lerp_u8_sse2+0x36>
+ .byte 233,93,255,255,255 // jmp 2aec <_sk_lerp_u8_sse2+0x36>
HIDDEN _sk_lerp_565_sse2
.globl _sk_lerp_565_sse2
@@ -62973,7 +63539,7 @@ _sk_lerp_565_sse2:
.byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp)
.byte 15,41,77,152 // movaps %xmm1,-0x68(%ebp)
.byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 2b66 <_sk_lerp_565_sse2+0x1f>
+ .byte 232,0,0,0,0 // call 2bae <_sk_lerp_565_sse2+0x1f>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -62985,20 +63551,20 @@ _sk_lerp_565_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,211,0,0,0 // jne 2c5a <_sk_lerp_565_sse2+0x113>
+ .byte 15,133,211,0,0,0 // jne 2ca2 <_sk_lerp_565_sse2+0x113>
.byte 243,15,126,44,126 // movq (%esi,%edi,2),%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
- .byte 102,15,111,162,218,207,0,0 // movdqa 0xcfda(%edx),%xmm4
+ .byte 102,15,111,162,130,209,0,0 // movdqa 0xd182(%edx),%xmm4
.byte 102,15,219,229 // pand %xmm5,%xmm4
.byte 15,91,204 // cvtdq2ps %xmm4,%xmm1
- .byte 15,89,138,234,207,0,0 // mulps 0xcfea(%edx),%xmm1
- .byte 102,15,111,178,250,207,0,0 // movdqa 0xcffa(%edx),%xmm6
+ .byte 15,89,138,146,209,0,0 // mulps 0xd192(%edx),%xmm1
+ .byte 102,15,111,178,162,209,0,0 // movdqa 0xd1a2(%edx),%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,10,208,0,0 // mulps 0xd00a(%edx),%xmm6
- .byte 102,15,219,170,26,208,0,0 // pand 0xd01a(%edx),%xmm5
+ .byte 15,89,178,178,209,0,0 // mulps 0xd1b2(%edx),%xmm6
+ .byte 102,15,219,170,194,209,0,0 // pand 0xd1c2(%edx),%xmm5
.byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
- .byte 15,89,146,42,208,0,0 // mulps 0xd02a(%edx),%xmm2
+ .byte 15,89,146,210,209,0,0 // mulps 0xd1d2(%edx),%xmm2
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,254 // movaps %xmm6,%xmm7
@@ -63048,22 +63614,22 @@ _sk_lerp_565_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,51 // je 2c95 <_sk_lerp_565_sse2+0x14e>
+ .byte 116,51 // je 2cdd <_sk_lerp_565_sse2+0x14e>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,23 // je 2c82 <_sk_lerp_565_sse2+0x13b>
+ .byte 116,23 // je 2cca <_sk_lerp_565_sse2+0x13b>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,28,255,255,255 // jne 2b90 <_sk_lerp_565_sse2+0x49>
+ .byte 15,133,28,255,255,255 // jne 2bd8 <_sk_lerp_565_sse2+0x49>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,236,69 // pshufd $0x45,%xmm4,%xmm5
.byte 102,15,110,36,126 // movd (%esi,%edi,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,236 // movsd %xmm4,%xmm5
- .byte 233,251,254,255,255 // jmp 2b90 <_sk_lerp_565_sse2+0x49>
+ .byte 233,251,254,255,255 // jmp 2bd8 <_sk_lerp_565_sse2+0x49>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,238 // movd %esi,%xmm5
- .byte 233,238,254,255,255 // jmp 2b90 <_sk_lerp_565_sse2+0x49>
+ .byte 233,238,254,255,255 // jmp 2bd8 <_sk_lerp_565_sse2+0x49>
HIDDEN _sk_load_tables_sse2
.globl _sk_load_tables_sse2
@@ -63075,7 +63641,7 @@ _sk_load_tables_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 2cb0 <_sk_load_tables_sse2+0xe>
+ .byte 232,0,0,0,0 // call 2cf8 <_sk_load_tables_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -63084,9 +63650,9 @@ _sk_load_tables_sse2:
.byte 133,192 // test %eax,%eax
.byte 139,57 // mov (%ecx),%edi
.byte 139,30 // mov (%esi),%ebx
- .byte 15,133,22,1,0,0 // jne 2dde <_sk_load_tables_sse2+0x13c>
+ .byte 15,133,22,1,0,0 // jne 2e26 <_sk_load_tables_sse2+0x13c>
.byte 243,15,111,28,187 // movdqu (%ebx,%edi,4),%xmm3
- .byte 102,15,111,146,64,205,0,0 // movdqa 0xcd40(%edx),%xmm2
+ .byte 102,15,111,146,232,206,0,0 // movdqa 0xcee8(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -63142,7 +63708,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,128,206,0,0 // mulps 0xce80(%edx),%xmm3
+ .byte 15,89,154,40,208,0,0 // mulps 0xd028(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,194 // mov %eax,%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -63158,18 +63724,18 @@ _sk_load_tables_sse2:
.byte 195 // ret
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,37 // je 2e09 <_sk_load_tables_sse2+0x167>
+ .byte 116,37 // je 2e51 <_sk_load_tables_sse2+0x167>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 2dff <_sk_load_tables_sse2+0x15d>
+ .byte 116,19 // je 2e47 <_sk_load_tables_sse2+0x15d>
.byte 60,3 // cmp $0x3,%al
- .byte 15,133,217,254,255,255 // jne 2ccd <_sk_load_tables_sse2+0x2b>
+ .byte 15,133,217,254,255,255 // jne 2d15 <_sk_load_tables_sse2+0x2b>
.byte 102,15,110,68,187,8 // movd 0x8(%ebx,%edi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,187 // movlpd (%ebx,%edi,4),%xmm3
- .byte 233,196,254,255,255 // jmp 2ccd <_sk_load_tables_sse2+0x2b>
+ .byte 233,196,254,255,255 // jmp 2d15 <_sk_load_tables_sse2+0x2b>
.byte 102,15,110,28,187 // movd (%ebx,%edi,4),%xmm3
- .byte 233,186,254,255,255 // jmp 2ccd <_sk_load_tables_sse2+0x2b>
+ .byte 233,186,254,255,255 // jmp 2d15 <_sk_load_tables_sse2+0x2b>
HIDDEN _sk_load_tables_u16_be_sse2
.globl _sk_load_tables_u16_be_sse2
@@ -63181,7 +63747,7 @@ _sk_load_tables_u16_be_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,44 // sub $0x2c,%esp
- .byte 232,0,0,0,0 // call 2e21 <_sk_load_tables_u16_be_sse2+0xe>
+ .byte 232,0,0,0,0 // call 2e69 <_sk_load_tables_u16_be_sse2+0xe>
.byte 90 // pop %edx
.byte 139,117,12 // mov 0xc(%ebp),%esi
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -63191,7 +63757,7 @@ _sk_load_tables_u16_be_sse2:
.byte 133,192 // test %eax,%eax
.byte 139,54 // mov (%esi),%esi
.byte 139,30 // mov (%esi),%ebx
- .byte 15,133,210,1,0,0 // jne 300e <_sk_load_tables_u16_be_sse2+0x1fb>
+ .byte 15,133,210,1,0,0 // jne 3056 <_sk_load_tables_u16_be_sse2+0x1fb>
.byte 102,15,16,4,123 // movupd (%ebx,%edi,2),%xmm0
.byte 243,15,111,76,123,16 // movdqu 0x10(%ebx,%edi,2),%xmm1
.byte 102,15,40,216 // movapd %xmm0,%xmm3
@@ -63217,7 +63783,7 @@ _sk_load_tables_u16_be_sse2:
.byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
.byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,127,205,0,0 // movdqa 0xcd7f(%edx),%xmm2
+ .byte 102,15,111,146,39,207,0,0 // movdqa 0xcf27(%edx),%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,97,196 // punpcklwd %xmm4,%xmm0
@@ -63289,7 +63855,7 @@ _sk_load_tables_u16_be_sse2:
.byte 243,15,126,93,232 // movq -0x18(%ebp),%xmm3
.byte 102,15,97,220 // punpcklwd %xmm4,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,143,205,0,0 // mulps 0xcd8f(%edx),%xmm3
+ .byte 15,89,154,55,207,0,0 // mulps 0xcf37(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,194 // mov %eax,%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -63306,12 +63872,12 @@ _sk_load_tables_u16_be_sse2:
.byte 242,15,16,4,123 // movsd (%ebx,%edi,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,248,1 // cmp $0x1,%eax
- .byte 15,132,39,254,255,255 // je 2e47 <_sk_load_tables_u16_be_sse2+0x34>
+ .byte 15,132,39,254,255,255 // je 2e8f <_sk_load_tables_u16_be_sse2+0x34>
.byte 102,15,22,68,123,8 // movhpd 0x8(%ebx,%edi,2),%xmm0
.byte 131,248,3 // cmp $0x3,%eax
- .byte 15,130,24,254,255,255 // jb 2e47 <_sk_load_tables_u16_be_sse2+0x34>
+ .byte 15,130,24,254,255,255 // jb 2e8f <_sk_load_tables_u16_be_sse2+0x34>
.byte 243,15,126,76,123,16 // movq 0x10(%ebx,%edi,2),%xmm1
- .byte 233,13,254,255,255 // jmp 2e47 <_sk_load_tables_u16_be_sse2+0x34>
+ .byte 233,13,254,255,255 // jmp 2e8f <_sk_load_tables_u16_be_sse2+0x34>
HIDDEN _sk_load_tables_rgb_u16_be_sse2
.globl _sk_load_tables_rgb_u16_be_sse2
@@ -63323,7 +63889,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,28 // sub $0x1c,%esp
- .byte 232,0,0,0,0 // call 3048 <_sk_load_tables_rgb_u16_be_sse2+0xe>
+ .byte 232,0,0,0,0 // call 3090 <_sk_load_tables_rgb_u16_be_sse2+0xe>
.byte 90 // pop %edx
.byte 139,117,12 // mov 0xc(%ebp),%esi
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -63332,7 +63898,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 133,192 // test %eax,%eax
.byte 139,54 // mov (%esi),%esi
.byte 139,30 // mov (%esi),%ebx
- .byte 15,133,179,1,0,0 // jne 3214 <_sk_load_tables_rgb_u16_be_sse2+0x1da>
+ .byte 15,133,179,1,0,0 // jne 325c <_sk_load_tables_rgb_u16_be_sse2+0x1da>
.byte 243,15,111,4,123 // movdqu (%ebx,%edi,2),%xmm0
.byte 243,15,111,92,123,8 // movdqu 0x8(%ebx,%edi,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -63362,7 +63928,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 242,15,112,194,232 // pshuflw $0xe8,%xmm2,%xmm0
.byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,88,203,0,0 // movdqa 0xcb58(%edx),%xmm2
+ .byte 102,15,111,146,0,205,0,0 // movdqa 0xcd00(%edx),%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
@@ -63427,7 +63993,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 137,198 // mov %eax,%esi
.byte 141,70,8 // lea 0x8(%esi),%eax
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,232,200,0,0 // movaps 0xc8e8(%edx),%xmm3
+ .byte 15,40,154,144,202,0,0 // movaps 0xca90(%edx),%xmm3
.byte 80 // push %eax
.byte 81 // push %ecx
.byte 255,86,4 // call *0x4(%esi)
@@ -63441,20 +64007,20 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,196,68,123,4,2 // pinsrw $0x2,0x4(%ebx,%edi,2),%xmm0
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 131,248,1 // cmp $0x1,%eax
- .byte 117,13 // jne 3236 <_sk_load_tables_rgb_u16_be_sse2+0x1fc>
+ .byte 117,13 // jne 327e <_sk_load_tables_rgb_u16_be_sse2+0x1fc>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,77,254,255,255 // jmp 3083 <_sk_load_tables_rgb_u16_be_sse2+0x49>
+ .byte 233,77,254,255,255 // jmp 30cb <_sk_load_tables_rgb_u16_be_sse2+0x49>
.byte 102,15,110,76,123,6 // movd 0x6(%ebx,%edi,2),%xmm1
.byte 102,15,196,76,123,10,2 // pinsrw $0x2,0xa(%ebx,%edi,2),%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 131,248,3 // cmp $0x3,%eax
- .byte 114,18 // jb 325e <_sk_load_tables_rgb_u16_be_sse2+0x224>
+ .byte 114,18 // jb 32a6 <_sk_load_tables_rgb_u16_be_sse2+0x224>
.byte 102,15,110,92,123,12 // movd 0xc(%ebx,%edi,2),%xmm3
.byte 102,15,196,92,123,16,2 // pinsrw $0x2,0x10(%ebx,%edi,2),%xmm3
- .byte 233,37,254,255,255 // jmp 3083 <_sk_load_tables_rgb_u16_be_sse2+0x49>
+ .byte 233,37,254,255,255 // jmp 30cb <_sk_load_tables_rgb_u16_be_sse2+0x49>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,28,254,255,255 // jmp 3083 <_sk_load_tables_rgb_u16_be_sse2+0x49>
+ .byte 233,28,254,255,255 // jmp 30cb <_sk_load_tables_rgb_u16_be_sse2+0x49>
HIDDEN _sk_byte_tables_sse2
.globl _sk_byte_tables_sse2
@@ -63466,108 +64032,121 @@ _sk_byte_tables_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 3275 <_sk_byte_tables_sse2+0xe>
- .byte 90 // pop %edx
+ .byte 232,0,0,0,0 // call 32bd <_sk_byte_tables_sse2+0xe>
+ .byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 15,40,162,139,199,0,0 // movaps 0xc78b(%edx),%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
- .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
- .byte 102,15,126,238 // movd %xmm5,%esi
- .byte 102,15,112,232,231 // pshufd $0xe7,%xmm0,%xmm5
- .byte 139,57 // mov (%ecx),%edi
+ .byte 139,16 // mov (%eax),%edx
+ .byte 15,87,237 // xorps %xmm5,%xmm5
+ .byte 15,95,232 // maxps %xmm0,%xmm5
+ .byte 15,40,129,99,200,0,0 // movaps 0xc863(%ecx),%xmm0
+ .byte 15,93,232 // minps %xmm0,%xmm5
+ .byte 15,40,161,51,201,0,0 // movaps 0xc933(%ecx),%xmm4
+ .byte 15,89,236 // mulps %xmm4,%xmm5
+ .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
+ .byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
+ .byte 102,15,126,246 // movd %xmm6,%esi
+ .byte 102,15,112,245,231 // pshufd $0xe7,%xmm5,%xmm6
+ .byte 139,58 // mov (%edx),%edi
.byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
- .byte 102,15,126,235 // movd %xmm5,%ebx
+ .byte 102,15,126,243 // movd %xmm6,%ebx
.byte 15,182,28,31 // movzbl (%edi,%ebx,1),%ebx
.byte 193,227,8 // shl $0x8,%ebx
.byte 9,243 // or %esi,%ebx
- .byte 102,15,112,232,229 // pshufd $0xe5,%xmm0,%xmm5
- .byte 102,15,126,198 // movd %xmm0,%esi
+ .byte 102,15,112,245,229 // pshufd $0xe5,%xmm5,%xmm6
+ .byte 102,15,126,238 // movd %xmm5,%esi
.byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
- .byte 102,15,126,232 // movd %xmm5,%eax
+ .byte 102,15,126,240 // movd %xmm6,%eax
.byte 15,182,4,7 // movzbl (%edi,%eax,1),%eax
.byte 193,224,8 // shl $0x8,%eax
.byte 9,240 // or %esi,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 139,65,4 // mov 0x4(%ecx),%eax
- .byte 102,15,196,195,1 // pinsrw $0x1,%ebx,%xmm0
- .byte 15,40,170,187,200,0,0 // movaps 0xc8bb(%edx),%xmm5
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
+ .byte 102,15,110,232 // movd %eax,%xmm5
+ .byte 139,66,4 // mov 0x4(%edx),%eax
+ .byte 102,15,196,235,1 // pinsrw $0x1,%ebx,%xmm5
+ .byte 102,15,239,246 // pxor %xmm6,%xmm6
+ .byte 15,95,241 // maxps %xmm1,%xmm6
+ .byte 15,93,240 // minps %xmm0,%xmm6
+ .byte 15,89,244 // mulps %xmm4,%xmm6
+ .byte 102,15,91,206 // cvtps2dq %xmm6,%xmm1
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
- .byte 102,15,126,242 // movd %xmm6,%edx
- .byte 102,15,112,241,231 // pshufd $0xe7,%xmm1,%xmm6
.byte 102,15,126,246 // movd %xmm6,%esi
- .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx
+ .byte 102,15,112,241,231 // pshufd $0xe7,%xmm1,%xmm6
.byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi
- .byte 193,230,8 // shl $0x8,%esi
- .byte 9,214 // or %edx,%esi
- .byte 102,15,126,202 // movd %xmm1,%edx
- .byte 102,15,112,201,229 // pshufd $0xe5,%xmm1,%xmm1
- .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 15,182,4,56 // movzbl (%eax,%edi,1),%eax
+ .byte 102,15,126,247 // movd %xmm6,%edi
+ .byte 15,182,60,56 // movzbl (%eax,%edi,1),%edi
+ .byte 193,231,8 // shl $0x8,%edi
+ .byte 9,247 // or %esi,%edi
+ .byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6
+ .byte 102,15,126,206 // movd %xmm1,%esi
+ .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi
+ .byte 102,15,126,243 // movd %xmm6,%ebx
+ .byte 15,182,4,24 // movzbl (%eax,%ebx,1),%eax
.byte 193,224,8 // shl $0x8,%eax
- .byte 9,208 // or %edx,%eax
+ .byte 9,240 // or %esi,%eax
.byte 102,15,110,200 // movd %eax,%xmm1
- .byte 102,15,196,206,1 // pinsrw $0x1,%esi,%xmm1
- .byte 139,65,8 // mov 0x8(%ecx),%eax
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
+ .byte 102,15,196,207,1 // pinsrw $0x1,%edi,%xmm1
+ .byte 139,66,8 // mov 0x8(%edx),%eax
+ .byte 102,15,239,246 // pxor %xmm6,%xmm6
+ .byte 15,95,242 // maxps %xmm2,%xmm6
+ .byte 15,93,240 // minps %xmm0,%xmm6
+ .byte 15,89,244 // mulps %xmm4,%xmm6
+ .byte 102,15,91,214 // cvtps2dq %xmm6,%xmm2
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
- .byte 102,15,126,242 // movd %xmm6,%edx
- .byte 102,15,112,242,231 // pshufd $0xe7,%xmm2,%xmm6
.byte 102,15,126,246 // movd %xmm6,%esi
+ .byte 102,15,112,242,231 // pshufd $0xe7,%xmm2,%xmm6
+ .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi
+ .byte 102,15,126,247 // movd %xmm6,%edi
+ .byte 15,182,60,56 // movzbl (%eax,%edi,1),%edi
+ .byte 193,231,8 // shl $0x8,%edi
+ .byte 9,247 // or %esi,%edi
+ .byte 102,15,112,242,229 // pshufd $0xe5,%xmm2,%xmm6
+ .byte 102,15,126,214 // movd %xmm2,%esi
+ .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi
+ .byte 102,15,126,243 // movd %xmm6,%ebx
+ .byte 15,182,4,24 // movzbl (%eax,%ebx,1),%eax
+ .byte 193,224,8 // shl $0x8,%eax
+ .byte 9,240 // or %esi,%eax
+ .byte 102,15,87,210 // xorpd %xmm2,%xmm2
+ .byte 15,95,211 // maxps %xmm3,%xmm2
+ .byte 15,93,208 // minps %xmm0,%xmm2
+ .byte 102,15,110,216 // movd %eax,%xmm3
+ .byte 102,15,196,223,1 // pinsrw $0x1,%edi,%xmm3
+ .byte 139,66,12 // mov 0xc(%edx),%eax
+ .byte 15,89,212 // mulps %xmm4,%xmm2
+ .byte 102,15,91,194 // cvtps2dq %xmm2,%xmm0
+ .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
+ .byte 102,15,126,210 // movd %xmm2,%edx
+ .byte 102,15,112,208,231 // pshufd $0xe7,%xmm0,%xmm2
+ .byte 102,15,126,214 // movd %xmm2,%esi
.byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx
.byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi
.byte 193,230,8 // shl $0x8,%esi
.byte 9,214 // or %edx,%esi
- .byte 102,15,126,210 // movd %xmm2,%edx
- .byte 102,15,112,210,229 // pshufd $0xe5,%xmm2,%xmm2
+ .byte 102,15,126,194 // movd %xmm0,%edx
+ .byte 102,15,112,192,229 // pshufd $0xe5,%xmm0,%xmm0
.byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx
- .byte 102,15,126,215 // movd %xmm2,%edi
+ .byte 102,15,126,199 // movd %xmm0,%edi
.byte 15,182,4,56 // movzbl (%eax,%edi,1),%eax
.byte 193,224,8 // shl $0x8,%eax
.byte 9,208 // or %edx,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 102,15,196,214,1 // pinsrw $0x1,%esi,%xmm2
- .byte 139,65,12 // mov 0xc(%ecx),%eax
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3
- .byte 102,15,126,217 // movd %xmm3,%ecx
- .byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4
- .byte 102,15,112,243,78 // pshufd $0x4e,%xmm3,%xmm6
- .byte 102,15,126,242 // movd %xmm6,%edx
- .byte 102,15,112,219,231 // pshufd $0xe7,%xmm3,%xmm3
- .byte 102,15,126,222 // movd %xmm3,%esi
- .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx
- .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi
- .byte 193,230,8 // shl $0x8,%esi
- .byte 9,214 // or %edx,%esi
- .byte 102,15,126,226 // movd %xmm4,%edx
- .byte 15,182,12,8 // movzbl (%eax,%ecx,1),%ecx
- .byte 15,182,4,16 // movzbl (%eax,%edx,1),%eax
- .byte 193,224,8 // shl $0x8,%eax
- .byte 9,200 // or %ecx,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,96,196 // punpcklbw %xmm4,%xmm0
- .byte 102,15,97,196 // punpcklwd %xmm4,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 102,15,110,224 // movd %eax,%xmm4
+ .byte 102,15,196,230,1 // pinsrw $0x1,%esi,%xmm4
+ .byte 102,15,239,210 // pxor %xmm2,%xmm2
+ .byte 102,15,96,234 // punpcklbw %xmm2,%xmm5
+ .byte 102,15,97,234 // punpcklwd %xmm2,%xmm5
+ .byte 15,91,197 // cvtdq2ps %xmm5,%xmm0
+ .byte 102,15,96,202 // punpcklbw %xmm2,%xmm1
+ .byte 102,15,97,202 // punpcklwd %xmm2,%xmm1
+ .byte 102,15,96,218 // punpcklbw %xmm2,%xmm3
+ .byte 102,15,97,218 // punpcklwd %xmm2,%xmm3
+ .byte 102,15,96,226 // punpcklbw %xmm2,%xmm4
+ .byte 102,15,97,226 // punpcklwd %xmm2,%xmm4
+ .byte 15,40,169,99,202,0,0 // movaps 0xca63(%ecx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 102,15,96,204 // punpcklbw %xmm4,%xmm1
- .byte 102,15,97,204 // punpcklwd %xmm4,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 102,15,96,212 // punpcklbw %xmm4,%xmm2
- .byte 102,15,97,212 // punpcklwd %xmm4,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
+ .byte 15,91,211 // cvtdq2ps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 102,15,196,222,1 // pinsrw $0x1,%esi,%xmm3
- .byte 102,15,96,220 // punpcklbw %xmm4,%xmm3
- .byte 102,15,97,220 // punpcklwd %xmm4,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
+ .byte 15,91,220 // cvtdq2ps %xmm4,%xmm3
.byte 15,89,221 // mulps %xmm5,%xmm3
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,65,8 // lea 0x8(%ecx),%eax
@@ -63592,94 +64171,105 @@ _sk_byte_tables_rgb_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 3490 <_sk_byte_tables_rgb_sse2+0xe>
+ .byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,81,12 // mov 0xc(%ecx),%edx
- .byte 74 // dec %edx
- .byte 102,15,110,226 // movd %edx,%xmm4
+ .byte 139,16 // mov (%eax),%edx
+ .byte 139,114,12 // mov 0xc(%edx),%esi
+ .byte 78 // dec %esi
+ .byte 102,15,110,230 // movd %esi,%xmm4
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
- .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
- .byte 102,15,126,234 // movd %xmm5,%edx
- .byte 102,15,112,232,231 // pshufd $0xe7,%xmm0,%xmm5
+ .byte 15,87,237 // xorps %xmm5,%xmm5
+ .byte 15,95,232 // maxps %xmm0,%xmm5
+ .byte 15,40,129,144,198,0,0 // movaps 0xc690(%ecx),%xmm0
+ .byte 15,93,232 // minps %xmm0,%xmm5
+ .byte 15,89,236 // mulps %xmm4,%xmm5
+ .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
+ .byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
+ .byte 102,15,126,246 // movd %xmm6,%esi
+ .byte 102,15,112,245,231 // pshufd $0xe7,%xmm5,%xmm6
+ .byte 139,58 // mov (%edx),%edi
+ .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
+ .byte 102,15,126,243 // movd %xmm6,%ebx
+ .byte 15,182,28,31 // movzbl (%edi,%ebx,1),%ebx
+ .byte 193,227,8 // shl $0x8,%ebx
+ .byte 9,243 // or %esi,%ebx
+ .byte 102,15,112,245,229 // pshufd $0xe5,%xmm5,%xmm6
.byte 102,15,126,238 // movd %xmm5,%esi
- .byte 139,57 // mov (%ecx),%edi
- .byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx
.byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
- .byte 193,230,8 // shl $0x8,%esi
- .byte 9,214 // or %edx,%esi
- .byte 102,15,126,194 // movd %xmm0,%edx
- .byte 102,15,112,192,229 // pshufd $0xe5,%xmm0,%xmm0
- .byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 15,182,60,31 // movzbl (%edi,%ebx,1),%edi
- .byte 193,231,8 // shl $0x8,%edi
- .byte 9,215 // or %edx,%edi
- .byte 232,0,0,0,0 // call 3471 <_sk_byte_tables_rgb_sse2+0x65>
- .byte 90 // pop %edx
- .byte 102,15,110,199 // movd %edi,%xmm0
- .byte 139,121,4 // mov 0x4(%ecx),%edi
- .byte 102,15,196,198,1 // pinsrw $0x1,%esi,%xmm0
- .byte 15,40,170,191,198,0,0 // movaps 0xc6bf(%edx),%xmm5
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
+ .byte 102,15,126,240 // movd %xmm6,%eax
+ .byte 15,182,4,7 // movzbl (%edi,%eax,1),%eax
+ .byte 193,224,8 // shl $0x8,%eax
+ .byte 9,240 // or %esi,%eax
+ .byte 102,15,110,232 // movd %eax,%xmm5
+ .byte 139,66,4 // mov 0x4(%edx),%eax
+ .byte 102,15,196,235,1 // pinsrw $0x1,%ebx,%xmm5
+ .byte 102,15,239,246 // pxor %xmm6,%xmm6
+ .byte 15,95,241 // maxps %xmm1,%xmm6
+ .byte 15,93,240 // minps %xmm0,%xmm6
+ .byte 15,89,244 // mulps %xmm4,%xmm6
+ .byte 102,15,91,206 // cvtps2dq %xmm6,%xmm1
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
- .byte 102,15,126,242 // movd %xmm6,%edx
- .byte 102,15,112,241,231 // pshufd $0xe7,%xmm1,%xmm6
- .byte 102,15,126,246 // movd %xmm6,%esi
- .byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx
- .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
- .byte 193,230,8 // shl $0x8,%esi
- .byte 9,214 // or %edx,%esi
- .byte 102,15,126,202 // movd %xmm1,%edx
- .byte 102,15,112,201,229 // pshufd $0xe5,%xmm1,%xmm1
- .byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx
- .byte 102,15,126,203 // movd %xmm1,%ebx
- .byte 15,182,60,31 // movzbl (%edi,%ebx,1),%edi
- .byte 193,231,8 // shl $0x8,%edi
- .byte 9,215 // or %edx,%edi
- .byte 102,15,110,207 // movd %edi,%xmm1
- .byte 102,15,196,206,1 // pinsrw $0x1,%esi,%xmm1
- .byte 139,73,8 // mov 0x8(%ecx),%ecx
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
- .byte 102,15,126,210 // movd %xmm2,%edx
- .byte 102,15,112,226,229 // pshufd $0xe5,%xmm2,%xmm4
- .byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,15,126,246 // movd %xmm6,%esi
- .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2
- .byte 102,15,126,215 // movd %xmm2,%edi
- .byte 15,182,52,49 // movzbl (%ecx,%esi,1),%esi
- .byte 15,182,60,57 // movzbl (%ecx,%edi,1),%edi
+ .byte 102,15,112,241,231 // pshufd $0xe7,%xmm1,%xmm6
+ .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi
+ .byte 102,15,126,247 // movd %xmm6,%edi
+ .byte 15,182,60,56 // movzbl (%eax,%edi,1),%edi
.byte 193,231,8 // shl $0x8,%edi
.byte 9,247 // or %esi,%edi
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 15,182,20,17 // movzbl (%ecx,%edx,1),%edx
- .byte 15,182,12,49 // movzbl (%ecx,%esi,1),%ecx
- .byte 193,225,8 // shl $0x8,%ecx
- .byte 9,209 // or %edx,%ecx
- .byte 102,15,110,209 // movd %ecx,%xmm2
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,96,196 // punpcklbw %xmm4,%xmm0
- .byte 102,15,97,196 // punpcklwd %xmm4,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6
+ .byte 102,15,126,206 // movd %xmm1,%esi
+ .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi
+ .byte 102,15,126,243 // movd %xmm6,%ebx
+ .byte 15,182,4,24 // movzbl (%eax,%ebx,1),%eax
+ .byte 193,224,8 // shl $0x8,%eax
+ .byte 9,240 // or %esi,%eax
+ .byte 102,15,87,201 // xorpd %xmm1,%xmm1
+ .byte 15,95,202 // maxps %xmm2,%xmm1
+ .byte 15,93,200 // minps %xmm0,%xmm1
+ .byte 102,15,110,208 // movd %eax,%xmm2
+ .byte 102,15,196,215,1 // pinsrw $0x1,%edi,%xmm2
+ .byte 139,66,8 // mov 0x8(%edx),%eax
+ .byte 15,89,204 // mulps %xmm4,%xmm1
+ .byte 102,15,91,193 // cvtps2dq %xmm1,%xmm0
+ .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
+ .byte 102,15,126,202 // movd %xmm1,%edx
+ .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1
+ .byte 102,15,126,206 // movd %xmm1,%esi
+ .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx
+ .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi
+ .byte 193,230,8 // shl $0x8,%esi
+ .byte 9,214 // or %edx,%esi
+ .byte 102,15,126,194 // movd %xmm0,%edx
+ .byte 102,15,112,192,229 // pshufd $0xe5,%xmm0,%xmm0
+ .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx
+ .byte 102,15,126,199 // movd %xmm0,%edi
+ .byte 15,182,4,56 // movzbl (%eax,%edi,1),%eax
+ .byte 193,224,8 // shl $0x8,%eax
+ .byte 9,208 // or %edx,%eax
+ .byte 102,15,110,224 // movd %eax,%xmm4
+ .byte 102,15,196,230,1 // pinsrw $0x1,%esi,%xmm4
+ .byte 102,15,239,201 // pxor %xmm1,%xmm1
+ .byte 102,15,96,233 // punpcklbw %xmm1,%xmm5
+ .byte 102,15,97,233 // punpcklwd %xmm1,%xmm5
+ .byte 15,91,197 // cvtdq2ps %xmm5,%xmm0
+ .byte 102,15,96,209 // punpcklbw %xmm1,%xmm2
+ .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
+ .byte 102,15,96,225 // punpcklbw %xmm1,%xmm4
+ .byte 102,15,97,225 // punpcklwd %xmm1,%xmm4
+ .byte 15,40,169,144,200,0,0 // movaps 0xc890(%ecx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 102,15,96,204 // punpcklbw %xmm4,%xmm1
- .byte 102,15,97,204 // punpcklwd %xmm4,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 15,91,202 // cvtdq2ps %xmm2,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 102,15,196,215,1 // pinsrw $0x1,%edi,%xmm2
- .byte 102,15,96,212 // punpcklbw %xmm4,%xmm2
- .byte 102,15,97,212 // punpcklwd %xmm4,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
+ .byte 15,91,212 // cvtdq2ps %xmm4,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 141,65,8 // lea 0x8(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
+ .byte 80 // push %eax
.byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
+ .byte 255,81,4 // call *0x4(%ecx)
.byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
@@ -63696,25 +64286,30 @@ _sk_table_r_sse2:
.byte 131,236,8 // sub $0x8,%esp
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
- .byte 139,17 // mov (%ecx),%edx
- .byte 139,73,4 // mov 0x4(%ecx),%ecx
- .byte 73 // dec %ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
+ .byte 139,81,4 // mov 0x4(%ecx),%edx
+ .byte 74 // dec %edx
+ .byte 102,15,110,226 // movd %edx,%xmm4
+ .byte 232,0,0,0,0 // call 3612 <_sk_table_r_sse2+0x18>
+ .byte 90 // pop %edx
+ .byte 139,9 // mov (%ecx),%ecx
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 102,15,91,196 // cvtps2dq %xmm4,%xmm0
+ .byte 15,87,237 // xorps %xmm5,%xmm5
+ .byte 15,95,232 // maxps %xmm0,%xmm5
+ .byte 15,93,170,14,197,0,0 // minps 0xc50e(%edx),%xmm5
+ .byte 15,89,236 // mulps %xmm4,%xmm5
+ .byte 102,15,91,197 // cvtps2dq %xmm5,%xmm0
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,15,112,232,231 // pshufd $0xe7,%xmm0,%xmm5
- .byte 102,15,126,233 // movd %xmm5,%ecx
- .byte 243,15,16,44,138 // movss (%edx,%ecx,4),%xmm5
- .byte 102,15,126,225 // movd %xmm4,%ecx
- .byte 243,15,16,36,138 // movss (%edx,%ecx,4),%xmm4
- .byte 102,15,126,193 // movd %xmm0,%ecx
+ .byte 102,15,126,234 // movd %xmm5,%edx
+ .byte 243,15,16,44,145 // movss (%ecx,%edx,4),%xmm5
+ .byte 102,15,126,226 // movd %xmm4,%edx
+ .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4
+ .byte 102,15,126,194 // movd %xmm0,%edx
.byte 102,15,112,240,229 // pshufd $0xe5,%xmm0,%xmm6
- .byte 243,15,16,4,138 // movss (%edx,%ecx,4),%xmm0
- .byte 102,15,126,241 // movd %xmm6,%ecx
- .byte 243,15,16,52,138 // movss (%edx,%ecx,4),%xmm6
+ .byte 243,15,16,4,145 // movss (%ecx,%edx,4),%xmm0
+ .byte 102,15,126,242 // movd %xmm6,%edx
+ .byte 243,15,16,52,145 // movss (%ecx,%edx,4),%xmm6
.byte 15,20,229 // unpcklps %xmm5,%xmm4
.byte 15,20,198 // unpcklps %xmm6,%xmm0
.byte 102,15,20,196 // unpcklpd %xmm4,%xmm0
@@ -63736,25 +64331,30 @@ _sk_table_g_sse2:
.byte 131,236,8 // sub $0x8,%esp
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
- .byte 139,17 // mov (%ecx),%edx
- .byte 139,73,4 // mov 0x4(%ecx),%ecx
- .byte 73 // dec %ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
+ .byte 139,81,4 // mov 0x4(%ecx),%edx
+ .byte 74 // dec %edx
+ .byte 102,15,110,226 // movd %edx,%xmm4
+ .byte 232,0,0,0,0 // call 3698 <_sk_table_g_sse2+0x18>
+ .byte 90 // pop %edx
+ .byte 139,9 // mov (%ecx),%ecx
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 102,15,91,204 // cvtps2dq %xmm4,%xmm1
+ .byte 15,87,237 // xorps %xmm5,%xmm5
+ .byte 15,95,233 // maxps %xmm1,%xmm5
+ .byte 15,93,170,136,196,0,0 // minps 0xc488(%edx),%xmm5
+ .byte 15,89,236 // mulps %xmm4,%xmm5
+ .byte 102,15,91,205 // cvtps2dq %xmm5,%xmm1
.byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
.byte 102,15,112,233,231 // pshufd $0xe7,%xmm1,%xmm5
- .byte 102,15,126,233 // movd %xmm5,%ecx
- .byte 243,15,16,44,138 // movss (%edx,%ecx,4),%xmm5
- .byte 102,15,126,225 // movd %xmm4,%ecx
- .byte 243,15,16,36,138 // movss (%edx,%ecx,4),%xmm4
- .byte 102,15,126,201 // movd %xmm1,%ecx
+ .byte 102,15,126,234 // movd %xmm5,%edx
+ .byte 243,15,16,44,145 // movss (%ecx,%edx,4),%xmm5
+ .byte 102,15,126,226 // movd %xmm4,%edx
+ .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4
+ .byte 102,15,126,202 // movd %xmm1,%edx
.byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6
- .byte 243,15,16,12,138 // movss (%edx,%ecx,4),%xmm1
- .byte 102,15,126,241 // movd %xmm6,%ecx
- .byte 243,15,16,52,138 // movss (%edx,%ecx,4),%xmm6
+ .byte 243,15,16,12,145 // movss (%ecx,%edx,4),%xmm1
+ .byte 102,15,126,242 // movd %xmm6,%edx
+ .byte 243,15,16,52,145 // movss (%ecx,%edx,4),%xmm6
.byte 15,20,229 // unpcklps %xmm5,%xmm4
.byte 15,20,206 // unpcklps %xmm6,%xmm1
.byte 102,15,20,204 // unpcklpd %xmm4,%xmm1
@@ -63776,25 +64376,30 @@ _sk_table_b_sse2:
.byte 131,236,8 // sub $0x8,%esp
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
- .byte 139,17 // mov (%ecx),%edx
- .byte 139,73,4 // mov 0x4(%ecx),%ecx
- .byte 73 // dec %ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
+ .byte 139,81,4 // mov 0x4(%ecx),%edx
+ .byte 74 // dec %edx
+ .byte 102,15,110,226 // movd %edx,%xmm4
+ .byte 232,0,0,0,0 // call 371e <_sk_table_b_sse2+0x18>
+ .byte 90 // pop %edx
+ .byte 139,9 // mov (%ecx),%ecx
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,226 // mulps %xmm2,%xmm4
- .byte 102,15,91,212 // cvtps2dq %xmm4,%xmm2
+ .byte 15,87,237 // xorps %xmm5,%xmm5
+ .byte 15,95,234 // maxps %xmm2,%xmm5
+ .byte 15,93,170,2,196,0,0 // minps 0xc402(%edx),%xmm5
+ .byte 15,89,236 // mulps %xmm4,%xmm5
+ .byte 102,15,91,213 // cvtps2dq %xmm5,%xmm2
.byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
.byte 102,15,112,234,231 // pshufd $0xe7,%xmm2,%xmm5
- .byte 102,15,126,233 // movd %xmm5,%ecx
- .byte 243,15,16,44,138 // movss (%edx,%ecx,4),%xmm5
- .byte 102,15,126,225 // movd %xmm4,%ecx
- .byte 243,15,16,36,138 // movss (%edx,%ecx,4),%xmm4
- .byte 102,15,126,209 // movd %xmm2,%ecx
+ .byte 102,15,126,234 // movd %xmm5,%edx
+ .byte 243,15,16,44,145 // movss (%ecx,%edx,4),%xmm5
+ .byte 102,15,126,226 // movd %xmm4,%edx
+ .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4
+ .byte 102,15,126,210 // movd %xmm2,%edx
.byte 102,15,112,242,229 // pshufd $0xe5,%xmm2,%xmm6
- .byte 243,15,16,20,138 // movss (%edx,%ecx,4),%xmm2
- .byte 102,15,126,241 // movd %xmm6,%ecx
- .byte 243,15,16,52,138 // movss (%edx,%ecx,4),%xmm6
+ .byte 243,15,16,20,145 // movss (%ecx,%edx,4),%xmm2
+ .byte 102,15,126,242 // movd %xmm6,%edx
+ .byte 243,15,16,52,145 // movss (%ecx,%edx,4),%xmm6
.byte 15,20,229 // unpcklps %xmm5,%xmm4
.byte 15,20,214 // unpcklps %xmm6,%xmm2
.byte 102,15,20,212 // unpcklpd %xmm4,%xmm2
@@ -63816,25 +64421,30 @@ _sk_table_a_sse2:
.byte 131,236,8 // sub $0x8,%esp
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
- .byte 139,17 // mov (%ecx),%edx
- .byte 139,73,4 // mov 0x4(%ecx),%ecx
- .byte 73 // dec %ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
+ .byte 139,81,4 // mov 0x4(%ecx),%edx
+ .byte 74 // dec %edx
+ .byte 102,15,110,226 // movd %edx,%xmm4
+ .byte 232,0,0,0,0 // call 37a4 <_sk_table_a_sse2+0x18>
+ .byte 90 // pop %edx
+ .byte 139,9 // mov (%ecx),%ecx
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 102,15,91,220 // cvtps2dq %xmm4,%xmm3
+ .byte 15,87,237 // xorps %xmm5,%xmm5
+ .byte 15,95,235 // maxps %xmm3,%xmm5
+ .byte 15,93,170,124,195,0,0 // minps 0xc37c(%edx),%xmm5
+ .byte 15,89,236 // mulps %xmm4,%xmm5
+ .byte 102,15,91,221 // cvtps2dq %xmm5,%xmm3
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
.byte 102,15,112,235,231 // pshufd $0xe7,%xmm3,%xmm5
- .byte 102,15,126,233 // movd %xmm5,%ecx
- .byte 243,15,16,44,138 // movss (%edx,%ecx,4),%xmm5
- .byte 102,15,126,225 // movd %xmm4,%ecx
- .byte 243,15,16,36,138 // movss (%edx,%ecx,4),%xmm4
- .byte 102,15,126,217 // movd %xmm3,%ecx
+ .byte 102,15,126,234 // movd %xmm5,%edx
+ .byte 243,15,16,44,145 // movss (%ecx,%edx,4),%xmm5
+ .byte 102,15,126,226 // movd %xmm4,%edx
+ .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4
+ .byte 102,15,126,218 // movd %xmm3,%edx
.byte 102,15,112,243,229 // pshufd $0xe5,%xmm3,%xmm6
- .byte 243,15,16,28,138 // movss (%edx,%ecx,4),%xmm3
- .byte 102,15,126,241 // movd %xmm6,%ecx
- .byte 243,15,16,52,138 // movss (%edx,%ecx,4),%xmm6
+ .byte 243,15,16,28,145 // movss (%ecx,%edx,4),%xmm3
+ .byte 102,15,126,242 // movd %xmm6,%edx
+ .byte 243,15,16,52,145 // movss (%ecx,%edx,4),%xmm6
.byte 15,20,229 // unpcklps %xmm5,%xmm4
.byte 15,20,222 // unpcklps %xmm6,%xmm3
.byte 102,15,20,220 // unpcklpd %xmm4,%xmm3
@@ -63858,7 +64468,7 @@ _sk_parametric_r_sse2:
.byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
.byte 15,40,217 // movaps %xmm1,%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 3742 <_sk_parametric_r_sse2+0x19>
+ .byte 232,0,0,0,0 // call 382b <_sk_parametric_r_sse2+0x19>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -63878,16 +64488,16 @@ _sk_parametric_r_sse2:
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,88,238 // addps %xmm6,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,126,196,0,0 // mulps 0xc47e(%edx),%xmm6
- .byte 15,40,186,142,196,0,0 // movaps 0xc48e(%edx),%xmm7
+ .byte 15,89,178,133,197,0,0 // mulps 0xc585(%edx),%xmm6
+ .byte 15,40,186,149,197,0,0 // movaps 0xc595(%edx),%xmm7
.byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,222,193,0,0 // orps 0xc1de(%edx),%xmm7
- .byte 15,88,178,158,196,0,0 // addps 0xc49e(%edx),%xmm6
- .byte 15,40,162,174,196,0,0 // movaps 0xc4ae(%edx),%xmm4
+ .byte 15,86,186,229,194,0,0 // orps 0xc2e5(%edx),%xmm7
+ .byte 15,88,178,165,197,0,0 // addps 0xc5a5(%edx),%xmm6
+ .byte 15,40,162,181,197,0,0 // movaps 0xc5b5(%edx),%xmm4
.byte 15,89,231 // mulps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,190,196,0,0 // addps 0xc4be(%edx),%xmm7
- .byte 15,40,162,206,196,0,0 // movaps 0xc4ce(%edx),%xmm4
+ .byte 15,88,186,197,197,0,0 // addps 0xc5c5(%edx),%xmm7
+ .byte 15,40,162,213,197,0,0 // movaps 0xc5d5(%edx),%xmm4
.byte 15,94,231 // divps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
.byte 243,15,16,33 // movss (%ecx),%xmm4
@@ -63897,21 +64507,21 @@ _sk_parametric_r_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,238,193,0,0 // movaps 0xc1ee(%edx),%xmm7
+ .byte 15,40,186,245,194,0,0 // movaps 0xc2f5(%edx),%xmm7
.byte 15,84,199 // andps %xmm7,%xmm0
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,222,196,0,0 // addps 0xc4de(%edx),%xmm6
- .byte 15,40,162,238,196,0,0 // movaps 0xc4ee(%edx),%xmm4
+ .byte 15,88,178,229,197,0,0 // addps 0xc5e5(%edx),%xmm6
+ .byte 15,40,162,245,197,0,0 // movaps 0xc5f5(%edx),%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,254,196,0,0 // movaps 0xc4fe(%edx),%xmm4
+ .byte 15,40,162,5,198,0,0 // movaps 0xc605(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,14,197,0,0 // movaps 0xc50e(%edx),%xmm0
+ .byte 15,40,130,21,198,0,0 // movaps 0xc615(%edx),%xmm0
.byte 15,94,196 // divps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,30,197,0,0 // mulps 0xc51e(%edx),%xmm0
+ .byte 15,89,130,37,198,0,0 // mulps 0xc625(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
@@ -63947,7 +64557,7 @@ _sk_parametric_g_sse2:
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
.byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
.byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 232,0,0,0,0 // call 3885 <_sk_parametric_g_sse2+0x16>
+ .byte 232,0,0,0,0 // call 396e <_sk_parametric_g_sse2+0x16>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -63967,16 +64577,16 @@ _sk_parametric_g_sse2:
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,88,238 // addps %xmm6,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,59,195,0,0 // mulps 0xc33b(%edx),%xmm6
- .byte 15,40,186,75,195,0,0 // movaps 0xc34b(%edx),%xmm7
+ .byte 15,89,178,66,196,0,0 // mulps 0xc442(%edx),%xmm6
+ .byte 15,40,186,82,196,0,0 // movaps 0xc452(%edx),%xmm7
.byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,155,192,0,0 // orps 0xc09b(%edx),%xmm7
- .byte 15,88,178,91,195,0,0 // addps 0xc35b(%edx),%xmm6
- .byte 15,40,162,107,195,0,0 // movaps 0xc36b(%edx),%xmm4
+ .byte 15,86,186,162,193,0,0 // orps 0xc1a2(%edx),%xmm7
+ .byte 15,88,178,98,196,0,0 // addps 0xc462(%edx),%xmm6
+ .byte 15,40,162,114,196,0,0 // movaps 0xc472(%edx),%xmm4
.byte 15,89,231 // mulps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,123,195,0,0 // addps 0xc37b(%edx),%xmm7
- .byte 15,40,162,139,195,0,0 // movaps 0xc38b(%edx),%xmm4
+ .byte 15,88,186,130,196,0,0 // addps 0xc482(%edx),%xmm7
+ .byte 15,40,162,146,196,0,0 // movaps 0xc492(%edx),%xmm4
.byte 15,94,231 // divps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
.byte 243,15,16,33 // movss (%ecx),%xmm4
@@ -63986,21 +64596,21 @@ _sk_parametric_g_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,171,192,0,0 // movaps 0xc0ab(%edx),%xmm7
+ .byte 15,40,186,178,193,0,0 // movaps 0xc1b2(%edx),%xmm7
.byte 15,84,199 // andps %xmm7,%xmm0
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,155,195,0,0 // addps 0xc39b(%edx),%xmm6
- .byte 15,40,162,171,195,0,0 // movaps 0xc3ab(%edx),%xmm4
+ .byte 15,88,178,162,196,0,0 // addps 0xc4a2(%edx),%xmm6
+ .byte 15,40,162,178,196,0,0 // movaps 0xc4b2(%edx),%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,187,195,0,0 // movaps 0xc3bb(%edx),%xmm4
+ .byte 15,40,162,194,196,0,0 // movaps 0xc4c2(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,203,195,0,0 // movaps 0xc3cb(%edx),%xmm0
+ .byte 15,40,130,210,196,0,0 // movaps 0xc4d2(%edx),%xmm0
.byte 15,94,196 // divps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,219,195,0,0 // mulps 0xc3db(%edx),%xmm0
+ .byte 15,89,130,226,196,0,0 // mulps 0xc4e2(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
@@ -64035,7 +64645,7 @@ _sk_parametric_b_sse2:
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
.byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
.byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 232,0,0,0,0 // call 39c5 <_sk_parametric_b_sse2+0x16>
+ .byte 232,0,0,0,0 // call 3aae <_sk_parametric_b_sse2+0x16>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -64055,16 +64665,16 @@ _sk_parametric_b_sse2:
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,88,238 // addps %xmm6,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,251,193,0,0 // mulps 0xc1fb(%edx),%xmm6
- .byte 15,40,186,11,194,0,0 // movaps 0xc20b(%edx),%xmm7
+ .byte 15,89,178,2,195,0,0 // mulps 0xc302(%edx),%xmm6
+ .byte 15,40,186,18,195,0,0 // movaps 0xc312(%edx),%xmm7
.byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,91,191,0,0 // orps 0xbf5b(%edx),%xmm7
- .byte 15,88,178,27,194,0,0 // addps 0xc21b(%edx),%xmm6
- .byte 15,40,162,43,194,0,0 // movaps 0xc22b(%edx),%xmm4
+ .byte 15,86,186,98,192,0,0 // orps 0xc062(%edx),%xmm7
+ .byte 15,88,178,34,195,0,0 // addps 0xc322(%edx),%xmm6
+ .byte 15,40,162,50,195,0,0 // movaps 0xc332(%edx),%xmm4
.byte 15,89,231 // mulps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,59,194,0,0 // addps 0xc23b(%edx),%xmm7
- .byte 15,40,162,75,194,0,0 // movaps 0xc24b(%edx),%xmm4
+ .byte 15,88,186,66,195,0,0 // addps 0xc342(%edx),%xmm7
+ .byte 15,40,162,82,195,0,0 // movaps 0xc352(%edx),%xmm4
.byte 15,94,231 // divps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
.byte 243,15,16,33 // movss (%ecx),%xmm4
@@ -64074,21 +64684,21 @@ _sk_parametric_b_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,107,191,0,0 // movaps 0xbf6b(%edx),%xmm7
+ .byte 15,40,186,114,192,0,0 // movaps 0xc072(%edx),%xmm7
.byte 15,84,199 // andps %xmm7,%xmm0
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,91,194,0,0 // addps 0xc25b(%edx),%xmm6
- .byte 15,40,162,107,194,0,0 // movaps 0xc26b(%edx),%xmm4
+ .byte 15,88,178,98,195,0,0 // addps 0xc362(%edx),%xmm6
+ .byte 15,40,162,114,195,0,0 // movaps 0xc372(%edx),%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,123,194,0,0 // movaps 0xc27b(%edx),%xmm4
+ .byte 15,40,162,130,195,0,0 // movaps 0xc382(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,139,194,0,0 // movaps 0xc28b(%edx),%xmm0
+ .byte 15,40,130,146,195,0,0 // movaps 0xc392(%edx),%xmm0
.byte 15,94,196 // divps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,155,194,0,0 // mulps 0xc29b(%edx),%xmm0
+ .byte 15,89,130,162,195,0,0 // mulps 0xc3a2(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
@@ -64123,7 +64733,7 @@ _sk_parametric_a_sse2:
.byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
.byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 3b05 <_sk_parametric_a_sse2+0x16>
+ .byte 232,0,0,0,0 // call 3bee <_sk_parametric_a_sse2+0x16>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -64143,16 +64753,16 @@ _sk_parametric_a_sse2:
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,88,238 // addps %xmm6,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,187,192,0,0 // mulps 0xc0bb(%edx),%xmm6
- .byte 15,40,186,203,192,0,0 // movaps 0xc0cb(%edx),%xmm7
+ .byte 15,89,178,194,193,0,0 // mulps 0xc1c2(%edx),%xmm6
+ .byte 15,40,186,210,193,0,0 // movaps 0xc1d2(%edx),%xmm7
.byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,27,190,0,0 // orps 0xbe1b(%edx),%xmm7
- .byte 15,88,178,219,192,0,0 // addps 0xc0db(%edx),%xmm6
- .byte 15,40,162,235,192,0,0 // movaps 0xc0eb(%edx),%xmm4
+ .byte 15,86,186,34,191,0,0 // orps 0xbf22(%edx),%xmm7
+ .byte 15,88,178,226,193,0,0 // addps 0xc1e2(%edx),%xmm6
+ .byte 15,40,162,242,193,0,0 // movaps 0xc1f2(%edx),%xmm4
.byte 15,89,231 // mulps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,251,192,0,0 // addps 0xc0fb(%edx),%xmm7
- .byte 15,40,162,11,193,0,0 // movaps 0xc10b(%edx),%xmm4
+ .byte 15,88,186,2,194,0,0 // addps 0xc202(%edx),%xmm7
+ .byte 15,40,162,18,194,0,0 // movaps 0xc212(%edx),%xmm4
.byte 15,94,231 // divps %xmm7,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
.byte 243,15,16,33 // movss (%ecx),%xmm4
@@ -64162,21 +64772,21 @@ _sk_parametric_a_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,43,190,0,0 // movaps 0xbe2b(%edx),%xmm7
+ .byte 15,40,186,50,191,0,0 // movaps 0xbf32(%edx),%xmm7
.byte 15,84,199 // andps %xmm7,%xmm0
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,27,193,0,0 // addps 0xc11b(%edx),%xmm6
- .byte 15,40,162,43,193,0,0 // movaps 0xc12b(%edx),%xmm4
+ .byte 15,88,178,34,194,0,0 // addps 0xc222(%edx),%xmm6
+ .byte 15,40,162,50,194,0,0 // movaps 0xc232(%edx),%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,59,193,0,0 // movaps 0xc13b(%edx),%xmm4
+ .byte 15,40,162,66,194,0,0 // movaps 0xc242(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,75,193,0,0 // movaps 0xc14b(%edx),%xmm0
+ .byte 15,40,130,82,194,0,0 // movaps 0xc252(%edx),%xmm0
.byte 15,94,196 // divps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,91,193,0,0 // mulps 0xc15b(%edx),%xmm0
+ .byte 15,89,130,98,194,0,0 // mulps 0xc262(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
@@ -64212,20 +64822,20 @@ _sk_gamma_sse2:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 3c4a <_sk_gamma_sse2+0x1b>
+ .byte 232,0,0,0,0 // call 3d33 <_sk_gamma_sse2+0x1b>
.byte 88 // pop %eax
.byte 15,91,232 // cvtdq2ps %xmm0,%xmm5
- .byte 15,89,168,118,191,0,0 // mulps 0xbf76(%eax),%xmm5
- .byte 15,40,160,134,191,0,0 // movaps 0xbf86(%eax),%xmm4
+ .byte 15,89,168,125,192,0,0 // mulps 0xc07d(%eax),%xmm5
+ .byte 15,40,160,141,192,0,0 // movaps 0xc08d(%eax),%xmm4
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,84,212 // andps %xmm4,%xmm2
- .byte 15,86,144,214,188,0,0 // orps 0xbcd6(%eax),%xmm2
- .byte 15,88,168,150,191,0,0 // addps 0xbf96(%eax),%xmm5
+ .byte 15,86,144,221,189,0,0 // orps 0xbddd(%eax),%xmm2
+ .byte 15,88,168,157,192,0,0 // addps 0xc09d(%eax),%xmm5
.byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,89,136,166,191,0,0 // mulps 0xbfa6(%eax),%xmm1
+ .byte 15,89,136,173,192,0,0 // mulps 0xc0ad(%eax),%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,88,144,182,191,0,0 // addps 0xbfb6(%eax),%xmm2
- .byte 15,40,136,198,191,0,0 // movaps 0xbfc6(%eax),%xmm1
+ .byte 15,88,144,189,192,0,0 // addps 0xc0bd(%eax),%xmm2
+ .byte 15,40,136,205,192,0,0 // movaps 0xc0cd(%eax),%xmm1
.byte 15,94,202 // divps %xmm2,%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -64238,32 +64848,32 @@ _sk_gamma_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,205 // movaps %xmm5,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,136,230,188,0,0 // andps 0xbce6(%eax),%xmm1
+ .byte 15,84,136,237,189,0,0 // andps 0xbded(%eax),%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,205 // movaps %xmm5,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,168,214,191,0,0 // addps 0xbfd6(%eax),%xmm5
- .byte 15,40,184,246,191,0,0 // movaps 0xbff6(%eax),%xmm7
+ .byte 15,88,168,221,192,0,0 // addps 0xc0dd(%eax),%xmm5
+ .byte 15,40,184,253,192,0,0 // movaps 0xc0fd(%eax),%xmm7
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,40,176,230,191,0,0 // movaps 0xbfe6(%eax),%xmm6
+ .byte 15,40,176,237,192,0,0 // movaps 0xc0ed(%eax),%xmm6
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,40,144,6,192,0,0 // movaps 0xc006(%eax),%xmm2
+ .byte 15,40,144,13,193,0,0 // movaps 0xc10d(%eax),%xmm2
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,94,216 // divps %xmm0,%xmm3
.byte 15,88,221 // addps %xmm5,%xmm3
.byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,128,118,191,0,0 // mulps 0xbf76(%eax),%xmm0
+ .byte 15,89,128,125,192,0,0 // mulps 0xc07d(%eax),%xmm0
.byte 15,84,204 // andps %xmm4,%xmm1
- .byte 15,86,136,214,188,0,0 // orps 0xbcd6(%eax),%xmm1
- .byte 15,88,128,150,191,0,0 // addps 0xbf96(%eax),%xmm0
+ .byte 15,86,136,221,189,0,0 // orps 0xbddd(%eax),%xmm1
+ .byte 15,88,128,157,192,0,0 // addps 0xc09d(%eax),%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,89,168,166,191,0,0 // mulps 0xbfa6(%eax),%xmm5
+ .byte 15,89,168,173,192,0,0 // mulps 0xc0ad(%eax),%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,88,136,182,191,0,0 // addps 0xbfb6(%eax),%xmm1
- .byte 15,40,168,198,191,0,0 // movaps 0xbfc6(%eax),%xmm5
+ .byte 15,88,136,189,192,0,0 // addps 0xc0bd(%eax),%xmm1
+ .byte 15,40,168,205,192,0,0 // movaps 0xc0cd(%eax),%xmm5
.byte 15,94,233 // divps %xmm1,%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,89,69,216 // mulps -0x28(%ebp),%xmm0
@@ -64271,11 +64881,11 @@ _sk_gamma_sse2:
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,194,233,1 // cmpltps %xmm1,%xmm5
- .byte 15,84,168,230,188,0,0 // andps 0xbce6(%eax),%xmm5
+ .byte 15,84,168,237,189,0,0 // andps 0xbded(%eax),%xmm5
.byte 15,92,205 // subps %xmm5,%xmm1
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,88,128,214,191,0,0 // addps 0xbfd6(%eax),%xmm0
+ .byte 15,88,128,221,192,0,0 // addps 0xc0dd(%eax),%xmm0
.byte 15,40,207 // movaps %xmm7,%xmm1
.byte 15,92,205 // subps %xmm5,%xmm1
.byte 15,89,238 // mulps %xmm6,%xmm5
@@ -64285,15 +64895,15 @@ _sk_gamma_sse2:
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,128,118,191,0,0 // mulps 0xbf76(%eax),%xmm0
+ .byte 15,89,128,125,192,0,0 // mulps 0xc07d(%eax),%xmm0
.byte 15,84,225 // andps %xmm1,%xmm4
- .byte 15,86,160,214,188,0,0 // orps 0xbcd6(%eax),%xmm4
- .byte 15,88,128,150,191,0,0 // addps 0xbf96(%eax),%xmm0
- .byte 15,40,136,166,191,0,0 // movaps 0xbfa6(%eax),%xmm1
+ .byte 15,86,160,221,189,0,0 // orps 0xbddd(%eax),%xmm4
+ .byte 15,88,128,157,192,0,0 // addps 0xc09d(%eax),%xmm0
+ .byte 15,40,136,173,192,0,0 // movaps 0xc0ad(%eax),%xmm1
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,88,160,182,191,0,0 // addps 0xbfb6(%eax),%xmm4
- .byte 15,40,136,198,191,0,0 // movaps 0xbfc6(%eax),%xmm1
+ .byte 15,88,160,189,192,0,0 // addps 0xc0bd(%eax),%xmm4
+ .byte 15,40,136,205,192,0,0 // movaps 0xc0cd(%eax),%xmm1
.byte 15,94,204 // divps %xmm4,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,89,69,216 // mulps -0x28(%ebp),%xmm0
@@ -64301,17 +64911,17 @@ _sk_gamma_sse2:
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,194,225,1 // cmpltps %xmm1,%xmm4
- .byte 15,84,160,230,188,0,0 // andps 0xbce6(%eax),%xmm4
+ .byte 15,84,160,237,189,0,0 // andps 0xbded(%eax),%xmm4
.byte 15,92,204 // subps %xmm4,%xmm1
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,225 // subps %xmm1,%xmm4
- .byte 15,88,128,214,191,0,0 // addps 0xbfd6(%eax),%xmm0
+ .byte 15,88,128,221,192,0,0 // addps 0xc0dd(%eax),%xmm0
.byte 15,89,244 // mulps %xmm4,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 15,92,252 // subps %xmm4,%xmm7
.byte 15,94,215 // divps %xmm7,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,40,128,22,192,0,0 // movaps 0xc016(%eax),%xmm0
+ .byte 15,40,128,29,193,0,0 // movaps 0xc11d(%eax),%xmm0
.byte 15,89,216 // mulps %xmm0,%xmm3
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 15,89,208 // mulps %xmm0,%xmm2
@@ -64352,32 +64962,32 @@ _sk_gamma_dst_sse2:
.byte 15,41,149,56,255,255,255 // movaps %xmm2,-0xc8(%ebp)
.byte 15,41,141,72,255,255,255 // movaps %xmm1,-0xb8(%ebp)
.byte 15,41,133,88,255,255,255 // movaps %xmm0,-0xa8(%ebp)
- .byte 232,0,0,0,0 // call 3e71 <_sk_gamma_dst_sse2+0x2b>
+ .byte 232,0,0,0,0 // call 3f5a <_sk_gamma_dst_sse2+0x2b>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,40,150,79,189,0,0 // movaps 0xbd4f(%esi),%xmm2
+ .byte 15,40,150,86,190,0,0 // movaps 0xbe56(%esi),%xmm2
.byte 15,41,149,104,255,255,255 // movaps %xmm2,-0x98(%ebp)
.byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,40,166,95,189,0,0 // movaps 0xbd5f(%esi),%xmm4
+ .byte 15,40,166,102,190,0,0 // movaps 0xbe66(%esi),%xmm4
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,84,212 // andps %xmm4,%xmm2
- .byte 15,40,158,175,186,0,0 // movaps 0xbaaf(%esi),%xmm3
+ .byte 15,40,158,182,187,0,0 // movaps 0xbbb6(%esi),%xmm3
.byte 15,41,157,120,255,255,255 // movaps %xmm3,-0x88(%ebp)
.byte 15,86,211 // orps %xmm3,%xmm2
- .byte 15,40,158,111,189,0,0 // movaps 0xbd6f(%esi),%xmm3
+ .byte 15,40,158,118,190,0,0 // movaps 0xbe76(%esi),%xmm3
.byte 15,41,93,136 // movaps %xmm3,-0x78(%ebp)
.byte 15,88,195 // addps %xmm3,%xmm0
- .byte 15,40,174,127,189,0,0 // movaps 0xbd7f(%esi),%xmm5
+ .byte 15,40,174,134,190,0,0 // movaps 0xbe86(%esi),%xmm5
.byte 15,41,109,152 // movaps %xmm5,-0x68(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,89,221 // mulps %xmm5,%xmm3
.byte 15,92,195 // subps %xmm3,%xmm0
- .byte 15,40,158,143,189,0,0 // movaps 0xbd8f(%esi),%xmm3
+ .byte 15,40,158,150,190,0,0 // movaps 0xbe96(%esi),%xmm3
.byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp)
.byte 15,88,211 // addps %xmm3,%xmm2
- .byte 15,40,158,159,189,0,0 // movaps 0xbd9f(%esi),%xmm3
+ .byte 15,40,158,166,190,0,0 // movaps 0xbea6(%esi),%xmm3
.byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,94,218 // divps %xmm2,%xmm3
.byte 15,92,195 // subps %xmm3,%xmm0
@@ -64390,27 +65000,27 @@ _sk_gamma_dst_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,194,218,1 // cmpltps %xmm2,%xmm3
- .byte 15,40,174,191,186,0,0 // movaps 0xbabf(%esi),%xmm5
+ .byte 15,40,174,198,187,0,0 // movaps 0xbbc6(%esi),%xmm5
.byte 15,41,109,200 // movaps %xmm5,-0x38(%ebp)
.byte 15,84,221 // andps %xmm5,%xmm3
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,92,218 // subps %xmm2,%xmm3
- .byte 15,40,150,175,189,0,0 // movaps 0xbdaf(%esi),%xmm2
+ .byte 15,40,150,182,190,0,0 // movaps 0xbeb6(%esi),%xmm2
.byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
.byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,40,190,207,189,0,0 // movaps 0xbdcf(%esi),%xmm7
+ .byte 15,40,190,214,190,0,0 // movaps 0xbed6(%esi),%xmm7
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,40,182,191,189,0,0 // movaps 0xbdbf(%esi),%xmm6
+ .byte 15,40,182,198,190,0,0 // movaps 0xbec6(%esi),%xmm6
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 15,40,158,223,189,0,0 // movaps 0xbddf(%esi),%xmm3
+ .byte 15,40,158,230,190,0,0 // movaps 0xbee6(%esi),%xmm3
.byte 15,40,211 // movaps %xmm3,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,40,134,239,189,0,0 // movaps 0xbdef(%esi),%xmm0
+ .byte 15,40,134,246,190,0,0 // movaps 0xbef6(%esi),%xmm0
.byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 102,15,91,194 // cvtps2dq %xmm2,%xmm0
@@ -64516,31 +65126,31 @@ _sk_lab_to_xyz_sse2:
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 40cd <_sk_lab_to_xyz_sse2+0x15>
+ .byte 232,0,0,0,0 // call 41b6 <_sk_lab_to_xyz_sse2+0x15>
.byte 88 // pop %eax
- .byte 15,89,144,163,187,0,0 // mulps 0xbba3(%eax),%xmm2
- .byte 15,40,160,51,185,0,0 // movaps 0xb933(%eax),%xmm4
+ .byte 15,89,144,170,188,0,0 // mulps 0xbcaa(%eax),%xmm2
+ .byte 15,40,160,58,186,0,0 // movaps 0xba3a(%eax),%xmm4
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,168,179,187,0,0 // movaps 0xbbb3(%eax),%xmm5
+ .byte 15,40,168,186,188,0,0 // movaps 0xbcba(%eax),%xmm5
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,89,220 // mulps %xmm4,%xmm3
.byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,88,144,195,187,0,0 // addps 0xbbc3(%eax),%xmm2
- .byte 15,89,144,211,187,0,0 // mulps 0xbbd3(%eax),%xmm2
- .byte 15,89,136,227,187,0,0 // mulps 0xbbe3(%eax),%xmm1
+ .byte 15,88,144,202,188,0,0 // addps 0xbcca(%eax),%xmm2
+ .byte 15,89,144,218,188,0,0 // mulps 0xbcda(%eax),%xmm2
+ .byte 15,89,136,234,188,0,0 // mulps 0xbcea(%eax),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,89,152,243,187,0,0 // mulps 0xbbf3(%eax),%xmm3
+ .byte 15,89,152,250,188,0,0 // mulps 0xbcfa(%eax),%xmm3
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,152,3,188,0,0 // movaps 0xbc03(%eax),%xmm3
+ .byte 15,40,152,10,189,0,0 // movaps 0xbd0a(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,194,224,1 // cmpltps %xmm0,%xmm4
- .byte 15,40,176,19,188,0,0 // movaps 0xbc13(%eax),%xmm6
+ .byte 15,40,176,26,189,0,0 // movaps 0xbd1a(%eax),%xmm6
.byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,184,35,188,0,0 // movaps 0xbc23(%eax),%xmm7
+ .byte 15,40,184,42,189,0,0 // movaps 0xbd2a(%eax),%xmm7
.byte 15,89,207 // mulps %xmm7,%xmm1
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,85,225 // andnps %xmm1,%xmm4
@@ -64565,8 +65175,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,85,221 // andnps %xmm5,%xmm3
.byte 15,86,216 // orps %xmm0,%xmm3
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,160,51,188,0,0 // mulps 0xbc33(%eax),%xmm4
- .byte 15,89,152,67,188,0,0 // mulps 0xbc43(%eax),%xmm3
+ .byte 15,89,160,58,189,0,0 // mulps 0xbd3a(%eax),%xmm4
+ .byte 15,89,152,74,189,0,0 // mulps 0xbd4a(%eax),%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -64589,7 +65199,7 @@ _sk_load_a8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 41bd <_sk_load_a8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 42a6 <_sk_load_a8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64600,13 +65210,13 @@ _sk_load_a8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,60 // jne 4214 <_sk_load_a8_sse2+0x65>
+ .byte 117,60 // jne 42fd <_sk_load_a8_sse2+0x65>
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,51,184,0,0 // pand 0xb833(%edx),%xmm0
+ .byte 102,15,219,130,58,185,0,0 // pand 0xb93a(%edx),%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,154,115,185,0,0 // mulps 0xb973(%edx),%xmm3
+ .byte 15,89,154,122,186,0,0 // mulps 0xba7a(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -64623,12 +65233,12 @@ _sk_load_a8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 424e <_sk_load_a8_sse2+0x9f>
+ .byte 116,50 // je 4337 <_sk_load_a8_sse2+0x9f>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4238 <_sk_load_a8_sse2+0x89>
+ .byte 116,19 // je 4321 <_sk_load_a8_sse2+0x89>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,187 // jne 41e5 <_sk_load_a8_sse2+0x36>
+ .byte 117,187 // jne 42ce <_sk_load_a8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -64637,10 +65247,10 @@ _sk_load_a8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,151 // jmp 41e5 <_sk_load_a8_sse2+0x36>
+ .byte 235,151 // jmp 42ce <_sk_load_a8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,198 // movd %esi,%xmm0
- .byte 235,141 // jmp 41e5 <_sk_load_a8_sse2+0x36>
+ .byte 235,141 // jmp 42ce <_sk_load_a8_sse2+0x36>
HIDDEN _sk_load_a8_dst_sse2
.globl _sk_load_a8_dst_sse2
@@ -64665,15 +65275,15 @@ _sk_load_a8_dst_sse2:
.byte 102,15,127,97,32 // movdqa %xmm4,0x20(%ecx)
.byte 102,15,127,97,16 // movdqa %xmm4,0x10(%ecx)
.byte 133,219 // test %ebx,%ebx
- .byte 232,0,0,0,0 // call 4291 <_sk_load_a8_dst_sse2+0x39>
+ .byte 232,0,0,0,0 // call 437a <_sk_load_a8_dst_sse2+0x39>
.byte 90 // pop %edx
- .byte 117,54 // jne 42ca <_sk_load_a8_dst_sse2+0x72>
+ .byte 117,54 // jne 43b3 <_sk_load_a8_dst_sse2+0x72>
.byte 102,15,110,36,55 // movd (%edi,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,95,183,0,0 // pand 0xb75f(%edx),%xmm4
+ .byte 102,15,219,162,102,184,0,0 // pand 0xb866(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,159,184,0,0 // mulps 0xb89f(%edx),%xmm4
+ .byte 15,89,162,166,185,0,0 // mulps 0xb9a6(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -64688,11 +65298,11 @@ _sk_load_a8_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,46 // je 4300 <_sk_load_a8_dst_sse2+0xa8>
+ .byte 116,46 // je 43e9 <_sk_load_a8_dst_sse2+0xa8>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 42ea <_sk_load_a8_dst_sse2+0x92>
+ .byte 116,19 // je 43d3 <_sk_load_a8_dst_sse2+0x92>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,197 // jne 42a1 <_sk_load_a8_dst_sse2+0x49>
+ .byte 117,197 // jne 438a <_sk_load_a8_dst_sse2+0x49>
.byte 15,182,92,55,2 // movzbl 0x2(%edi,%esi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -64701,10 +65311,10 @@ _sk_load_a8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,161 // jmp 42a1 <_sk_load_a8_dst_sse2+0x49>
+ .byte 235,161 // jmp 438a <_sk_load_a8_dst_sse2+0x49>
.byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,151 // jmp 42a1 <_sk_load_a8_dst_sse2+0x49>
+ .byte 235,151 // jmp 438a <_sk_load_a8_dst_sse2+0x49>
HIDDEN _sk_gather_a8_sse2
.globl _sk_gather_a8_sse2
@@ -64758,13 +65368,13 @@ _sk_gather_a8_sse2:
.byte 9,202 // or %ecx,%edx
.byte 102,15,110,194 // movd %edx,%xmm0
.byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0
- .byte 232,0,0,0,0 // call 43be <_sk_gather_a8_sse2+0xb4>
+ .byte 232,0,0,0,0 // call 44a7 <_sk_gather_a8_sse2+0xb4>
.byte 89 // pop %ecx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,153,114,183,0,0 // mulps 0xb772(%ecx),%xmm3
+ .byte 15,89,153,121,184,0,0 // mulps 0xb879(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -64789,7 +65399,7 @@ _sk_store_a8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4402 <_sk_store_a8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 44eb <_sk_store_a8_sse2+0xe>
.byte 94 // pop %esi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64798,8 +65408,10 @@ _sk_store_a8_sse2:
.byte 15,175,81,4 // imul 0x4(%ecx),%edx
.byte 3,23 // add (%edi),%edx
.byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 15,40,166,254,181,0,0 // movaps 0xb5fe(%esi),%xmm4
- .byte 15,89,227 // mulps %xmm3,%xmm4
+ .byte 15,87,228 // xorps %xmm4,%xmm4
+ .byte 15,95,227 // maxps %xmm3,%xmm4
+ .byte 15,93,166,53,182,0,0 // minps 0xb635(%esi),%xmm4
+ .byte 15,89,166,5,183,0,0 // mulps 0xb705(%esi),%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
@@ -64807,7 +65419,7 @@ _sk_store_a8_sse2:
.byte 102,15,103,224 // packuswb %xmm0,%xmm4
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,26 // jne 4457 <_sk_store_a8_sse2+0x63>
+ .byte 117,26 // jne 454a <_sk_store_a8_sse2+0x6d>
.byte 102,15,126,230 // movd %xmm4,%esi
.byte 137,52,58 // mov %esi,(%edx,%edi,1)
.byte 141,80,8 // lea 0x8(%eax),%edx
@@ -64825,24 +65437,24 @@ _sk_store_a8_sse2:
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,54 // je 449d <_sk_store_a8_sse2+0xa9>
+ .byte 116,54 // je 4590 <_sk_store_a8_sse2+0xb3>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,14 // je 447a <_sk_store_a8_sse2+0x86>
+ .byte 116,14 // je 456d <_sk_store_a8_sse2+0x90>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,211 // jne 4444 <_sk_store_a8_sse2+0x50>
+ .byte 117,211 // jne 4537 <_sk_store_a8_sse2+0x5a>
.byte 102,15,197,220,4 // pextrw $0x4,%xmm4,%ebx
.byte 136,92,58,2 // mov %bl,0x2(%edx,%edi,1)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
- .byte 102,15,219,166,30,185,0,0 // pand 0xb91e(%esi),%xmm4
+ .byte 102,15,219,166,37,186,0,0 // pand 0xba25(%esi),%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,230 // movd %xmm4,%esi
.byte 102,137,52,58 // mov %si,(%edx,%edi,1)
- .byte 235,167 // jmp 4444 <_sk_store_a8_sse2+0x50>
+ .byte 235,167 // jmp 4537 <_sk_store_a8_sse2+0x5a>
.byte 102,15,126,227 // movd %xmm4,%ebx
.byte 136,28,58 // mov %bl,(%edx,%edi,1)
- .byte 235,158 // jmp 4444 <_sk_store_a8_sse2+0x50>
+ .byte 235,158 // jmp 4537 <_sk_store_a8_sse2+0x5a>
HIDDEN _sk_load_g8_sse2
.globl _sk_load_g8_sse2
@@ -64854,7 +65466,7 @@ _sk_load_g8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 44b4 <_sk_load_g8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 45a7 <_sk_load_g8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64865,16 +65477,16 @@ _sk_load_g8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,63 // jne 450e <_sk_load_g8_sse2+0x68>
+ .byte 117,63 // jne 4601 <_sk_load_g8_sse2+0x68>
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,60,181,0,0 // pand 0xb53c(%edx),%xmm0
+ .byte 102,15,219,130,57,182,0,0 // pand 0xb639(%edx),%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,124,182,0,0 // mulps 0xb67c(%edx),%xmm0
+ .byte 15,89,130,121,183,0,0 // mulps 0xb779(%edx),%xmm0
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,124,180,0,0 // movaps 0xb47c(%edx),%xmm3
+ .byte 15,40,154,121,181,0,0 // movaps 0xb579(%edx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 86 // push %esi
@@ -64888,12 +65500,12 @@ _sk_load_g8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 4548 <_sk_load_g8_sse2+0xa2>
+ .byte 116,50 // je 463b <_sk_load_g8_sse2+0xa2>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4532 <_sk_load_g8_sse2+0x8c>
+ .byte 116,19 // je 4625 <_sk_load_g8_sse2+0x8c>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,184 // jne 44dc <_sk_load_g8_sse2+0x36>
+ .byte 117,184 // jne 45cf <_sk_load_g8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -64902,10 +65514,10 @@ _sk_load_g8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,148 // jmp 44dc <_sk_load_g8_sse2+0x36>
+ .byte 235,148 // jmp 45cf <_sk_load_g8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,198 // movd %esi,%xmm0
- .byte 235,138 // jmp 44dc <_sk_load_g8_sse2+0x36>
+ .byte 235,138 // jmp 45cf <_sk_load_g8_sse2+0x36>
HIDDEN _sk_load_g8_dst_sse2
.globl _sk_load_g8_dst_sse2
@@ -64917,7 +65529,7 @@ _sk_load_g8_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4560 <_sk_load_g8_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4653 <_sk_load_g8_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64928,17 +65540,17 @@ _sk_load_g8_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,73 // jne 45c4 <_sk_load_g8_dst_sse2+0x72>
+ .byte 117,73 // jne 46b7 <_sk_load_g8_dst_sse2+0x72>
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,144,180,0,0 // pand 0xb490(%edx),%xmm4
+ .byte 102,15,219,162,141,181,0,0 // pand 0xb58d(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,208,181,0,0 // mulps 0xb5d0(%edx),%xmm4
+ .byte 15,89,162,205,182,0,0 // mulps 0xb6cd(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
.byte 15,41,97,32 // movaps %xmm4,0x20(%ecx)
.byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
- .byte 15,40,162,208,179,0,0 // movaps 0xb3d0(%edx),%xmm4
+ .byte 15,40,162,205,180,0,0 // movaps 0xb4cd(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -64953,12 +65565,12 @@ _sk_load_g8_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 45fe <_sk_load_g8_dst_sse2+0xac>
+ .byte 116,50 // je 46f1 <_sk_load_g8_dst_sse2+0xac>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 45e8 <_sk_load_g8_dst_sse2+0x96>
+ .byte 116,19 // je 46db <_sk_load_g8_dst_sse2+0x96>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,174 // jne 4588 <_sk_load_g8_dst_sse2+0x36>
+ .byte 117,174 // jne 467b <_sk_load_g8_dst_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -64967,10 +65579,10 @@ _sk_load_g8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,138 // jmp 4588 <_sk_load_g8_dst_sse2+0x36>
+ .byte 235,138 // jmp 467b <_sk_load_g8_dst_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,128 // jmp 4588 <_sk_load_g8_dst_sse2+0x36>
+ .byte 235,128 // jmp 467b <_sk_load_g8_dst_sse2+0x36>
HIDDEN _sk_gather_g8_sse2
.globl _sk_gather_g8_sse2
@@ -65023,17 +65635,17 @@ _sk_gather_g8_sse2:
.byte 193,226,8 // shl $0x8,%edx
.byte 9,202 // or %ecx,%edx
.byte 102,15,110,194 // movd %edx,%xmm0
- .byte 232,0,0,0,0 // call 46b7 <_sk_gather_g8_sse2+0xaf>
+ .byte 232,0,0,0,0 // call 47aa <_sk_gather_g8_sse2+0xaf>
.byte 89 // pop %ecx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,121,180,0,0 // mulps 0xb479(%ecx),%xmm0
+ .byte 15,89,129,118,181,0,0 // mulps 0xb576(%ecx),%xmm0
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,121,178,0,0 // movaps 0xb279(%ecx),%xmm3
+ .byte 15,40,153,118,179,0,0 // movaps 0xb376(%ecx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 82 // push %edx
@@ -65055,7 +65667,7 @@ _sk_load_565_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4702 <_sk_load_565_sse2+0xe>
+ .byte 232,0,0,0,0 // call 47f5 <_sk_load_565_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65067,23 +65679,23 @@ _sk_load_565_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,97 // jne 4780 <_sk_load_565_sse2+0x8c>
+ .byte 117,97 // jne 4873 <_sk_load_565_sse2+0x8c>
.byte 243,15,126,20,126 // movq (%esi,%edi,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,62,180,0,0 // movdqa 0xb43e(%edx),%xmm0
+ .byte 102,15,111,130,59,181,0,0 // movdqa 0xb53b(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,78,180,0,0 // mulps 0xb44e(%edx),%xmm0
- .byte 102,15,111,138,94,180,0,0 // movdqa 0xb45e(%edx),%xmm1
+ .byte 15,89,130,75,181,0,0 // mulps 0xb54b(%edx),%xmm0
+ .byte 102,15,111,138,91,181,0,0 // movdqa 0xb55b(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,110,180,0,0 // mulps 0xb46e(%edx),%xmm1
- .byte 102,15,219,146,126,180,0,0 // pand 0xb47e(%edx),%xmm2
+ .byte 15,89,138,107,181,0,0 // mulps 0xb56b(%edx),%xmm1
+ .byte 102,15,219,146,123,181,0,0 // pand 0xb57b(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,142,180,0,0 // mulps 0xb48e(%edx),%xmm2
+ .byte 15,89,146,139,181,0,0 // mulps 0xb58b(%edx),%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,46,178,0,0 // movaps 0xb22e(%edx),%xmm3
+ .byte 15,40,154,43,179,0,0 // movaps 0xb32b(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -65095,22 +65707,22 @@ _sk_load_565_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,47 // je 47b7 <_sk_load_565_sse2+0xc3>
+ .byte 116,47 // je 48aa <_sk_load_565_sse2+0xc3>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 47a4 <_sk_load_565_sse2+0xb0>
+ .byte 116,19 // je 4897 <_sk_load_565_sse2+0xb0>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,146 // jne 4728 <_sk_load_565_sse2+0x34>
+ .byte 117,146 // jne 481b <_sk_load_565_sse2+0x34>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,208 // movsd %xmm0,%xmm2
- .byte 233,113,255,255,255 // jmp 4728 <_sk_load_565_sse2+0x34>
+ .byte 233,113,255,255,255 // jmp 481b <_sk_load_565_sse2+0x34>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,214 // movd %esi,%xmm2
- .byte 233,100,255,255,255 // jmp 4728 <_sk_load_565_sse2+0x34>
+ .byte 233,100,255,255,255 // jmp 481b <_sk_load_565_sse2+0x34>
HIDDEN _sk_load_565_dst_sse2
.globl _sk_load_565_dst_sse2
@@ -65122,7 +65734,7 @@ _sk_load_565_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 47d2 <_sk_load_565_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 48c5 <_sk_load_565_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65134,24 +65746,24 @@ _sk_load_565_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,113 // jne 4860 <_sk_load_565_dst_sse2+0x9c>
+ .byte 117,113 // jne 4953 <_sk_load_565_dst_sse2+0x9c>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,110,179,0,0 // movdqa 0xb36e(%edx),%xmm5
+ .byte 102,15,111,170,107,180,0,0 // movdqa 0xb46b(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,126,179,0,0 // mulps 0xb37e(%edx),%xmm5
+ .byte 15,89,170,123,180,0,0 // mulps 0xb47b(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,142,179,0,0 // movdqa 0xb38e(%edx),%xmm5
+ .byte 102,15,111,170,139,180,0,0 // movdqa 0xb48b(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,158,179,0,0 // mulps 0xb39e(%edx),%xmm5
+ .byte 15,89,170,155,180,0,0 // mulps 0xb49b(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,219,162,174,179,0,0 // pand 0xb3ae(%edx),%xmm4
+ .byte 102,15,219,162,171,180,0,0 // pand 0xb4ab(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,190,179,0,0 // mulps 0xb3be(%edx),%xmm4
+ .byte 15,89,162,187,180,0,0 // mulps 0xb4bb(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
- .byte 15,40,162,94,177,0,0 // movaps 0xb15e(%edx),%xmm4
+ .byte 15,40,162,91,178,0,0 // movaps 0xb25b(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -65166,22 +65778,22 @@ _sk_load_565_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,47 // je 4897 <_sk_load_565_dst_sse2+0xd3>
+ .byte 116,47 // je 498a <_sk_load_565_dst_sse2+0xd3>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4884 <_sk_load_565_dst_sse2+0xc0>
+ .byte 116,19 // je 4977 <_sk_load_565_dst_sse2+0xc0>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,130 // jne 47f8 <_sk_load_565_dst_sse2+0x34>
+ .byte 117,130 // jne 48eb <_sk_load_565_dst_sse2+0x34>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5
.byte 242,15,112,237,212 // pshuflw $0xd4,%xmm5,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,97,255,255,255 // jmp 47f8 <_sk_load_565_dst_sse2+0x34>
+ .byte 233,97,255,255,255 // jmp 48eb <_sk_load_565_dst_sse2+0x34>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,84,255,255,255 // jmp 47f8 <_sk_load_565_dst_sse2+0x34>
+ .byte 233,84,255,255,255 // jmp 48eb <_sk_load_565_dst_sse2+0x34>
HIDDEN _sk_gather_565_sse2
.globl _sk_gather_565_sse2
@@ -65231,25 +65843,25 @@ _sk_gather_565_sse2:
.byte 102,15,196,209,2 // pinsrw $0x2,%ecx,%xmm2
.byte 102,15,126,193 // movd %xmm0,%ecx
.byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
- .byte 232,0,0,0,0 // call 4954 <_sk_gather_565_sse2+0xb0>
+ .byte 232,0,0,0,0 // call 4a47 <_sk_gather_565_sse2+0xb0>
.byte 90 // pop %edx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,209,3 // pinsrw $0x3,%ecx,%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,236,177,0,0 // movdqa 0xb1ec(%edx),%xmm0
+ .byte 102,15,111,130,233,178,0,0 // movdqa 0xb2e9(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,252,177,0,0 // mulps 0xb1fc(%edx),%xmm0
- .byte 102,15,111,138,12,178,0,0 // movdqa 0xb20c(%edx),%xmm1
+ .byte 15,89,130,249,178,0,0 // mulps 0xb2f9(%edx),%xmm0
+ .byte 102,15,111,138,9,179,0,0 // movdqa 0xb309(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,28,178,0,0 // mulps 0xb21c(%edx),%xmm1
- .byte 102,15,219,146,44,178,0,0 // pand 0xb22c(%edx),%xmm2
+ .byte 15,89,138,25,179,0,0 // mulps 0xb319(%edx),%xmm1
+ .byte 102,15,219,146,41,179,0,0 // pand 0xb329(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,60,178,0,0 // mulps 0xb23c(%edx),%xmm2
+ .byte 15,89,146,57,179,0,0 // mulps 0xb339(%edx),%xmm2
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,220,175,0,0 // movaps 0xafdc(%edx),%xmm3
+ .byte 15,40,154,217,176,0,0 // movaps 0xb0d9(%edx),%xmm3
.byte 81 // push %ecx
.byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,80,4 // call *0x4(%eax)
@@ -65267,29 +65879,37 @@ _sk_store_565_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 49c7 <_sk_store_565_sse2+0xe>
- .byte 95 // pop %edi
+ .byte 232,0,0,0,0 // call 4aba <_sk_store_565_sse2+0xe>
+ .byte 94 // pop %esi
+ .byte 15,87,228 // xorps %xmm4,%xmm4
+ .byte 15,87,237 // xorps %xmm5,%xmm5
+ .byte 15,95,232 // maxps %xmm0,%xmm5
+ .byte 15,40,182,102,176,0,0 // movaps 0xb066(%esi),%xmm6
+ .byte 15,93,238 // minps %xmm6,%xmm5
+ .byte 15,87,255 // xorps %xmm7,%xmm7
+ .byte 15,95,249 // maxps %xmm1,%xmm7
+ .byte 15,93,254 // minps %xmm6,%xmm7
+ .byte 15,95,226 // maxps %xmm2,%xmm4
+ .byte 15,93,230 // minps %xmm6,%xmm4
+ .byte 15,40,182,102,180,0,0 // movaps 0xb466(%esi),%xmm6
+ .byte 15,89,238 // mulps %xmm6,%xmm5
+ .byte 15,89,230 // mulps %xmm6,%xmm4
+ .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
+ .byte 102,15,114,245,11 // pslld $0xb,%xmm5
+ .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
+ .byte 102,15,86,229 // orpd %xmm5,%xmm4
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,48 // mov (%eax),%esi
- .byte 139,86,4 // mov 0x4(%esi),%edx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,87,4 // mov 0x4(%edi),%edx
.byte 15,175,81,4 // imul 0x4(%ecx),%edx
.byte 1,210 // add %edx,%edx
- .byte 3,22 // add (%esi),%edx
- .byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,105,179,0,0 // movaps 0xb369(%edi),%xmm4
- .byte 15,40,175,121,179,0,0 // movaps 0xb379(%edi),%xmm5
+ .byte 3,23 // add (%edi),%edx
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 15,89,190,118,180,0,0 // mulps 0xb476(%esi),%xmm7
.byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 102,15,91,246 // cvtps2dq %xmm6,%xmm6
- .byte 102,15,114,246,11 // pslld $0xb,%xmm6
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
+ .byte 102,15,91,239 // cvtps2dq %xmm7,%xmm5
.byte 102,15,114,245,5 // pslld $0x5,%xmm5
- .byte 102,15,235,238 // por %xmm6,%xmm5
- .byte 15,89,226 // mulps %xmm2,%xmm4
- .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,86,229 // orpd %xmm5,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
@@ -65298,11 +65918,11 @@ _sk_store_565_sse2:
.byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5
.byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp)
.byte 133,219 // test %ebx,%ebx
- .byte 117,34 // jne 4a5b <_sk_store_565_sse2+0xa2>
- .byte 102,15,126,231 // movd %xmm4,%edi
+ .byte 117,34 // jne 4b6a <_sk_store_565_sse2+0xbe>
+ .byte 102,15,126,230 // movd %xmm4,%esi
.byte 102,15,126,235 // movd %xmm5,%ebx
- .byte 137,60,114 // mov %edi,(%edx,%esi,2)
- .byte 137,92,114,4 // mov %ebx,0x4(%edx,%esi,2)
+ .byte 137,52,122 // mov %esi,(%edx,%edi,2)
+ .byte 137,92,122,4 // mov %ebx,0x4(%edx,%edi,2)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 82 // push %edx
@@ -65318,20 +65938,20 @@ _sk_store_565_sse2:
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,37 // je 4a91 <_sk_store_565_sse2+0xd8>
+ .byte 116,37 // je 4ba0 <_sk_store_565_sse2+0xf4>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,15 // je 4a80 <_sk_store_565_sse2+0xc7>
+ .byte 116,15 // je 4b8f <_sk_store_565_sse2+0xe3>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,210 // jne 4a48 <_sk_store_565_sse2+0x8f>
- .byte 102,15,197,252,4 // pextrw $0x4,%xmm4,%edi
- .byte 102,137,124,114,4 // mov %di,0x4(%edx,%esi,2)
+ .byte 117,210 // jne 4b57 <_sk_store_565_sse2+0xab>
+ .byte 102,15,197,244,4 // pextrw $0x4,%xmm4,%esi
+ .byte 102,137,116,122,4 // mov %si,0x4(%edx,%edi,2)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
.byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
- .byte 102,15,126,36,114 // movd %xmm4,(%edx,%esi,2)
- .byte 235,183 // jmp 4a48 <_sk_store_565_sse2+0x8f>
- .byte 102,15,126,231 // movd %xmm4,%edi
- .byte 102,137,60,114 // mov %di,(%edx,%esi,2)
- .byte 235,173 // jmp 4a48 <_sk_store_565_sse2+0x8f>
+ .byte 102,15,126,36,122 // movd %xmm4,(%edx,%edi,2)
+ .byte 235,183 // jmp 4b57 <_sk_store_565_sse2+0xab>
+ .byte 102,15,126,230 // movd %xmm4,%esi
+ .byte 102,137,52,122 // mov %si,(%edx,%edi,2)
+ .byte 235,173 // jmp 4b57 <_sk_store_565_sse2+0xab>
HIDDEN _sk_load_4444_sse2
.globl _sk_load_4444_sse2
@@ -65343,7 +65963,7 @@ _sk_load_4444_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4aa9 <_sk_load_4444_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4bb8 <_sk_load_4444_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65355,24 +65975,24 @@ _sk_load_4444_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,112 // jne 4b36 <_sk_load_4444_sse2+0x9b>
+ .byte 117,112 // jne 4c45 <_sk_load_4444_sse2+0x9b>
.byte 243,15,126,28,126 // movq (%esi,%edi,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,130,167,178,0,0 // movdqa 0xb2a7(%edx),%xmm0
+ .byte 102,15,111,130,136,179,0,0 // movdqa 0xb388(%edx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,183,178,0,0 // mulps 0xb2b7(%edx),%xmm0
- .byte 102,15,111,138,199,178,0,0 // movdqa 0xb2c7(%edx),%xmm1
+ .byte 15,89,130,152,179,0,0 // mulps 0xb398(%edx),%xmm0
+ .byte 102,15,111,138,168,179,0,0 // movdqa 0xb3a8(%edx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,215,178,0,0 // mulps 0xb2d7(%edx),%xmm1
- .byte 102,15,111,146,231,178,0,0 // movdqa 0xb2e7(%edx),%xmm2
+ .byte 15,89,138,184,179,0,0 // mulps 0xb3b8(%edx),%xmm1
+ .byte 102,15,111,146,200,179,0,0 // movdqa 0xb3c8(%edx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,247,178,0,0 // mulps 0xb2f7(%edx),%xmm2
- .byte 102,15,219,154,7,179,0,0 // pand 0xb307(%edx),%xmm3
+ .byte 15,89,146,216,179,0,0 // mulps 0xb3d8(%edx),%xmm2
+ .byte 102,15,219,154,232,179,0,0 // pand 0xb3e8(%edx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,23,179,0,0 // mulps 0xb317(%edx),%xmm3
+ .byte 15,89,154,248,179,0,0 // mulps 0xb3f8(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 82 // push %edx
@@ -65386,22 +66006,22 @@ _sk_load_4444_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,47 // je 4b6d <_sk_load_4444_sse2+0xd2>
+ .byte 116,47 // je 4c7c <_sk_load_4444_sse2+0xd2>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4b5a <_sk_load_4444_sse2+0xbf>
+ .byte 116,19 // je 4c69 <_sk_load_4444_sse2+0xbf>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,131 // jne 4acf <_sk_load_4444_sse2+0x34>
+ .byte 117,131 // jne 4bde <_sk_load_4444_sse2+0x34>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,98,255,255,255 // jmp 4acf <_sk_load_4444_sse2+0x34>
+ .byte 233,98,255,255,255 // jmp 4bde <_sk_load_4444_sse2+0x34>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,222 // movd %esi,%xmm3
- .byte 233,85,255,255,255 // jmp 4acf <_sk_load_4444_sse2+0x34>
+ .byte 233,85,255,255,255 // jmp 4bde <_sk_load_4444_sse2+0x34>
HIDDEN _sk_load_4444_dst_sse2
.globl _sk_load_4444_dst_sse2
@@ -65413,7 +66033,7 @@ _sk_load_4444_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4b88 <_sk_load_4444_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4c97 <_sk_load_4444_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65425,27 +66045,27 @@ _sk_load_4444_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,128,0,0,0 // jne 4c29 <_sk_load_4444_dst_sse2+0xaf>
+ .byte 15,133,128,0,0,0 // jne 4d38 <_sk_load_4444_dst_sse2+0xaf>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,200,177,0,0 // movdqa 0xb1c8(%edx),%xmm5
+ .byte 102,15,111,170,169,178,0,0 // movdqa 0xb2a9(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,216,177,0,0 // mulps 0xb1d8(%edx),%xmm5
+ .byte 15,89,170,185,178,0,0 // mulps 0xb2b9(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,232,177,0,0 // movdqa 0xb1e8(%edx),%xmm5
+ .byte 102,15,111,170,201,178,0,0 // movdqa 0xb2c9(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,248,177,0,0 // mulps 0xb1f8(%edx),%xmm5
+ .byte 15,89,170,217,178,0,0 // mulps 0xb2d9(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,111,170,8,178,0,0 // movdqa 0xb208(%edx),%xmm5
+ .byte 102,15,111,170,233,178,0,0 // movdqa 0xb2e9(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,24,178,0,0 // mulps 0xb218(%edx),%xmm5
+ .byte 15,89,170,249,178,0,0 // mulps 0xb2f9(%edx),%xmm5
.byte 15,41,105,48 // movaps %xmm5,0x30(%ecx)
- .byte 102,15,219,162,40,178,0,0 // pand 0xb228(%edx),%xmm4
+ .byte 102,15,219,162,9,179,0,0 // pand 0xb309(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,56,178,0,0 // mulps 0xb238(%edx),%xmm4
+ .byte 15,89,162,25,179,0,0 // mulps 0xb319(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -65460,22 +66080,22 @@ _sk_load_4444_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,51 // je 4c64 <_sk_load_4444_dst_sse2+0xea>
+ .byte 116,51 // je 4d73 <_sk_load_4444_dst_sse2+0xea>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,23 // je 4c51 <_sk_load_4444_dst_sse2+0xd7>
+ .byte 116,23 // je 4d60 <_sk_load_4444_dst_sse2+0xd7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,111,255,255,255 // jne 4bb2 <_sk_load_4444_dst_sse2+0x38>
+ .byte 15,133,111,255,255,255 // jne 4cc1 <_sk_load_4444_dst_sse2+0x38>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5
.byte 242,15,112,237,212 // pshuflw $0xd4,%xmm5,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,78,255,255,255 // jmp 4bb2 <_sk_load_4444_dst_sse2+0x38>
+ .byte 233,78,255,255,255 // jmp 4cc1 <_sk_load_4444_dst_sse2+0x38>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,65,255,255,255 // jmp 4bb2 <_sk_load_4444_dst_sse2+0x38>
+ .byte 233,65,255,255,255 // jmp 4cc1 <_sk_load_4444_dst_sse2+0x38>
HIDDEN _sk_gather_4444_sse2
.globl _sk_gather_4444_sse2
@@ -65526,25 +66146,25 @@ _sk_gather_4444_sse2:
.byte 102,15,126,193 // movd %xmm0,%ecx
.byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
.byte 102,15,196,217,3 // pinsrw $0x3,%ecx,%xmm3
- .byte 232,0,0,0,0 // call 4d26 <_sk_gather_4444_sse2+0xb5>
+ .byte 232,0,0,0,0 // call 4e35 <_sk_gather_4444_sse2+0xb5>
.byte 89 // pop %ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,129,42,176,0,0 // movdqa 0xb02a(%ecx),%xmm0
+ .byte 102,15,111,129,11,177,0,0 // movdqa 0xb10b(%ecx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,58,176,0,0 // mulps 0xb03a(%ecx),%xmm0
- .byte 102,15,111,137,74,176,0,0 // movdqa 0xb04a(%ecx),%xmm1
+ .byte 15,89,129,27,177,0,0 // mulps 0xb11b(%ecx),%xmm0
+ .byte 102,15,111,137,43,177,0,0 // movdqa 0xb12b(%ecx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,137,90,176,0,0 // mulps 0xb05a(%ecx),%xmm1
- .byte 102,15,111,145,106,176,0,0 // movdqa 0xb06a(%ecx),%xmm2
+ .byte 15,89,137,59,177,0,0 // mulps 0xb13b(%ecx),%xmm1
+ .byte 102,15,111,145,75,177,0,0 // movdqa 0xb14b(%ecx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,145,122,176,0,0 // mulps 0xb07a(%ecx),%xmm2
- .byte 102,15,219,153,138,176,0,0 // pand 0xb08a(%ecx),%xmm3
+ .byte 15,89,145,91,177,0,0 // mulps 0xb15b(%ecx),%xmm2
+ .byte 102,15,219,153,107,177,0,0 // pand 0xb16b(%ecx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,153,154,176,0,0 // mulps 0xb09a(%ecx),%xmm3
+ .byte 15,89,153,123,177,0,0 // mulps 0xb17b(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 81 // push %ecx
@@ -65563,36 +66183,48 @@ _sk_store_4444_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4da3 <_sk_store_4444_sse2+0xe>
- .byte 95 // pop %edi
+ .byte 131,236,44 // sub $0x2c,%esp
+ .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
+ .byte 232,0,0,0,0 // call 4eb6 <_sk_store_4444_sse2+0x12>
+ .byte 88 // pop %eax
+ .byte 15,87,228 // xorps %xmm4,%xmm4
+ .byte 15,95,224 // maxps %xmm0,%xmm4
+ .byte 15,40,168,106,172,0,0 // movaps 0xac6a(%eax),%xmm5
+ .byte 15,93,229 // minps %xmm5,%xmm4
+ .byte 15,40,176,10,177,0,0 // movaps 0xb10a(%eax),%xmm6
+ .byte 15,89,230 // mulps %xmm6,%xmm4
+ .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
+ .byte 102,15,114,244,12 // pslld $0xc,%xmm4
+ .byte 15,87,255 // xorps %xmm7,%xmm7
+ .byte 15,95,249 // maxps %xmm1,%xmm7
+ .byte 15,93,253 // minps %xmm5,%xmm7
+ .byte 15,89,254 // mulps %xmm6,%xmm7
+ .byte 102,15,91,255 // cvtps2dq %xmm7,%xmm7
+ .byte 102,15,114,247,8 // pslld $0x8,%xmm7
+ .byte 102,15,235,252 // por %xmm4,%xmm7
+ .byte 102,15,239,228 // pxor %xmm4,%xmm4
+ .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
+ .byte 15,95,226 // maxps %xmm2,%xmm4
+ .byte 15,93,229 // minps %xmm5,%xmm4
+ .byte 15,87,219 // xorps %xmm3,%xmm3
+ .byte 15,95,93,216 // maxps -0x28(%ebp),%xmm3
+ .byte 15,93,221 // minps %xmm5,%xmm3
+ .byte 15,89,230 // mulps %xmm6,%xmm4
+ .byte 15,89,222 // mulps %xmm6,%xmm3
+ .byte 102,15,91,236 // cvtps2dq %xmm4,%xmm5
+ .byte 102,15,114,245,4 // pslld $0x4,%xmm5
+ .byte 102,15,91,227 // cvtps2dq %xmm3,%xmm4
+ .byte 102,15,86,229 // orpd %xmm5,%xmm4
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,48 // mov (%eax),%esi
- .byte 139,86,4 // mov 0x4(%esi),%edx
- .byte 15,175,81,4 // imul 0x4(%ecx),%edx
- .byte 1,210 // add %edx,%edx
- .byte 3,22 // add (%esi),%edx
- .byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,45,176,0,0 // movaps 0xb02d(%edi),%xmm4
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,17 // mov (%ecx),%edx
+ .byte 139,119,4 // mov 0x4(%edi),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
+ .byte 1,246 // add %esi,%esi
+ .byte 3,55 // add (%edi),%esi
.byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
- .byte 102,15,114,245,12 // pslld $0xc,%xmm5
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 102,15,91,246 // cvtps2dq %xmm6,%xmm6
- .byte 102,15,114,246,8 // pslld $0x8,%xmm6
- .byte 102,15,235,245 // por %xmm5,%xmm6
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
- .byte 102,15,114,245,4 // pslld $0x4,%xmm5
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
- .byte 102,15,86,229 // orpd %xmm5,%xmm4
- .byte 102,15,86,230 // orpd %xmm6,%xmm4
+ .byte 102,15,86,231 // orpd %xmm7,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,224 // packssdw %xmm0,%xmm4
@@ -65600,17 +66232,19 @@ _sk_store_4444_sse2:
.byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5
.byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp)
.byte 133,219 // test %ebx,%ebx
- .byte 117,34 // jne 4e46 <_sk_store_4444_sse2+0xb1>
+ .byte 117,42 // jne 4f89 <_sk_store_4444_sse2+0xe5>
.byte 102,15,126,231 // movd %xmm4,%edi
.byte 102,15,126,235 // movd %xmm5,%ebx
- .byte 137,60,114 // mov %edi,(%edx,%esi,2)
- .byte 137,92,114,4 // mov %ebx,0x4(%edx,%esi,2)
+ .byte 137,60,86 // mov %edi,(%esi,%edx,2)
+ .byte 137,92,86,4 // mov %ebx,0x4(%esi,%edx,2)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
+ .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
.byte 82 // push %edx
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
+ .byte 131,196,60 // add $0x3c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
@@ -65620,20 +66254,20 @@ _sk_store_4444_sse2:
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,37 // je 4e7c <_sk_store_4444_sse2+0xe7>
+ .byte 116,37 // je 4fbf <_sk_store_4444_sse2+0x11b>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,15 // je 4e6b <_sk_store_4444_sse2+0xd6>
+ .byte 116,15 // je 4fae <_sk_store_4444_sse2+0x10a>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,210 // jne 4e33 <_sk_store_4444_sse2+0x9e>
+ .byte 117,202 // jne 4f6e <_sk_store_4444_sse2+0xca>
.byte 102,15,197,252,4 // pextrw $0x4,%xmm4,%edi
- .byte 102,137,124,114,4 // mov %di,0x4(%edx,%esi,2)
- .byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
- .byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
- .byte 102,15,126,36,114 // movd %xmm4,(%edx,%esi,2)
- .byte 235,183 // jmp 4e33 <_sk_store_4444_sse2+0x9e>
+ .byte 102,137,124,86,4 // mov %di,0x4(%esi,%edx,2)
+ .byte 102,15,112,220,212 // pshufd $0xd4,%xmm4,%xmm3
+ .byte 242,15,112,219,232 // pshuflw $0xe8,%xmm3,%xmm3
+ .byte 102,15,126,28,86 // movd %xmm3,(%esi,%edx,2)
+ .byte 235,175 // jmp 4f6e <_sk_store_4444_sse2+0xca>
.byte 102,15,126,231 // movd %xmm4,%edi
- .byte 102,137,60,114 // mov %di,(%edx,%esi,2)
- .byte 235,173 // jmp 4e33 <_sk_store_4444_sse2+0x9e>
+ .byte 102,137,60,86 // mov %di,(%esi,%edx,2)
+ .byte 235,165 // jmp 4f6e <_sk_store_4444_sse2+0xca>
HIDDEN _sk_load_8888_sse2
.globl _sk_load_8888_sse2
@@ -65645,7 +66279,7 @@ _sk_load_8888_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4e94 <_sk_load_8888_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4fd7 <_sk_load_8888_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65657,13 +66291,13 @@ _sk_load_8888_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 4f18 <_sk_load_8888_sse2+0x92>
+ .byte 117,102 // jne 505b <_sk_load_8888_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,146,92,171,0,0 // movdqa 0xab5c(%edx),%xmm2
+ .byte 102,15,111,146,9,172,0,0 // movdqa 0xac09(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,156,172,0,0 // movaps 0xac9c(%edx),%xmm4
+ .byte 15,40,162,73,173,0,0 // movaps 0xad49(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -65691,18 +66325,18 @@ _sk_load_8888_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,35 // je 4f43 <_sk_load_8888_sse2+0xbd>
+ .byte 116,35 // je 5086 <_sk_load_8888_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 4f39 <_sk_load_8888_sse2+0xb3>
+ .byte 116,16 // je 507c <_sk_load_8888_sse2+0xb3>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,137 // jne 4eb7 <_sk_load_8888_sse2+0x31>
+ .byte 117,137 // jne 4ffa <_sk_load_8888_sse2+0x31>
.byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3
- .byte 233,116,255,255,255 // jmp 4eb7 <_sk_load_8888_sse2+0x31>
+ .byte 233,116,255,255,255 // jmp 4ffa <_sk_load_8888_sse2+0x31>
.byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
- .byte 233,106,255,255,255 // jmp 4eb7 <_sk_load_8888_sse2+0x31>
+ .byte 233,106,255,255,255 // jmp 4ffa <_sk_load_8888_sse2+0x31>
HIDDEN _sk_load_8888_dst_sse2
.globl _sk_load_8888_dst_sse2
@@ -65714,7 +66348,7 @@ _sk_load_8888_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4f5b <_sk_load_8888_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 509e <_sk_load_8888_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65726,13 +66360,13 @@ _sk_load_8888_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,118 // jne 4fef <_sk_load_8888_dst_sse2+0xa2>
+ .byte 117,118 // jne 5132 <_sk_load_8888_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,149,170,0,0 // movdqa 0xaa95(%edx),%xmm5
+ .byte 102,15,111,170,66,171,0,0 // movdqa 0xab42(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,213,171,0,0 // movaps 0xabd5(%edx),%xmm7
+ .byte 15,40,186,130,172,0,0 // movaps 0xac82(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,16 // movaps %xmm6,0x10(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -65764,18 +66398,18 @@ _sk_load_8888_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,39 // je 501e <_sk_load_8888_dst_sse2+0xd1>
+ .byte 116,39 // je 5161 <_sk_load_8888_dst_sse2+0xd1>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,20 // je 5014 <_sk_load_8888_dst_sse2+0xc7>
+ .byte 116,20 // je 5157 <_sk_load_8888_dst_sse2+0xc7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,117,255,255,255 // jne 4f7e <_sk_load_8888_dst_sse2+0x31>
+ .byte 15,133,117,255,255,255 // jne 50c1 <_sk_load_8888_dst_sse2+0x31>
.byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4
- .byte 233,96,255,255,255 // jmp 4f7e <_sk_load_8888_dst_sse2+0x31>
+ .byte 233,96,255,255,255 // jmp 50c1 <_sk_load_8888_dst_sse2+0x31>
.byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
- .byte 233,86,255,255,255 // jmp 4f7e <_sk_load_8888_dst_sse2+0x31>
+ .byte 233,86,255,255,255 // jmp 50c1 <_sk_load_8888_dst_sse2+0x31>
HIDDEN _sk_gather_8888_sse2
.globl _sk_gather_8888_sse2
@@ -65822,16 +66456,16 @@ _sk_gather_8888_sse2:
.byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3
.byte 102,15,126,201 // movd %xmm1,%ecx
.byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1
- .byte 232,0,0,0,0 // call 50ce <_sk_gather_8888_sse2+0xa6>
+ .byte 232,0,0,0,0 // call 5211 <_sk_gather_8888_sse2+0xa6>
.byte 89 // pop %ecx
.byte 102,15,98,194 // punpckldq %xmm2,%xmm0
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 102,15,111,145,34,169,0,0 // movdqa 0xa922(%ecx),%xmm2
+ .byte 102,15,111,145,207,169,0,0 // movdqa 0xa9cf(%ecx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,161,98,170,0,0 // movaps 0xaa62(%ecx),%xmm4
+ .byte 15,40,161,15,171,0,0 // movaps 0xab0f(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -65864,45 +66498,59 @@ _sk_store_8888_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 5149 <_sk_store_8888_sse2+0xe>
- .byte 95 // pop %edi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,48 // mov (%eax),%esi
- .byte 139,86,4 // mov 0x4(%esi),%edx
- .byte 15,175,81,4 // imul 0x4(%ecx),%edx
- .byte 193,226,2 // shl $0x2,%edx
- .byte 3,22 // add (%esi),%edx
- .byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,183,168,0,0 // movaps 0xa8b7(%edi),%xmm4
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 102,15,91,246 // cvtps2dq %xmm6,%xmm6
- .byte 102,15,114,246,8 // pslld $0x8,%xmm6
- .byte 102,15,235,245 // por %xmm5,%xmm6
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
- .byte 15,89,227 // mulps %xmm3,%xmm4
+ .byte 131,236,44 // sub $0x2c,%esp
+ .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
+ .byte 232,0,0,0,0 // call 5290 <_sk_store_8888_sse2+0x12>
+ .byte 88 // pop %eax
+ .byte 15,87,228 // xorps %xmm4,%xmm4
+ .byte 15,95,224 // maxps %xmm0,%xmm4
+ .byte 15,40,168,144,168,0,0 // movaps 0xa890(%eax),%xmm5
+ .byte 15,93,229 // minps %xmm5,%xmm4
+ .byte 15,40,176,96,169,0,0 // movaps 0xa960(%eax),%xmm6
+ .byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
+ .byte 15,87,255 // xorps %xmm7,%xmm7
+ .byte 15,95,249 // maxps %xmm1,%xmm7
+ .byte 15,93,253 // minps %xmm5,%xmm7
+ .byte 15,89,254 // mulps %xmm6,%xmm7
+ .byte 102,15,91,255 // cvtps2dq %xmm7,%xmm7
+ .byte 102,15,114,247,8 // pslld $0x8,%xmm7
+ .byte 102,15,235,252 // por %xmm4,%xmm7
+ .byte 102,15,87,228 // xorpd %xmm4,%xmm4
+ .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
+ .byte 15,95,226 // maxps %xmm2,%xmm4
+ .byte 15,93,229 // minps %xmm5,%xmm4
+ .byte 15,87,219 // xorps %xmm3,%xmm3
+ .byte 15,95,93,216 // maxps -0x28(%ebp),%xmm3
+ .byte 15,93,221 // minps %xmm5,%xmm3
+ .byte 15,89,230 // mulps %xmm6,%xmm4
+ .byte 15,89,222 // mulps %xmm6,%xmm3
+ .byte 102,15,91,236 // cvtps2dq %xmm4,%xmm5
+ .byte 102,15,114,245,16 // pslld $0x10,%xmm5
+ .byte 102,15,91,227 // cvtps2dq %xmm3,%xmm4
.byte 102,15,114,244,24 // pslld $0x18,%xmm4
.byte 102,15,235,229 // por %xmm5,%xmm4
- .byte 102,15,235,230 // por %xmm6,%xmm4
+ .byte 102,15,235,231 // por %xmm7,%xmm4
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,17 // mov (%ecx),%edx
+ .byte 139,119,4 // mov 0x4(%edi),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
+ .byte 193,230,2 // shl $0x2,%esi
+ .byte 3,55 // add (%edi),%esi
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
- .byte 117,24 // jne 51c6 <_sk_store_8888_sse2+0x8b>
- .byte 243,15,127,36,178 // movdqu %xmm4,(%edx,%esi,4)
+ .byte 117,32 // jne 533d <_sk_store_8888_sse2+0xbf>
+ .byte 243,15,127,36,150 // movdqu %xmm4,(%esi,%edx,4)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
+ .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
.byte 82 // push %edx
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
+ .byte 131,196,60 // add $0x3c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
@@ -65910,17 +66558,17 @@ _sk_store_8888_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,28 // je 51ea <_sk_store_8888_sse2+0xaf>
+ .byte 116,28 // je 5361 <_sk_store_8888_sse2+0xe3>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 51e3 <_sk_store_8888_sse2+0xa8>
+ .byte 116,16 // je 535a <_sk_store_8888_sse2+0xdc>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,219 // jne 51b3 <_sk_store_8888_sse2+0x78>
- .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
- .byte 102,15,126,108,178,8 // movd %xmm5,0x8(%edx,%esi,4)
- .byte 102,15,214,36,178 // movq %xmm4,(%edx,%esi,4)
- .byte 235,201 // jmp 51b3 <_sk_store_8888_sse2+0x78>
- .byte 102,15,126,36,178 // movd %xmm4,(%edx,%esi,4)
- .byte 235,194 // jmp 51b3 <_sk_store_8888_sse2+0x78>
+ .byte 117,211 // jne 5322 <_sk_store_8888_sse2+0xa4>
+ .byte 102,15,112,220,78 // pshufd $0x4e,%xmm4,%xmm3
+ .byte 102,15,126,92,150,8 // movd %xmm3,0x8(%esi,%edx,4)
+ .byte 102,15,214,36,150 // movq %xmm4,(%esi,%edx,4)
+ .byte 235,193 // jmp 5322 <_sk_store_8888_sse2+0xa4>
+ .byte 102,15,126,36,150 // movd %xmm4,(%esi,%edx,4)
+ .byte 235,186 // jmp 5322 <_sk_store_8888_sse2+0xa4>
HIDDEN _sk_load_bgra_sse2
.globl _sk_load_bgra_sse2
@@ -65932,7 +66580,7 @@ _sk_load_bgra_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 51ff <_sk_load_bgra_sse2+0xe>
+ .byte 232,0,0,0,0 // call 5376 <_sk_load_bgra_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65944,13 +66592,13 @@ _sk_load_bgra_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 5283 <_sk_load_bgra_sse2+0x92>
+ .byte 117,102 // jne 53fa <_sk_load_bgra_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,130,241,167,0,0 // movdqa 0xa7f1(%edx),%xmm0
+ .byte 102,15,111,130,106,168,0,0 // movdqa 0xa86a(%edx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,162,49,169,0,0 // movaps 0xa931(%edx),%xmm4
+ .byte 15,40,162,170,169,0,0 // movaps 0xa9aa(%edx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -65978,18 +66626,18 @@ _sk_load_bgra_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,35 // je 52ae <_sk_load_bgra_sse2+0xbd>
+ .byte 116,35 // je 5425 <_sk_load_bgra_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 52a4 <_sk_load_bgra_sse2+0xb3>
+ .byte 116,16 // je 541b <_sk_load_bgra_sse2+0xb3>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,137 // jne 5222 <_sk_load_bgra_sse2+0x31>
+ .byte 117,137 // jne 5399 <_sk_load_bgra_sse2+0x31>
.byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3
- .byte 233,116,255,255,255 // jmp 5222 <_sk_load_bgra_sse2+0x31>
+ .byte 233,116,255,255,255 // jmp 5399 <_sk_load_bgra_sse2+0x31>
.byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
- .byte 233,106,255,255,255 // jmp 5222 <_sk_load_bgra_sse2+0x31>
+ .byte 233,106,255,255,255 // jmp 5399 <_sk_load_bgra_sse2+0x31>
HIDDEN _sk_load_bgra_dst_sse2
.globl _sk_load_bgra_dst_sse2
@@ -66001,7 +66649,7 @@ _sk_load_bgra_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 52c6 <_sk_load_bgra_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 543d <_sk_load_bgra_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66013,13 +66661,13 @@ _sk_load_bgra_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,118 // jne 535a <_sk_load_bgra_dst_sse2+0xa2>
+ .byte 117,118 // jne 54d1 <_sk_load_bgra_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,42,167,0,0 // movdqa 0xa72a(%edx),%xmm5
+ .byte 102,15,111,170,163,167,0,0 // movdqa 0xa7a3(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,106,168,0,0 // movaps 0xa86a(%edx),%xmm7
+ .byte 15,40,186,227,168,0,0 // movaps 0xa8e3(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,48 // movaps %xmm6,0x30(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -66051,18 +66699,18 @@ _sk_load_bgra_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,39 // je 5389 <_sk_load_bgra_dst_sse2+0xd1>
+ .byte 116,39 // je 5500 <_sk_load_bgra_dst_sse2+0xd1>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,20 // je 537f <_sk_load_bgra_dst_sse2+0xc7>
+ .byte 116,20 // je 54f6 <_sk_load_bgra_dst_sse2+0xc7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,117,255,255,255 // jne 52e9 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 15,133,117,255,255,255 // jne 5460 <_sk_load_bgra_dst_sse2+0x31>
.byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4
- .byte 233,96,255,255,255 // jmp 52e9 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 233,96,255,255,255 // jmp 5460 <_sk_load_bgra_dst_sse2+0x31>
.byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
- .byte 233,86,255,255,255 // jmp 52e9 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 233,86,255,255,255 // jmp 5460 <_sk_load_bgra_dst_sse2+0x31>
HIDDEN _sk_gather_bgra_sse2
.globl _sk_gather_bgra_sse2
@@ -66109,16 +66757,16 @@ _sk_gather_bgra_sse2:
.byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3
.byte 102,15,126,201 // movd %xmm1,%ecx
.byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1
- .byte 232,0,0,0,0 // call 5439 <_sk_gather_bgra_sse2+0xa6>
+ .byte 232,0,0,0,0 // call 55b0 <_sk_gather_bgra_sse2+0xa6>
.byte 89 // pop %ecx
.byte 102,15,98,194 // punpckldq %xmm2,%xmm0
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 102,15,111,129,183,165,0,0 // movdqa 0xa5b7(%ecx),%xmm0
+ .byte 102,15,111,129,48,166,0,0 // movdqa 0xa630(%ecx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,161,247,166,0,0 // movaps 0xa6f7(%ecx),%xmm4
+ .byte 15,40,161,112,167,0,0 // movaps 0xa770(%ecx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -66151,45 +66799,59 @@ _sk_store_bgra_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 54b4 <_sk_store_bgra_sse2+0xe>
- .byte 95 // pop %edi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,48 // mov (%eax),%esi
- .byte 139,86,4 // mov 0x4(%esi),%edx
- .byte 15,175,81,4 // imul 0x4(%ecx),%edx
- .byte 193,226,2 // shl $0x2,%edx
- .byte 3,22 // add (%esi),%edx
- .byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,76,165,0,0 // movaps 0xa54c(%edi),%xmm4
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 102,15,91,246 // cvtps2dq %xmm6,%xmm6
- .byte 102,15,114,246,8 // pslld $0x8,%xmm6
- .byte 102,15,235,245 // por %xmm5,%xmm6
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
- .byte 15,89,227 // mulps %xmm3,%xmm4
+ .byte 131,236,44 // sub $0x2c,%esp
+ .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
+ .byte 232,0,0,0,0 // call 562f <_sk_store_bgra_sse2+0x12>
+ .byte 88 // pop %eax
+ .byte 15,87,228 // xorps %xmm4,%xmm4
+ .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
+ .byte 15,95,226 // maxps %xmm2,%xmm4
+ .byte 15,40,168,241,164,0,0 // movaps 0xa4f1(%eax),%xmm5
+ .byte 15,93,229 // minps %xmm5,%xmm4
+ .byte 15,40,176,193,165,0,0 // movaps 0xa5c1(%eax),%xmm6
+ .byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
+ .byte 15,87,255 // xorps %xmm7,%xmm7
+ .byte 15,95,249 // maxps %xmm1,%xmm7
+ .byte 15,93,253 // minps %xmm5,%xmm7
+ .byte 15,89,254 // mulps %xmm6,%xmm7
+ .byte 102,15,91,255 // cvtps2dq %xmm7,%xmm7
+ .byte 102,15,114,247,8 // pslld $0x8,%xmm7
+ .byte 102,15,235,252 // por %xmm4,%xmm7
+ .byte 102,15,87,228 // xorpd %xmm4,%xmm4
+ .byte 15,95,224 // maxps %xmm0,%xmm4
+ .byte 15,93,229 // minps %xmm5,%xmm4
+ .byte 15,87,219 // xorps %xmm3,%xmm3
+ .byte 15,95,93,216 // maxps -0x28(%ebp),%xmm3
+ .byte 15,93,221 // minps %xmm5,%xmm3
+ .byte 15,89,230 // mulps %xmm6,%xmm4
+ .byte 15,89,222 // mulps %xmm6,%xmm3
+ .byte 102,15,91,236 // cvtps2dq %xmm4,%xmm5
+ .byte 102,15,114,245,16 // pslld $0x10,%xmm5
+ .byte 102,15,91,227 // cvtps2dq %xmm3,%xmm4
.byte 102,15,114,244,24 // pslld $0x18,%xmm4
.byte 102,15,235,229 // por %xmm5,%xmm4
- .byte 102,15,235,230 // por %xmm6,%xmm4
+ .byte 102,15,235,231 // por %xmm7,%xmm4
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,17 // mov (%ecx),%edx
+ .byte 139,119,4 // mov 0x4(%edi),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
+ .byte 193,230,2 // shl $0x2,%esi
+ .byte 3,55 // add (%edi),%esi
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
- .byte 117,24 // jne 5531 <_sk_store_bgra_sse2+0x8b>
- .byte 243,15,127,36,178 // movdqu %xmm4,(%edx,%esi,4)
+ .byte 117,32 // jne 56dc <_sk_store_bgra_sse2+0xbf>
+ .byte 243,15,127,36,150 // movdqu %xmm4,(%esi,%edx,4)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
+ .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
.byte 82 // push %edx
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
+ .byte 131,196,60 // add $0x3c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
@@ -66197,17 +66859,17 @@ _sk_store_bgra_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,28 // je 5555 <_sk_store_bgra_sse2+0xaf>
+ .byte 116,28 // je 5700 <_sk_store_bgra_sse2+0xe3>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 554e <_sk_store_bgra_sse2+0xa8>
+ .byte 116,16 // je 56f9 <_sk_store_bgra_sse2+0xdc>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,219 // jne 551e <_sk_store_bgra_sse2+0x78>
- .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
- .byte 102,15,126,108,178,8 // movd %xmm5,0x8(%edx,%esi,4)
- .byte 102,15,214,36,178 // movq %xmm4,(%edx,%esi,4)
- .byte 235,201 // jmp 551e <_sk_store_bgra_sse2+0x78>
- .byte 102,15,126,36,178 // movd %xmm4,(%edx,%esi,4)
- .byte 235,194 // jmp 551e <_sk_store_bgra_sse2+0x78>
+ .byte 117,211 // jne 56c1 <_sk_store_bgra_sse2+0xa4>
+ .byte 102,15,112,220,78 // pshufd $0x4e,%xmm4,%xmm3
+ .byte 102,15,126,92,150,8 // movd %xmm3,0x8(%esi,%edx,4)
+ .byte 102,15,214,36,150 // movq %xmm4,(%esi,%edx,4)
+ .byte 235,193 // jmp 56c1 <_sk_store_bgra_sse2+0xa4>
+ .byte 102,15,126,36,150 // movd %xmm4,(%esi,%edx,4)
+ .byte 235,186 // jmp 56c1 <_sk_store_bgra_sse2+0xa4>
HIDDEN _sk_load_f16_sse2
.globl _sk_load_f16_sse2
@@ -66219,7 +66881,7 @@ _sk_load_f16_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 556a <_sk_load_f16_sse2+0xe>
+ .byte 232,0,0,0,0 // call 5715 <_sk_load_f16_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66231,7 +66893,7 @@ _sk_load_f16_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,173,1,0,0 // jne 5739 <_sk_load_f16_sse2+0x1dd>
+ .byte 15,133,173,1,0,0 // jne 58e4 <_sk_load_f16_sse2+0x1dd>
.byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0
.byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1
.byte 102,15,40,216 // movapd %xmm0,%xmm3
@@ -66261,11 +66923,11 @@ _sk_load_f16_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,170,118,168,0,0 // movdqa 0xa876(%edx),%xmm5
+ .byte 102,15,111,170,187,168,0,0 // movdqa 0xa8bb(%edx),%xmm5
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 102,15,219,138,134,168,0,0 // pand 0xa886(%edx),%xmm1
- .byte 102,15,111,130,150,168,0,0 // movdqa 0xa896(%edx),%xmm0
+ .byte 102,15,219,138,203,168,0,0 // pand 0xa8cb(%edx),%xmm1
+ .byte 102,15,111,130,219,168,0,0 // movdqa 0xa8db(%edx),%xmm0
.byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
@@ -66277,7 +66939,7 @@ _sk_load_f16_sse2:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,219,213 // pand %xmm5,%xmm2
- .byte 102,15,111,154,134,168,0,0 // movdqa 0xa886(%edx),%xmm3
+ .byte 102,15,111,154,203,168,0,0 // movdqa 0xa8cb(%edx),%xmm3
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,102,196 // pcmpgtd %xmm4,%xmm0
@@ -66290,7 +66952,7 @@ _sk_load_f16_sse2:
.byte 102,15,219,253 // pand %xmm5,%xmm7
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,146,150,168,0,0 // movdqa 0xa896(%edx),%xmm2
+ .byte 102,15,111,146,219,168,0,0 // movdqa 0xa8db(%edx),%xmm2
.byte 102,15,102,208 // pcmpgtd %xmm0,%xmm2
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
.byte 102,15,235,199 // por %xmm7,%xmm0
@@ -66305,7 +66967,7 @@ _sk_load_f16_sse2:
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
.byte 102,15,114,247,13 // pslld $0xd,%xmm7
.byte 102,15,235,253 // por %xmm5,%xmm7
- .byte 102,15,111,154,166,168,0,0 // movdqa 0xa8a6(%edx),%xmm3
+ .byte 102,15,111,154,235,168,0,0 // movdqa 0xa8eb(%edx),%xmm3
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,15,254,227 // paddd %xmm3,%xmm4
.byte 102,15,254,195 // paddd %xmm3,%xmm0
@@ -66333,12 +66995,12 @@ _sk_load_f16_sse2:
.byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,76,254,255,255 // je 5597 <_sk_load_f16_sse2+0x3b>
+ .byte 15,132,76,254,255,255 // je 5742 <_sk_load_f16_sse2+0x3b>
.byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0
.byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,61,254,255,255 // jb 5597 <_sk_load_f16_sse2+0x3b>
+ .byte 15,130,61,254,255,255 // jb 5742 <_sk_load_f16_sse2+0x3b>
.byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1
- .byte 233,50,254,255,255 // jmp 5597 <_sk_load_f16_sse2+0x3b>
+ .byte 233,50,254,255,255 // jmp 5742 <_sk_load_f16_sse2+0x3b>
HIDDEN _sk_load_f16_dst_sse2
.globl _sk_load_f16_dst_sse2
@@ -66354,7 +67016,7 @@ _sk_load_f16_dst_sse2:
.byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp)
.byte 102,15,127,77,152 // movdqa %xmm1,-0x68(%ebp)
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
- .byte 232,0,0,0,0 // call 5787 <_sk_load_f16_dst_sse2+0x22>
+ .byte 232,0,0,0,0 // call 5932 <_sk_load_f16_dst_sse2+0x22>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66366,7 +67028,7 @@ _sk_load_f16_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,168,1,0,0 // jne 5951 <_sk_load_f16_dst_sse2+0x1ec>
+ .byte 15,133,168,1,0,0 // jne 5afc <_sk_load_f16_dst_sse2+0x1ec>
.byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0
.byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -66394,18 +67056,18 @@ _sk_load_f16_dst_sse2:
.byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp)
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,15,97,202 // punpcklwd %xmm2,%xmm1
- .byte 102,15,111,186,89,166,0,0 // movdqa 0xa659(%edx),%xmm7
+ .byte 102,15,111,186,158,166,0,0 // movdqa 0xa69e(%edx),%xmm7
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,215 // pand %xmm7,%xmm2
- .byte 102,15,111,154,105,166,0,0 // movdqa 0xa669(%edx),%xmm3
+ .byte 102,15,111,154,174,166,0,0 // movdqa 0xa6ae(%edx),%xmm3
.byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 102,15,111,162,121,166,0,0 // movdqa 0xa679(%edx),%xmm4
+ .byte 102,15,111,162,190,166,0,0 // movdqa 0xa6be(%edx),%xmm4
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,102,233 // pcmpgtd %xmm1,%xmm5
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,111,146,137,166,0,0 // movdqa 0xa689(%edx),%xmm2
+ .byte 102,15,111,146,206,166,0,0 // movdqa 0xa6ce(%edx),%xmm2
.byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
.byte 102,15,254,202 // paddd %xmm2,%xmm1
.byte 102,15,223,233 // pandn %xmm1,%xmm5
@@ -66468,12 +67130,12 @@ _sk_load_f16_dst_sse2:
.byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,81,254,255,255 // je 57b4 <_sk_load_f16_dst_sse2+0x4f>
+ .byte 15,132,81,254,255,255 // je 595f <_sk_load_f16_dst_sse2+0x4f>
.byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0
.byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,66,254,255,255 // jb 57b4 <_sk_load_f16_dst_sse2+0x4f>
+ .byte 15,130,66,254,255,255 // jb 595f <_sk_load_f16_dst_sse2+0x4f>
.byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1
- .byte 233,55,254,255,255 // jmp 57b4 <_sk_load_f16_dst_sse2+0x4f>
+ .byte 233,55,254,255,255 // jmp 595f <_sk_load_f16_dst_sse2+0x4f>
HIDDEN _sk_gather_f16_sse2
.globl _sk_gather_f16_sse2
@@ -66520,7 +67182,7 @@ _sk_gather_f16_sse2:
.byte 243,15,126,28,202 // movq (%edx,%ecx,8),%xmm3
.byte 102,15,126,201 // movd %xmm1,%ecx
.byte 243,15,126,12,202 // movq (%edx,%ecx,8),%xmm1
- .byte 232,0,0,0,0 // call 5a23 <_sk_gather_f16_sse2+0xa6>
+ .byte 232,0,0,0,0 // call 5bce <_sk_gather_f16_sse2+0xa6>
.byte 89 // pop %ecx
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,15,108,194 // punpcklqdq %xmm2,%xmm0
@@ -66551,11 +67213,11 @@ _sk_gather_f16_sse2:
.byte 102,15,126,69,248 // movd %xmm0,-0x8(%ebp)
.byte 102,15,97,206 // punpcklwd %xmm6,%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,177,189,163,0,0 // movdqa 0xa3bd(%ecx),%xmm6
+ .byte 102,15,111,177,2,164,0,0 // movdqa 0xa402(%ecx),%xmm6
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 102,15,219,137,205,163,0,0 // pand 0xa3cd(%ecx),%xmm1
- .byte 102,15,111,129,221,163,0,0 // movdqa 0xa3dd(%ecx),%xmm0
+ .byte 102,15,219,137,18,164,0,0 // pand 0xa412(%ecx),%xmm1
+ .byte 102,15,111,129,34,164,0,0 // movdqa 0xa422(%ecx),%xmm0
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,102,217 // pcmpgtd %xmm1,%xmm3
@@ -66566,7 +67228,7 @@ _sk_gather_f16_sse2:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,111,213 // movdqa %xmm5,%xmm2
.byte 102,15,219,214 // pand %xmm6,%xmm2
- .byte 102,15,111,153,205,163,0,0 // movdqa 0xa3cd(%ecx),%xmm3
+ .byte 102,15,111,153,18,164,0,0 // movdqa 0xa412(%ecx),%xmm3
.byte 102,15,219,235 // pand %xmm3,%xmm5
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
@@ -66580,7 +67242,7 @@ _sk_gather_f16_sse2:
.byte 102,15,219,254 // pand %xmm6,%xmm7
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,145,221,163,0,0 // movdqa 0xa3dd(%ecx),%xmm2
+ .byte 102,15,111,145,34,164,0,0 // movdqa 0xa422(%ecx),%xmm2
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,102,216 // pcmpgtd %xmm0,%xmm3
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
@@ -66589,12 +67251,12 @@ _sk_gather_f16_sse2:
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,97,252 // punpcklwd %xmm4,%xmm7
.byte 102,15,219,247 // pand %xmm7,%xmm6
- .byte 102,15,219,185,205,163,0,0 // pand 0xa3cd(%ecx),%xmm7
+ .byte 102,15,219,185,18,164,0,0 // pand 0xa412(%ecx),%xmm7
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,102,215 // pcmpgtd %xmm7,%xmm2
.byte 102,15,114,247,13 // pslld $0xd,%xmm7
.byte 102,15,235,254 // por %xmm6,%xmm7
- .byte 102,15,111,161,237,163,0,0 // movdqa 0xa3ed(%ecx),%xmm4
+ .byte 102,15,111,161,50,164,0,0 // movdqa 0xa432(%ecx),%xmm4
.byte 102,15,254,204 // paddd %xmm4,%xmm1
.byte 102,15,254,236 // paddd %xmm4,%xmm5
.byte 102,15,254,196 // paddd %xmm4,%xmm0
@@ -66631,24 +67293,24 @@ _sk_store_f16_sse2:
.byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 232,0,0,0,0 // call 5be7 <_sk_store_f16_sse2+0x19>
+ .byte 232,0,0,0,0 // call 5d92 <_sk_store_f16_sse2+0x19>
.byte 88 // pop %eax
- .byte 102,15,111,152,57,162,0,0 // movdqa 0xa239(%eax),%xmm3
+ .byte 102,15,111,152,126,162,0,0 // movdqa 0xa27e(%eax),%xmm3
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
- .byte 102,15,111,136,105,162,0,0 // movdqa 0xa269(%eax),%xmm1
+ .byte 102,15,111,136,174,162,0,0 // movdqa 0xa2ae(%eax),%xmm1
.byte 102,15,127,77,232 // movdqa %xmm1,-0x18(%ebp)
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,114,246,3 // pslld $0x3,%xmm6
.byte 102,15,219,241 // pand %xmm1,%xmm6
.byte 102,15,254,244 // paddd %xmm4,%xmm6
- .byte 102,15,111,184,73,162,0,0 // movdqa 0xa249(%eax),%xmm7
+ .byte 102,15,111,184,142,162,0,0 // movdqa 0xa28e(%eax),%xmm7
.byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp)
.byte 102,15,219,199 // pand %xmm7,%xmm0
- .byte 102,15,111,168,89,162,0,0 // movdqa 0xa259(%eax),%xmm5
+ .byte 102,15,111,168,158,162,0,0 // movdqa 0xa29e(%eax),%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,102,200 // pcmpgtd %xmm0,%xmm1
- .byte 102,15,111,128,233,158,0,0 // movdqa 0x9ee9(%eax),%xmm0
+ .byte 102,15,111,128,46,159,0,0 // movdqa 0x9f2e(%eax),%xmm0
.byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
.byte 102,15,254,240 // paddd %xmm0,%xmm6
.byte 102,15,114,230,16 // psrad $0x10,%xmm6
@@ -66710,7 +67372,7 @@ _sk_store_f16_sse2:
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,98,198 // punpckldq %xmm6,%xmm0
.byte 133,255 // test %edi,%edi
- .byte 117,48 // jne 5d68 <_sk_store_f16_sse2+0x19a>
+ .byte 117,48 // jne 5f13 <_sk_store_f16_sse2+0x19a>
.byte 15,17,4,214 // movups %xmm0,(%esi,%edx,8)
.byte 102,15,106,206 // punpckhdq %xmm6,%xmm1
.byte 243,15,127,76,214,16 // movdqu %xmm1,0x10(%esi,%edx,8)
@@ -66730,13 +67392,13 @@ _sk_store_f16_sse2:
.byte 195 // ret
.byte 102,15,214,4,214 // movq %xmm0,(%esi,%edx,8)
.byte 131,255,1 // cmp $0x1,%edi
- .byte 116,212 // je 5d46 <_sk_store_f16_sse2+0x178>
+ .byte 116,212 // je 5ef1 <_sk_store_f16_sse2+0x178>
.byte 102,15,23,68,214,8 // movhpd %xmm0,0x8(%esi,%edx,8)
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,201 // jb 5d46 <_sk_store_f16_sse2+0x178>
+ .byte 114,201 // jb 5ef1 <_sk_store_f16_sse2+0x178>
.byte 102,15,106,206 // punpckhdq %xmm6,%xmm1
.byte 102,15,214,76,214,16 // movq %xmm1,0x10(%esi,%edx,8)
- .byte 235,189 // jmp 5d46 <_sk_store_f16_sse2+0x178>
+ .byte 235,189 // jmp 5ef1 <_sk_store_f16_sse2+0x178>
HIDDEN _sk_load_u16_be_sse2
.globl _sk_load_u16_be_sse2
@@ -66759,9 +67421,9 @@ _sk_load_u16_be_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 193,230,2 // shl $0x2,%esi
.byte 133,219 // test %ebx,%ebx
- .byte 232,0,0,0,0 // call 5db4 <_sk_load_u16_be_sse2+0x2b>
+ .byte 232,0,0,0,0 // call 5f5f <_sk_load_u16_be_sse2+0x2b>
.byte 90 // pop %edx
- .byte 15,133,11,1,0,0 // jne 5ec6 <_sk_load_u16_be_sse2+0x13d>
+ .byte 15,133,11,1,0,0 // jne 6071 <_sk_load_u16_be_sse2+0x13d>
.byte 102,15,16,4,119 // movupd (%edi,%esi,2),%xmm0
.byte 243,15,111,76,119,16 // movdqu 0x10(%edi,%esi,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -66782,7 +67444,7 @@ _sk_load_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,252,157,0,0 // movaps 0x9dfc(%edx),%xmm4
+ .byte 15,40,162,65,158,0,0 // movaps 0x9e41(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -66832,12 +67494,12 @@ _sk_load_u16_be_sse2:
.byte 242,15,16,4,119 // movsd (%edi,%esi,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,238,254,255,255 // je 5dc6 <_sk_load_u16_be_sse2+0x3d>
+ .byte 15,132,238,254,255,255 // je 5f71 <_sk_load_u16_be_sse2+0x3d>
.byte 102,15,22,68,119,8 // movhpd 0x8(%edi,%esi,2),%xmm0
.byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,223,254,255,255 // jb 5dc6 <_sk_load_u16_be_sse2+0x3d>
+ .byte 15,130,223,254,255,255 // jb 5f71 <_sk_load_u16_be_sse2+0x3d>
.byte 243,15,126,76,119,16 // movq 0x10(%edi,%esi,2),%xmm1
- .byte 233,212,254,255,255 // jmp 5dc6 <_sk_load_u16_be_sse2+0x3d>
+ .byte 233,212,254,255,255 // jmp 5f71 <_sk_load_u16_be_sse2+0x3d>
HIDDEN _sk_load_rgb_u16_be_sse2
.globl _sk_load_rgb_u16_be_sse2
@@ -66859,9 +67521,9 @@ _sk_load_rgb_u16_be_sse2:
.byte 3,50 // add (%edx),%esi
.byte 107,25,3 // imul $0x3,(%ecx),%ebx
.byte 133,255 // test %edi,%edi
- .byte 232,0,0,0,0 // call 5f1b <_sk_load_rgb_u16_be_sse2+0x29>
+ .byte 232,0,0,0,0 // call 60c6 <_sk_load_rgb_u16_be_sse2+0x29>
.byte 90 // pop %edx
- .byte 15,133,240,0,0,0 // jne 6012 <_sk_load_rgb_u16_be_sse2+0x120>
+ .byte 15,133,240,0,0,0 // jne 61bd <_sk_load_rgb_u16_be_sse2+0x120>
.byte 243,15,111,20,94 // movdqu (%esi,%ebx,2),%xmm2
.byte 243,15,111,92,94,8 // movdqu 0x8(%esi,%ebx,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -66886,7 +67548,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,170,149,156,0,0 // movaps 0x9c95(%edx),%xmm5
+ .byte 15,40,170,218,156,0,0 // movaps 0x9cda(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -66912,7 +67574,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,21,154,0,0 // movaps 0x9a15(%edx),%xmm3
+ .byte 15,40,154,90,154,0,0 // movaps 0x9a5a(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -66926,20 +67588,20 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,15,196,84,94,4,2 // pinsrw $0x2,0x4(%esi,%ebx,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,13 // jne 6034 <_sk_load_rgb_u16_be_sse2+0x142>
+ .byte 117,13 // jne 61df <_sk_load_rgb_u16_be_sse2+0x142>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,16,255,255,255 // jmp 5f44 <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 233,16,255,255,255 // jmp 60ef <_sk_load_rgb_u16_be_sse2+0x52>
.byte 102,15,110,68,94,6 // movd 0x6(%esi,%ebx,2),%xmm0
.byte 102,15,196,68,94,10,2 // pinsrw $0x2,0xa(%esi,%ebx,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,18 // jb 605c <_sk_load_rgb_u16_be_sse2+0x16a>
+ .byte 114,18 // jb 6207 <_sk_load_rgb_u16_be_sse2+0x16a>
.byte 102,15,110,92,94,12 // movd 0xc(%esi,%ebx,2),%xmm3
.byte 102,15,196,92,94,16,2 // pinsrw $0x2,0x10(%esi,%ebx,2),%xmm3
- .byte 233,232,254,255,255 // jmp 5f44 <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 233,232,254,255,255 // jmp 60ef <_sk_load_rgb_u16_be_sse2+0x52>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,223,254,255,255 // jmp 5f44 <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 233,223,254,255,255 // jmp 60ef <_sk_load_rgb_u16_be_sse2+0x52>
HIDDEN _sk_store_u16_be_sse2
.globl _sk_store_u16_be_sse2
@@ -66949,86 +67611,103 @@ _sk_store_u16_be_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 232,0,0,0,0 // call 606f <_sk_store_u16_be_sse2+0xa>
- .byte 95 // pop %edi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,48 // mov (%eax),%esi
- .byte 139,86,4 // mov 0x4(%esi),%edx
- .byte 15,175,81,4 // imul 0x4(%ecx),%edx
- .byte 1,210 // add %edx,%edx
- .byte 3,22 // add (%esi),%edx
- .byte 139,49 // mov (%ecx),%esi
- .byte 15,40,183,241,157,0,0 // movaps 0x9df1(%edi),%xmm6
- .byte 139,121,8 // mov 0x8(%ecx),%edi
- .byte 193,230,2 // shl $0x2,%esi
- .byte 15,40,224 // movaps %xmm0,%xmm4
+ .byte 131,236,32 // sub $0x20,%esp
+ .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
+ .byte 232,0,0,0,0 // call 6221 <_sk_store_u16_be_sse2+0x11>
+ .byte 88 // pop %eax
+ .byte 15,87,228 // xorps %xmm4,%xmm4
+ .byte 15,95,224 // maxps %xmm0,%xmm4
+ .byte 15,40,168,255,152,0,0 // movaps 0x98ff(%eax),%xmm5
+ .byte 15,93,229 // minps %xmm5,%xmm4
+ .byte 15,40,176,47,158,0,0 // movaps 0x9e2f(%eax),%xmm6
.byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,224 // packssdw %xmm0,%xmm4
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,113,245,8 // psllw $0x8,%xmm5
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,235,229 // por %xmm5,%xmm4
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
- .byte 102,15,114,229,16 // psrad $0x10,%xmm5
- .byte 102,15,107,232 // packssdw %xmm0,%xmm5
- .byte 102,15,111,253 // movdqa %xmm5,%xmm7
- .byte 102,15,113,247,8 // psllw $0x8,%xmm7
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,235,239 // por %xmm7,%xmm5
- .byte 102,15,97,229 // punpcklwd %xmm5,%xmm4
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
- .byte 102,15,114,229,16 // psrad $0x10,%xmm5
- .byte 102,15,107,232 // packssdw %xmm0,%xmm5
- .byte 102,15,111,253 // movdqa %xmm5,%xmm7
- .byte 102,15,113,247,8 // psllw $0x8,%xmm7
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,235,239 // por %xmm7,%xmm5
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 102,15,91,246 // cvtps2dq %xmm6,%xmm6
- .byte 102,15,114,246,16 // pslld $0x10,%xmm6
- .byte 102,15,114,230,16 // psrad $0x10,%xmm6
- .byte 102,15,107,240 // packssdw %xmm0,%xmm6
- .byte 102,15,111,254 // movdqa %xmm6,%xmm7
+ .byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,247,8 // psllw $0x8,%xmm7
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,235,247 // por %xmm7,%xmm6
- .byte 102,15,97,238 // punpcklwd %xmm6,%xmm5
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,98,245 // punpckldq %xmm5,%xmm6
+ .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
+ .byte 102,15,235,231 // por %xmm7,%xmm4
+ .byte 102,15,239,255 // pxor %xmm7,%xmm7
+ .byte 15,95,249 // maxps %xmm1,%xmm7
+ .byte 15,93,253 // minps %xmm5,%xmm7
+ .byte 15,89,254 // mulps %xmm6,%xmm7
+ .byte 102,15,91,255 // cvtps2dq %xmm7,%xmm7
+ .byte 102,15,114,247,16 // pslld $0x10,%xmm7
+ .byte 102,15,114,231,16 // psrad $0x10,%xmm7
+ .byte 102,15,107,248 // packssdw %xmm0,%xmm7
+ .byte 102,15,111,223 // movdqa %xmm7,%xmm3
+ .byte 102,15,113,243,8 // psllw $0x8,%xmm3
+ .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
+ .byte 102,15,235,251 // por %xmm3,%xmm7
+ .byte 102,15,97,231 // punpcklwd %xmm7,%xmm4
+ .byte 102,15,239,219 // pxor %xmm3,%xmm3
+ .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
+ .byte 15,95,218 // maxps %xmm2,%xmm3
+ .byte 15,93,221 // minps %xmm5,%xmm3
+ .byte 15,89,222 // mulps %xmm6,%xmm3
+ .byte 102,15,91,251 // cvtps2dq %xmm3,%xmm7
+ .byte 102,15,114,247,16 // pslld $0x10,%xmm7
+ .byte 102,15,114,231,16 // psrad $0x10,%xmm7
+ .byte 102,15,107,248 // packssdw %xmm0,%xmm7
+ .byte 102,15,111,223 // movdqa %xmm7,%xmm3
+ .byte 102,15,113,243,8 // psllw $0x8,%xmm3
+ .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
+ .byte 102,15,235,251 // por %xmm3,%xmm7
+ .byte 102,15,239,219 // pxor %xmm3,%xmm3
+ .byte 15,95,93,232 // maxps -0x18(%ebp),%xmm3
+ .byte 15,93,221 // minps %xmm5,%xmm3
+ .byte 15,89,222 // mulps %xmm6,%xmm3
+ .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3
+ .byte 102,15,114,243,16 // pslld $0x10,%xmm3
+ .byte 102,15,114,227,16 // psrad $0x10,%xmm3
+ .byte 102,15,107,216 // packssdw %xmm0,%xmm3
+ .byte 102,15,111,235 // movdqa %xmm3,%xmm5
+ .byte 102,15,113,245,8 // psllw $0x8,%xmm5
+ .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
+ .byte 102,15,235,221 // por %xmm5,%xmm3
+ .byte 102,15,97,251 // punpcklwd %xmm3,%xmm7
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,17 // mov (%ecx),%edx
+ .byte 139,119,4 // mov 0x4(%edi),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
+ .byte 1,246 // add %esi,%esi
+ .byte 3,55 // add (%edi),%esi
+ .byte 139,121,8 // mov 0x8(%ecx),%edi
+ .byte 193,226,2 // shl $0x2,%edx
.byte 133,255 // test %edi,%edi
- .byte 117,32 // jne 616b <_sk_store_u16_be_sse2+0x106>
- .byte 15,17,52,114 // movups %xmm6,(%edx,%esi,2)
- .byte 102,15,106,229 // punpckhdq %xmm5,%xmm4
- .byte 243,15,127,100,114,16 // movdqu %xmm4,0x10(%edx,%esi,2)
+ .byte 117,49 // jne 6350 <_sk_store_u16_be_sse2+0x140>
+ .byte 102,15,111,220 // movdqa %xmm4,%xmm3
+ .byte 102,15,98,223 // punpckldq %xmm7,%xmm3
+ .byte 243,15,127,28,86 // movdqu %xmm3,(%esi,%edx,2)
+ .byte 102,15,106,231 // punpckhdq %xmm7,%xmm4
+ .byte 243,15,127,100,86,16 // movdqu %xmm4,0x10(%esi,%edx,2)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
+ .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
.byte 82 // push %edx
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,16 // add $0x10,%esp
+ .byte 131,196,48 // add $0x30,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 102,15,214,52,114 // movq %xmm6,(%edx,%esi,2)
+ .byte 102,15,111,236 // movdqa %xmm4,%xmm5
+ .byte 102,15,98,239 // punpckldq %xmm7,%xmm5
+ .byte 102,15,214,44,86 // movq %xmm5,(%esi,%edx,2)
.byte 131,255,1 // cmp $0x1,%edi
- .byte 116,228 // je 6159 <_sk_store_u16_be_sse2+0xf4>
- .byte 102,15,23,116,114,8 // movhpd %xmm6,0x8(%edx,%esi,2)
+ .byte 116,212 // je 6336 <_sk_store_u16_be_sse2+0x126>
+ .byte 102,15,23,108,86,8 // movhpd %xmm5,0x8(%esi,%edx,2)
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,217 // jb 6159 <_sk_store_u16_be_sse2+0xf4>
- .byte 102,15,106,229 // punpckhdq %xmm5,%xmm4
- .byte 102,15,214,100,114,16 // movq %xmm4,0x10(%edx,%esi,2)
- .byte 235,205 // jmp 6159 <_sk_store_u16_be_sse2+0xf4>
+ .byte 114,201 // jb 6336 <_sk_store_u16_be_sse2+0x126>
+ .byte 102,15,106,231 // punpckhdq %xmm7,%xmm4
+ .byte 102,15,214,100,86,16 // movq %xmm4,0x10(%esi,%edx,2)
+ .byte 235,189 // jmp 6336 <_sk_store_u16_be_sse2+0x126>
HIDDEN _sk_load_f32_sse2
.globl _sk_load_f32_sse2
@@ -67051,7 +67730,7 @@ _sk_load_f32_sse2:
.byte 15,16,36,23 // movups (%edi,%edx,1),%xmm4
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 133,255 // test %edi,%edi
- .byte 117,71 // jne 6203 <_sk_load_f32_sse2+0x77>
+ .byte 117,71 // jne 63f0 <_sk_load_f32_sse2+0x77>
.byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
.byte 15,16,68,178,48 // movups 0x30(%edx,%esi,4),%xmm0
@@ -67079,17 +67758,17 @@ _sk_load_f32_sse2:
.byte 195 // ret
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,8 // jne 6213 <_sk_load_f32_sse2+0x87>
+ .byte 117,8 // jne 6400 <_sk_load_f32_sse2+0x87>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 235,184 // jmp 61cb <_sk_load_f32_sse2+0x3f>
+ .byte 235,184 // jmp 63b8 <_sk_load_f32_sse2+0x3f>
.byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,7 // jb 6224 <_sk_load_f32_sse2+0x98>
+ .byte 114,7 // jb 6411 <_sk_load_f32_sse2+0x98>
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
- .byte 235,167 // jmp 61cb <_sk_load_f32_sse2+0x3f>
+ .byte 235,167 // jmp 63b8 <_sk_load_f32_sse2+0x3f>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,162 // jmp 61cb <_sk_load_f32_sse2+0x3f>
+ .byte 235,162 // jmp 63b8 <_sk_load_f32_sse2+0x3f>
HIDDEN _sk_load_f32_dst_sse2
.globl _sk_load_f32_dst_sse2
@@ -67115,7 +67794,7 @@ _sk_load_f32_dst_sse2:
.byte 15,16,52,23 // movups (%edi,%edx,1),%xmm6
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 133,255 // test %edi,%edi
- .byte 117,97 // jne 62c5 <_sk_load_f32_dst_sse2+0x9c>
+ .byte 117,97 // jne 64b2 <_sk_load_f32_dst_sse2+0x9c>
.byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
.byte 15,16,84,178,48 // movups 0x30(%edx,%esi,4),%xmm2
@@ -67149,17 +67828,17 @@ _sk_load_f32_dst_sse2:
.byte 195 // ret
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,8 // jne 62d5 <_sk_load_f32_dst_sse2+0xac>
+ .byte 117,8 // jne 64c2 <_sk_load_f32_dst_sse2+0xac>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,158 // jmp 6273 <_sk_load_f32_dst_sse2+0x4a>
+ .byte 235,158 // jmp 6460 <_sk_load_f32_dst_sse2+0x4a>
.byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,7 // jb 62e6 <_sk_load_f32_dst_sse2+0xbd>
+ .byte 114,7 // jb 64d3 <_sk_load_f32_dst_sse2+0xbd>
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
- .byte 235,141 // jmp 6273 <_sk_load_f32_dst_sse2+0x4a>
+ .byte 235,141 // jmp 6460 <_sk_load_f32_dst_sse2+0x4a>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,136 // jmp 6273 <_sk_load_f32_dst_sse2+0x4a>
+ .byte 235,136 // jmp 6460 <_sk_load_f32_dst_sse2+0x4a>
HIDDEN _sk_store_f32_sse2
.globl _sk_store_f32_sse2
@@ -67197,7 +67876,7 @@ _sk_store_f32_sse2:
.byte 15,40,238 // movaps %xmm6,%xmm5
.byte 102,15,20,239 // unpcklpd %xmm7,%xmm5
.byte 133,255 // test %edi,%edi
- .byte 117,40 // jne 6371 <_sk_store_f32_sse2+0x86>
+ .byte 117,40 // jne 655e <_sk_store_f32_sse2+0x86>
.byte 102,15,21,247 // unpckhpd %xmm7,%xmm6
.byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4)
.byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4)
@@ -67214,12 +67893,12 @@ _sk_store_f32_sse2:
.byte 93 // pop %ebp
.byte 195 // ret
.byte 131,255,1 // cmp $0x1,%edi
- .byte 116,232 // je 635e <_sk_store_f32_sse2+0x73>
+ .byte 116,232 // je 654b <_sk_store_f32_sse2+0x73>
.byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4)
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,222 // jb 635e <_sk_store_f32_sse2+0x73>
+ .byte 114,222 // jb 654b <_sk_store_f32_sse2+0x73>
.byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4)
- .byte 235,214 // jmp 635e <_sk_store_f32_sse2+0x73>
+ .byte 235,214 // jmp 654b <_sk_store_f32_sse2+0x73>
HIDDEN _sk_repeat_x_sse2
.globl _sk_repeat_x_sse2
@@ -67228,7 +67907,7 @@ _sk_repeat_x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6393 <_sk_repeat_x_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6580 <_sk_repeat_x_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,17 // mov (%ecx),%edx
@@ -67239,7 +67918,7 @@ _sk_repeat_x_sse2:
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,168,157,149,0,0 // andps 0x959d(%eax),%xmm5
+ .byte 15,84,168,160,149,0,0 // andps 0x95a0(%eax),%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,230 // mulps %xmm6,%xmm4
@@ -67260,7 +67939,7 @@ _sk_repeat_y_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 63e5 <_sk_repeat_y_sse2+0xb>
+ .byte 232,0,0,0,0 // call 65d2 <_sk_repeat_y_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,17 // mov (%ecx),%edx
@@ -67271,7 +67950,7 @@ _sk_repeat_y_sse2:
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,168,75,149,0,0 // andps 0x954b(%eax),%xmm5
+ .byte 15,84,168,78,149,0,0 // andps 0x954e(%eax),%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,230 // mulps %xmm6,%xmm4
@@ -67292,7 +67971,7 @@ _sk_mirror_x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6437 <_sk_mirror_x_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6624 <_sk_mirror_x_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -67301,13 +67980,13 @@ _sk_mirror_x_sse2:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 243,15,89,169,217,156,0,0 // mulss 0x9cd9(%ecx),%xmm5
+ .byte 243,15,89,169,220,156,0,0 // mulss 0x9cdc(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,169,249,148,0,0 // andps 0x94f9(%ecx),%xmm5
+ .byte 15,84,169,252,148,0,0 // andps 0x94fc(%ecx),%xmm5
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 243,15,88,228 // addss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
@@ -67333,7 +68012,7 @@ _sk_mirror_y_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 64ab <_sk_mirror_y_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6698 <_sk_mirror_y_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -67342,13 +68021,13 @@ _sk_mirror_y_sse2:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,92,206 // subps %xmm6,%xmm1
- .byte 243,15,89,169,101,156,0,0 // mulss 0x9c65(%ecx),%xmm5
+ .byte 243,15,89,169,104,156,0,0 // mulss 0x9c68(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,169,133,148,0,0 // andps 0x9485(%ecx),%xmm5
+ .byte 15,84,169,136,148,0,0 // andps 0x9488(%ecx),%xmm5
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 243,15,88,228 // addss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
@@ -67374,12 +68053,12 @@ _sk_clamp_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 651f <_sk_clamp_x_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 670c <_sk_clamp_x_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,93,160,17,148,0,0 // minps 0x9411(%eax),%xmm4
+ .byte 15,93,160,20,148,0,0 // minps 0x9414(%eax),%xmm4
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -67397,14 +68076,14 @@ _sk_repeat_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 654f <_sk_repeat_x_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 673c <_sk_repeat_x_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 243,15,91,224 // cvttps2dq %xmm0,%xmm4
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,194,245,1 // cmpltps %xmm5,%xmm6
- .byte 15,40,184,225,147,0,0 // movaps 0x93e1(%eax),%xmm7
+ .byte 15,40,184,228,147,0,0 // movaps 0x93e4(%eax),%xmm7
.byte 15,84,247 // andps %xmm7,%xmm6
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,92,238 // subps %xmm6,%xmm5
@@ -67428,16 +68107,16 @@ _sk_mirror_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6599 <_sk_mirror_x_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6786 <_sk_mirror_x_1_sse2+0xb>
.byte 88 // pop %eax
- .byte 15,40,160,7,148,0,0 // movaps 0x9407(%eax),%xmm4
+ .byte 15,40,160,10,148,0,0 // movaps 0x940a(%eax),%xmm4
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,168,135,147,0,0 // movaps 0x9387(%eax),%xmm5
+ .byte 15,40,168,138,147,0,0 // movaps 0x938a(%eax),%xmm5
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,40,184,151,147,0,0 // movaps 0x9397(%eax),%xmm7
+ .byte 15,40,184,154,147,0,0 // movaps 0x939a(%eax),%xmm7
.byte 15,84,239 // andps %xmm7,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,88,246 // addps %xmm6,%xmm6
@@ -67467,13 +68146,13 @@ _sk_luminance_to_alpha_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 6603 <_sk_luminance_to_alpha_sse2+0xe>
+ .byte 232,0,0,0,0 // call 67f0 <_sk_luminance_to_alpha_sse2+0xe>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,128,109,152,0,0 // mulps 0x986d(%eax),%xmm0
- .byte 15,89,136,125,152,0,0 // mulps 0x987d(%eax),%xmm1
+ .byte 15,89,128,112,152,0,0 // mulps 0x9870(%eax),%xmm0
+ .byte 15,89,136,128,152,0,0 // mulps 0x9880(%eax),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,152,141,152,0,0 // mulps 0x988d(%eax),%xmm3
+ .byte 15,89,152,144,152,0,0 // mulps 0x9890(%eax),%xmm3
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -67860,7 +68539,7 @@ _sk_evenly_spaced_gradient_sse2:
.byte 86 // push %esi
.byte 131,236,60 // sub $0x3c,%esp
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 6a99 <_sk_evenly_spaced_gradient_sse2+0x12>
+ .byte 232,0,0,0,0 // call 6c86 <_sk_evenly_spaced_gradient_sse2+0x12>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -67869,12 +68548,12 @@ _sk_evenly_spaced_gradient_sse2:
.byte 78 // dec %esi
.byte 102,15,110,206 // movd %esi,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,111,146,7,148,0,0 // movdqa 0x9407(%edx),%xmm2
+ .byte 102,15,111,146,10,148,0,0 // movdqa 0x940a(%edx),%xmm2
.byte 102,15,219,209 // pand %xmm1,%xmm2
- .byte 102,15,235,146,199,145,0,0 // por 0x91c7(%edx),%xmm2
+ .byte 102,15,235,146,202,145,0,0 // por 0x91ca(%edx),%xmm2
.byte 102,15,114,209,16 // psrld $0x10,%xmm1
- .byte 102,15,235,138,23,148,0,0 // por 0x9417(%edx),%xmm1
- .byte 15,88,138,39,148,0,0 // addps 0x9427(%edx),%xmm1
+ .byte 102,15,235,138,26,148,0,0 // por 0x941a(%edx),%xmm1
+ .byte 15,88,138,42,148,0,0 // addps 0x942a(%edx),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
@@ -67988,7 +68667,7 @@ _sk_gradient_sse2:
.byte 139,10 // mov (%edx),%ecx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,249,2 // cmp $0x2,%ecx
- .byte 114,33 // jb 6c81 <_sk_gradient_sse2+0x3a>
+ .byte 114,33 // jb 6e6e <_sk_gradient_sse2+0x3a>
.byte 139,114,36 // mov 0x24(%edx),%esi
.byte 73 // dec %ecx
.byte 131,198,4 // add $0x4,%esi
@@ -67999,7 +68678,7 @@ _sk_gradient_sse2:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 131,198,4 // add $0x4,%esi
.byte 73 // dec %ecx
- .byte 117,234 // jne 6c6b <_sk_gradient_sse2+0x24>
+ .byte 117,234 // jne 6e58 <_sk_gradient_sse2+0x24>
.byte 102,15,126,206 // movd %xmm1,%esi
.byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2
.byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
@@ -68152,7 +68831,7 @@ _sk_xy_to_unit_angle_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 6e89 <_sk_xy_to_unit_angle_sse2+0x18>
+ .byte 232,0,0,0,0 // call 7076 <_sk_xy_to_unit_angle_sse2+0x18>
.byte 88 // pop %eax
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
@@ -68167,30 +68846,30 @@ _sk_xy_to_unit_angle_sse2:
.byte 15,94,247 // divps %xmm7,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,255 // mulps %xmm7,%xmm7
- .byte 15,40,128,71,144,0,0 // movaps 0x9047(%eax),%xmm0
+ .byte 15,40,128,74,144,0,0 // movaps 0x904a(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,87,144,0,0 // addps 0x9057(%eax),%xmm0
+ .byte 15,88,128,90,144,0,0 // addps 0x905a(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,103,144,0,0 // addps 0x9067(%eax),%xmm0
+ .byte 15,88,128,106,144,0,0 // addps 0x906a(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,119,144,0,0 // addps 0x9077(%eax),%xmm0
+ .byte 15,88,128,122,144,0,0 // addps 0x907a(%eax),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,194,236,1 // cmpltps %xmm4,%xmm5
- .byte 15,40,176,135,144,0,0 // movaps 0x9087(%eax),%xmm6
+ .byte 15,40,176,138,144,0,0 // movaps 0x908a(%eax),%xmm6
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,84,245 // andps %xmm5,%xmm6
.byte 15,85,232 // andnps %xmm0,%xmm5
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,86,238 // orps %xmm6,%xmm5
.byte 15,194,204,1 // cmpltps %xmm4,%xmm1
- .byte 15,40,128,151,138,0,0 // movaps 0x8a97(%eax),%xmm0
+ .byte 15,40,128,154,138,0,0 // movaps 0x8a9a(%eax),%xmm0
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,84,193 // andps %xmm1,%xmm0
.byte 15,85,205 // andnps %xmm5,%xmm1
.byte 15,86,200 // orps %xmm0,%xmm1
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,168,167,138,0,0 // movaps 0x8aa7(%eax),%xmm5
+ .byte 15,40,168,170,138,0,0 // movaps 0x8aaa(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,84,232 // andps %xmm0,%xmm5
.byte 15,85,193 // andnps %xmm1,%xmm0
@@ -68251,15 +68930,15 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 232,0,0,0,0 // call 6fa6 <_sk_xy_to_2pt_conical_quadratic_first_sse2+0x31>
+ .byte 232,0,0,0,0 // call 7193 <_sk_xy_to_2pt_conical_quadratic_first_sse2+0x31>
.byte 90 // pop %edx
.byte 243,15,89,237 // mulss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 243,15,16,65,64 // movss 0x40(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,162,122,143,0,0 // mulps 0x8f7a(%edx),%xmm4
- .byte 15,89,130,138,143,0,0 // mulps 0x8f8a(%edx),%xmm0
+ .byte 15,89,162,125,143,0,0 // mulps 0x8f7d(%edx),%xmm4
+ .byte 15,89,130,141,143,0,0 // mulps 0x8f8d(%edx),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
@@ -68268,7 +68947,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2:
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 243,15,16,65,68 // movss 0x44(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,130,122,137,0,0 // mulps 0x897a(%edx),%xmm0
+ .byte 15,89,130,125,137,0,0 // mulps 0x897d(%edx),%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
@@ -68297,25 +68976,25 @@ _sk_xy_to_2pt_conical_quadratic_second_sse2:
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 232,0,0,0,0 // call 7031 <_sk_xy_to_2pt_conical_quadratic_second_sse2+0x31>
+ .byte 232,0,0,0,0 // call 721e <_sk_xy_to_2pt_conical_quadratic_second_sse2+0x31>
.byte 90 // pop %edx
.byte 243,15,89,237 // mulss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 243,15,16,65,64 // movss 0x40(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,162,239,142,0,0 // mulps 0x8eef(%edx),%xmm4
- .byte 15,89,130,255,142,0,0 // mulps 0x8eff(%edx),%xmm0
+ .byte 15,89,162,242,142,0,0 // mulps 0x8ef2(%edx),%xmm4
+ .byte 15,89,130,2,143,0,0 // mulps 0x8f02(%edx),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,81,197 // sqrtps %xmm5,%xmm0
- .byte 15,87,162,239,141,0,0 // xorps 0x8def(%edx),%xmm4
+ .byte 15,87,162,242,141,0,0 // xorps 0x8df2(%edx),%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 243,15,16,65,68 // movss 0x44(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,130,239,136,0,0 // mulps 0x88ef(%edx),%xmm0
+ .byte 15,89,130,242,136,0,0 // mulps 0x88f2(%edx),%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
@@ -68333,7 +69012,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 709d <_sk_xy_to_2pt_conical_linear_sse2+0xb>
+ .byte 232,0,0,0,0 // call 728a <_sk_xy_to_2pt_conical_linear_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -68342,7 +69021,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,15,89,236 // mulss %xmm4,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,89,169,131,142,0,0 // mulps 0x8e83(%ecx),%xmm5
+ .byte 15,89,169,134,142,0,0 // mulps 0x8e86(%ecx),%xmm5
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
@@ -68350,7 +69029,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,15,89,228 // mulss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,129,131,141,0,0 // xorps 0x8d83(%ecx),%xmm0
+ .byte 15,87,129,134,141,0,0 // xorps 0x8d86(%ecx),%xmm0
.byte 15,94,197 // divps %xmm5,%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
@@ -68427,16 +69106,16 @@ _sk_save_xy_sse2:
.byte 131,236,24 // sub $0x18,%esp
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 7186 <_sk_save_xy_sse2+0x12>
+ .byte 232,0,0,0,0 // call 7373 <_sk_save_xy_sse2+0x12>
.byte 88 // pop %eax
- .byte 15,40,160,154,135,0,0 // movaps 0x879a(%eax),%xmm4
+ .byte 15,40,160,157,135,0,0 // movaps 0x879d(%eax),%xmm4
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,88,236 // addps %xmm4,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,40,144,170,135,0,0 // movaps 0x87aa(%eax),%xmm2
+ .byte 15,40,144,173,135,0,0 // movaps 0x87ad(%eax),%xmm2
.byte 15,84,250 // andps %xmm2,%xmm7
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,92,238 // subps %xmm6,%xmm5
@@ -68511,15 +69190,15 @@ _sk_bilinear_nx_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 726e <_sk_bilinear_nx_sse2+0xa>
+ .byte 232,0,0,0,0 // call 745b <_sk_bilinear_nx_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,210,140,0,0 // addps 0x8cd2(%eax),%xmm0
- .byte 15,40,168,194,134,0,0 // movaps 0x86c2(%eax),%xmm5
+ .byte 15,88,128,213,140,0,0 // addps 0x8cd5(%eax),%xmm0
+ .byte 15,40,168,197,134,0,0 // movaps 0x86c5(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,0,1,0,0 // movups %xmm5,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -68540,14 +69219,14 @@ _sk_bilinear_px_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 72b4 <_sk_bilinear_px_sse2+0xa>
+ .byte 232,0,0,0,0 // call 74a1 <_sk_bilinear_px_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,108,134,0,0 // addps 0x866c(%eax),%xmm0
+ .byte 15,88,128,111,134,0,0 // addps 0x866f(%eax),%xmm0
.byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -68567,15 +69246,15 @@ _sk_bilinear_ny_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 72f0 <_sk_bilinear_ny_sse2+0xa>
+ .byte 232,0,0,0,0 // call 74dd <_sk_bilinear_ny_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,80,140,0,0 // addps 0x8c50(%eax),%xmm1
- .byte 15,40,168,64,134,0,0 // movaps 0x8640(%eax),%xmm5
+ .byte 15,88,136,83,140,0,0 // addps 0x8c53(%eax),%xmm1
+ .byte 15,40,168,67,134,0,0 // movaps 0x8643(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,64,1,0,0 // movups %xmm5,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -68596,14 +69275,14 @@ _sk_bilinear_py_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7337 <_sk_bilinear_py_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7524 <_sk_bilinear_py_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,233,133,0,0 // addps 0x85e9(%eax),%xmm1
+ .byte 15,88,136,236,133,0,0 // addps 0x85ec(%eax),%xmm1
.byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -68623,20 +69302,20 @@ _sk_bicubic_n3x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7374 <_sk_bicubic_n3x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7561 <_sk_bicubic_n3x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,220,139,0,0 // addps 0x8bdc(%eax),%xmm0
- .byte 15,40,168,188,133,0,0 // movaps 0x85bc(%eax),%xmm5
+ .byte 15,88,128,223,139,0,0 // addps 0x8bdf(%eax),%xmm0
+ .byte 15,40,168,191,133,0,0 // movaps 0x85bf(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,236,139,0,0 // mulps 0x8bec(%eax),%xmm5
- .byte 15,88,168,172,135,0,0 // addps 0x87ac(%eax),%xmm5
+ .byte 15,89,168,239,139,0,0 // mulps 0x8bef(%eax),%xmm5
+ .byte 15,88,168,175,135,0,0 // addps 0x87af(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,0,1,0,0 // movups %xmm5,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -68657,23 +69336,23 @@ _sk_bicubic_n1x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 73d1 <_sk_bicubic_n1x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 75be <_sk_bicubic_n1x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,111,139,0,0 // addps 0x8b6f(%eax),%xmm0
- .byte 15,40,168,95,133,0,0 // movaps 0x855f(%eax),%xmm5
+ .byte 15,88,128,114,139,0,0 // addps 0x8b72(%eax),%xmm0
+ .byte 15,40,168,98,133,0,0 // movaps 0x8562(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,159,139,0,0 // movaps 0x8b9f(%eax),%xmm4
+ .byte 15,40,160,162,139,0,0 // movaps 0x8ba2(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,175,139,0,0 // addps 0x8baf(%eax),%xmm4
+ .byte 15,88,160,178,139,0,0 // addps 0x8bb2(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,79,133,0,0 // addps 0x854f(%eax),%xmm4
+ .byte 15,88,160,82,133,0,0 // addps 0x8552(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,191,139,0,0 // addps 0x8bbf(%eax),%xmm4
+ .byte 15,88,160,194,139,0,0 // addps 0x8bc2(%eax),%xmm4
.byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -68693,22 +69372,22 @@ _sk_bicubic_p1x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 743c <_sk_bicubic_p1x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7629 <_sk_bicubic_p1x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,228,132,0,0 // movaps 0x84e4(%eax),%xmm4
+ .byte 15,40,160,231,132,0,0 // movaps 0x84e7(%eax),%xmm4
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,174,128,0,0,0 // movups 0x80(%esi),%xmm5
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,176,52,139,0,0 // movaps 0x8b34(%eax),%xmm6
+ .byte 15,40,176,55,139,0,0 // movaps 0x8b37(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,68,139,0,0 // addps 0x8b44(%eax),%xmm6
+ .byte 15,88,176,71,139,0,0 // addps 0x8b47(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,84,139,0,0 // addps 0x8b54(%eax),%xmm6
+ .byte 15,88,176,87,139,0,0 // addps 0x8b57(%eax),%xmm6
.byte 15,17,182,0,1,0,0 // movups %xmm6,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -68728,18 +69407,18 @@ _sk_bicubic_p3x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 749c <_sk_bicubic_p3x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7689 <_sk_bicubic_p3x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,228,138,0,0 // addps 0x8ae4(%eax),%xmm0
+ .byte 15,88,128,231,138,0,0 // addps 0x8ae7(%eax),%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,196,138,0,0 // mulps 0x8ac4(%eax),%xmm4
- .byte 15,88,160,132,134,0,0 // addps 0x8684(%eax),%xmm4
+ .byte 15,89,160,199,138,0,0 // mulps 0x8ac7(%eax),%xmm4
+ .byte 15,88,160,135,134,0,0 // addps 0x8687(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -68760,20 +69439,20 @@ _sk_bicubic_n3y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 74ef <_sk_bicubic_n3y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 76dc <_sk_bicubic_n3y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,97,138,0,0 // addps 0x8a61(%eax),%xmm1
- .byte 15,40,168,65,132,0,0 // movaps 0x8441(%eax),%xmm5
+ .byte 15,88,136,100,138,0,0 // addps 0x8a64(%eax),%xmm1
+ .byte 15,40,168,68,132,0,0 // movaps 0x8444(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,113,138,0,0 // mulps 0x8a71(%eax),%xmm5
- .byte 15,88,168,49,134,0,0 // addps 0x8631(%eax),%xmm5
+ .byte 15,89,168,116,138,0,0 // mulps 0x8a74(%eax),%xmm5
+ .byte 15,88,168,52,134,0,0 // addps 0x8634(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,64,1,0,0 // movups %xmm5,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -68794,23 +69473,23 @@ _sk_bicubic_n1y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 754d <_sk_bicubic_n1y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 773a <_sk_bicubic_n1y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,243,137,0,0 // addps 0x89f3(%eax),%xmm1
- .byte 15,40,168,227,131,0,0 // movaps 0x83e3(%eax),%xmm5
+ .byte 15,88,136,246,137,0,0 // addps 0x89f6(%eax),%xmm1
+ .byte 15,40,168,230,131,0,0 // movaps 0x83e6(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,35,138,0,0 // movaps 0x8a23(%eax),%xmm4
+ .byte 15,40,160,38,138,0,0 // movaps 0x8a26(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,51,138,0,0 // addps 0x8a33(%eax),%xmm4
+ .byte 15,88,160,54,138,0,0 // addps 0x8a36(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,211,131,0,0 // addps 0x83d3(%eax),%xmm4
+ .byte 15,88,160,214,131,0,0 // addps 0x83d6(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,67,138,0,0 // addps 0x8a43(%eax),%xmm4
+ .byte 15,88,160,70,138,0,0 // addps 0x8a46(%eax),%xmm4
.byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -68830,22 +69509,22 @@ _sk_bicubic_p1y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 75b9 <_sk_bicubic_p1y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 77a6 <_sk_bicubic_p1y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,103,131,0,0 // movaps 0x8367(%eax),%xmm4
+ .byte 15,40,160,106,131,0,0 // movaps 0x836a(%eax),%xmm4
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,174,192,0,0,0 // movups 0xc0(%esi),%xmm5
.byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,176,183,137,0,0 // movaps 0x89b7(%eax),%xmm6
+ .byte 15,40,176,186,137,0,0 // movaps 0x89ba(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,199,137,0,0 // addps 0x89c7(%eax),%xmm6
+ .byte 15,88,176,202,137,0,0 // addps 0x89ca(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,215,137,0,0 // addps 0x89d7(%eax),%xmm6
+ .byte 15,88,176,218,137,0,0 // addps 0x89da(%eax),%xmm6
.byte 15,17,182,64,1,0,0 // movups %xmm6,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -68865,18 +69544,18 @@ _sk_bicubic_p3y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 761a <_sk_bicubic_p3y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7807 <_sk_bicubic_p3y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,102,137,0,0 // addps 0x8966(%eax),%xmm1
+ .byte 15,88,136,105,137,0,0 // addps 0x8969(%eax),%xmm1
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,70,137,0,0 // mulps 0x8946(%eax),%xmm4
- .byte 15,88,160,6,133,0,0 // addps 0x8506(%eax),%xmm4
+ .byte 15,89,160,73,137,0,0 // mulps 0x8949(%eax),%xmm4
+ .byte 15,88,160,9,133,0,0 // addps 0x8509(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -69019,7 +69698,7 @@ _sk_clut_3D_sse2:
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,15,127,77,136 // movdqa %xmm1,-0x78(%ebp)
- .byte 232,0,0,0,0 // call 7800 <_sk_clut_3D_sse2+0xee>
+ .byte 232,0,0,0,0 // call 79ed <_sk_clut_3D_sse2+0xee>
.byte 90 // pop %edx
.byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
.byte 102,15,127,133,8,255,255,255 // movdqa %xmm0,-0xf8(%ebp)
@@ -69027,7 +69706,7 @@ _sk_clut_3D_sse2:
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,162,176,135,0,0 // movdqa 0x87b0(%edx),%xmm4
+ .byte 102,15,111,162,179,135,0,0 // movdqa 0x87b3(%edx),%xmm4
.byte 102,15,127,165,120,255,255,255 // movdqa %xmm4,-0x88(%ebp)
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -69067,7 +69746,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
.byte 15,20,248 // unpcklps %xmm0,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,15,111,130,112,129,0,0 // movdqa 0x8170(%edx),%xmm0
+ .byte 102,15,111,130,115,129,0,0 // movdqa 0x8173(%edx),%xmm0
.byte 102,15,127,133,104,255,255,255 // movdqa %xmm0,-0x98(%ebp)
.byte 102,15,254,200 // paddd %xmm0,%xmm1
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
@@ -69084,7 +69763,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,241 // unpcklpd %xmm1,%xmm6
- .byte 15,40,130,160,135,0,0 // movaps 0x87a0(%edx),%xmm0
+ .byte 15,40,130,163,135,0,0 // movaps 0x87a3(%edx),%xmm0
.byte 15,40,141,248,254,255,255 // movaps -0x108(%ebp),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,41,77,200 // movaps %xmm1,-0x38(%ebp)
@@ -69704,7 +70383,7 @@ _sk_clut_4D_sse2:
.byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,127,93,152 // movdqa %xmm3,-0x68(%ebp)
- .byte 232,0,0,0,0 // call 838c <_sk_clut_4D_sse2+0x165>
+ .byte 232,0,0,0,0 // call 8579 <_sk_clut_4D_sse2+0x165>
.byte 89 // pop %ecx
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,41,133,168,254,255,255 // movaps %xmm0,-0x158(%ebp)
@@ -69715,7 +70394,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,254,214 // paddd %xmm6,%xmm2
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,161,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm4
+ .byte 102,15,111,161,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm4
.byte 102,15,112,203,245 // pshufd $0xf5,%xmm3,%xmm1
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,204 // pmuludq %xmm4,%xmm1
@@ -69757,7 +70436,7 @@ _sk_clut_4D_sse2:
.byte 15,20,223 // unpcklps %xmm7,%xmm3
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
.byte 102,15,41,157,232,254,255,255 // movapd %xmm3,-0x118(%ebp)
- .byte 102,15,254,137,228,117,0,0 // paddd 0x75e4(%ecx),%xmm1
+ .byte 102,15,254,137,231,117,0,0 // paddd 0x75e7(%ecx),%xmm1
.byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6
.byte 102,15,126,240 // movd %xmm6,%eax
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -69772,7 +70451,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,130 // movss (%edx,%eax,4),%xmm7
.byte 15,20,223 // unpcklps %xmm7,%xmm3
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,185,20,124,0,0 // movaps 0x7c14(%ecx),%xmm7
+ .byte 15,40,185,23,124,0,0 // movaps 0x7c17(%ecx),%xmm7
.byte 15,88,199 // addps %xmm7,%xmm0
.byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp)
.byte 15,40,133,248,254,255,255 // movaps -0x108(%ebp),%xmm0
@@ -69793,7 +70472,7 @@ _sk_clut_4D_sse2:
.byte 102,15,127,101,168 // movdqa %xmm4,-0x58(%ebp)
.byte 102,15,254,212 // paddd %xmm4,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,161,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm4
+ .byte 102,15,111,161,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm4
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
@@ -69829,7 +70508,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,213 // unpcklps %xmm5,%xmm2
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,228,117,0,0 // paddd 0x75e4(%ecx),%xmm0
+ .byte 102,15,254,129,231,117,0,0 // paddd 0x75e7(%ecx),%xmm0
.byte 102,15,112,232,229 // pshufd $0xe5,%xmm0,%xmm5
.byte 102,15,126,232 // movd %xmm5,%eax
.byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
@@ -69913,7 +70592,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,245 // unpcklps %xmm5,%xmm6
.byte 102,15,20,240 // unpcklpd %xmm0,%xmm6
- .byte 102,15,254,137,228,117,0,0 // paddd 0x75e4(%ecx),%xmm1
+ .byte 102,15,254,137,231,117,0,0 // paddd 0x75e7(%ecx),%xmm1
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
@@ -69931,7 +70610,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
.byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm2
+ .byte 102,15,111,145,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm2
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -69967,7 +70646,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,169,228,117,0,0 // paddd 0x75e4(%ecx),%xmm5
+ .byte 102,15,254,169,231,117,0,0 // paddd 0x75e7(%ecx),%xmm5
.byte 102,15,112,197,229 // pshufd $0xe5,%xmm5,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,197,78 // pshufd $0x4e,%xmm5,%xmm0
@@ -70027,7 +70706,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,254,85,152 // paddd -0x68(%ebp),%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,153,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm3
+ .byte 102,15,111,153,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm3
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -70066,7 +70745,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,229 // unpcklps %xmm5,%xmm4
.byte 102,15,20,227 // unpcklpd %xmm3,%xmm4
- .byte 102,15,254,129,228,117,0,0 // paddd 0x75e4(%ecx),%xmm0
+ .byte 102,15,254,129,231,117,0,0 // paddd 0x75e7(%ecx),%xmm0
.byte 102,15,112,216,229 // pshufd $0xe5,%xmm0,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
@@ -70118,7 +70797,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
.byte 15,20,238 // unpcklps %xmm6,%xmm5
.byte 102,15,20,235 // unpcklpd %xmm3,%xmm5
- .byte 102,15,111,137,228,117,0,0 // movdqa 0x75e4(%ecx),%xmm1
+ .byte 102,15,111,137,231,117,0,0 // movdqa 0x75e7(%ecx),%xmm1
.byte 102,15,254,249 // paddd %xmm1,%xmm7
.byte 102,15,112,223,229 // pshufd $0xe5,%xmm7,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
@@ -70152,7 +70831,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,111,153,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm3
+ .byte 102,15,111,153,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm3
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,112,218,232 // pshufd $0xe8,%xmm2,%xmm3
@@ -70209,7 +70888,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,254,85,168 // paddd -0x58(%ebp),%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm1
+ .byte 102,15,111,137,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm1
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
@@ -70246,7 +70925,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,212 // unpcklps %xmm4,%xmm2
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,228,117,0,0 // paddd 0x75e4(%ecx),%xmm0
+ .byte 102,15,254,129,231,117,0,0 // paddd 0x75e7(%ecx),%xmm0
.byte 102,15,112,224,229 // pshufd $0xe5,%xmm0,%xmm4
.byte 102,15,126,224 // movd %xmm4,%eax
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
@@ -70314,7 +70993,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,93,152 // movdqa -0x68(%ebp),%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,129,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm0
+ .byte 102,15,111,129,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm0
.byte 102,15,244,216 // pmuludq %xmm0,%xmm3
.byte 102,15,244,208 // pmuludq %xmm0,%xmm2
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -70353,7 +71032,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,145,228,117,0,0 // paddd 0x75e4(%ecx),%xmm2
+ .byte 102,15,254,145,231,117,0,0 // paddd 0x75e7(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -70405,7 +71084,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,208 // unpcklps %xmm0,%xmm2
.byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
- .byte 102,15,111,137,228,117,0,0 // movdqa 0x75e4(%ecx),%xmm1
+ .byte 102,15,111,137,231,117,0,0 // movdqa 0x75e7(%ecx),%xmm1
.byte 102,15,254,217 // paddd %xmm1,%xmm3
.byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
@@ -70440,7 +71119,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,224,245 // pshufd $0xf5,%xmm0,%xmm4
- .byte 102,15,111,169,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm5
+ .byte 102,15,111,169,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm5
.byte 102,15,111,221 // movdqa %xmm5,%xmm3
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,244,227 // pmuludq %xmm3,%xmm4
@@ -70496,7 +71175,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
.byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm2
+ .byte 102,15,111,145,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm2
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -70532,7 +71211,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,185,228,117,0,0 // paddd 0x75e4(%ecx),%xmm7
+ .byte 102,15,254,185,231,117,0,0 // paddd 0x75e7(%ecx),%xmm7
.byte 102,15,112,199,229 // pshufd $0xe5,%xmm7,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,199,78 // pshufd $0x4e,%xmm7,%xmm0
@@ -70582,7 +71261,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,145,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm2
+ .byte 102,15,111,145,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm2
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,111,250 // movdqa %xmm2,%xmm7
@@ -70621,7 +71300,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,204 // unpcklps %xmm4,%xmm1
.byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,228,117,0,0 // paddd 0x75e4(%ecx),%xmm2
+ .byte 102,15,254,145,231,117,0,0 // paddd 0x75e7(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -70675,7 +71354,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,252 // unpcklps %xmm4,%xmm7
.byte 102,15,20,254 // unpcklpd %xmm6,%xmm7
- .byte 102,15,254,153,228,117,0,0 // paddd 0x75e4(%ecx),%xmm3
+ .byte 102,15,254,153,231,117,0,0 // paddd 0x75e7(%ecx),%xmm3
.byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4
.byte 102,15,126,224 // movd %xmm4,%eax
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
@@ -70708,7 +71387,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm1
+ .byte 102,15,111,137,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm1
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -70748,7 +71427,7 @@ _sk_clut_4D_sse2:
.byte 15,20,225 // unpcklps %xmm1,%xmm4
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
.byte 102,15,41,165,88,255,255,255 // movapd %xmm4,-0xa8(%ebp)
- .byte 102,15,254,129,228,117,0,0 // paddd 0x75e4(%ecx),%xmm0
+ .byte 102,15,254,129,231,117,0,0 // paddd 0x75e7(%ecx),%xmm0
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
.byte 102,15,126,200 // movd %xmm1,%eax
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -70802,7 +71481,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
.byte 15,20,206 // unpcklps %xmm6,%xmm1
.byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,228,117,0,0 // paddd 0x75e4(%ecx),%xmm2
+ .byte 102,15,254,145,231,117,0,0 // paddd 0x75e7(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -70871,7 +71550,7 @@ _sk_clut_4D_sse2:
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,164,117,0,0 // movaps 0x75a4(%ecx),%xmm3
+ .byte 15,40,153,167,117,0,0 // movaps 0x75a7(%ecx),%xmm3
.byte 80 // push %eax
.byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,82,4 // call *0x4(%edx)
@@ -70889,18 +71568,18 @@ _sk_gauss_a_to_rgba_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 97e1 <_sk_gauss_a_to_rgba_sse2+0xb>
+ .byte 232,0,0,0,0 // call 99ce <_sk_gauss_a_to_rgba_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,128,223,103,0,0 // movaps 0x67df(%eax),%xmm0
+ .byte 15,40,128,226,103,0,0 // movaps 0x67e2(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,239,103,0,0 // addps 0x67ef(%eax),%xmm0
+ .byte 15,88,128,242,103,0,0 // addps 0x67f2(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,255,103,0,0 // addps 0x67ff(%eax),%xmm0
+ .byte 15,88,128,2,104,0,0 // addps 0x6802(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,15,104,0,0 // addps 0x680f(%eax),%xmm0
+ .byte 15,88,128,18,104,0,0 // addps 0x6812(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,31,104,0,0 // addps 0x681f(%eax),%xmm0
+ .byte 15,88,128,34,104,0,0 // addps 0x6822(%eax),%xmm0
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,200 // movaps %xmm0,%xmm1
@@ -70913,7 +71592,6 @@ _sk_gauss_a_to_rgba_sse2:
.byte 93 // pop %ebp
.byte 195 // ret
.byte 144 // nop
- .byte 144 // nop
HIDDEN _sk_start_pipeline_sse2_lowp
.globl _sk_start_pipeline_sse2_lowp
@@ -70927,7 +71605,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 131,236,92 // sub $0x5c,%esp
.byte 139,125,12 // mov 0xc(%ebp),%edi
.byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,131,193,0,0,0 // jae 9906 <_sk_start_pipeline_sse2_lowp+0xd6>
+ .byte 15,131,193,0,0,0 // jae 9af2 <_sk_start_pipeline_sse2_lowp+0xd6>
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,117,24 // mov 0x18(%ebp),%esi
@@ -70941,7 +71619,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 137,223 // mov %ebx,%edi
.byte 137,243 // mov %esi,%ebx
- .byte 119,77 // ja 98b8 <_sk_start_pipeline_sse2_lowp+0x88>
+ .byte 119,77 // ja 9aa4 <_sk_start_pipeline_sse2_lowp+0x88>
.byte 139,117,8 // mov 0x8(%ebp),%esi
.byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
.byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
@@ -70963,13 +71641,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 131,198,16 // add $0x10,%esi
.byte 57,214 // cmp %edx,%esi
.byte 137,198 // mov %eax,%esi
- .byte 118,182 // jbe 986e <_sk_start_pipeline_sse2_lowp+0x3e>
+ .byte 118,182 // jbe 9a5a <_sk_start_pipeline_sse2_lowp+0x3e>
.byte 137,209 // mov %edx,%ecx
.byte 41,193 // sub %eax,%ecx
.byte 137,222 // mov %ebx,%esi
.byte 137,251 // mov %edi,%ebx
.byte 139,125,240 // mov -0x10(%ebp),%edi
- .byte 116,55 // je 98fc <_sk_start_pipeline_sse2_lowp+0xcc>
+ .byte 116,55 // je 9ae8 <_sk_start_pipeline_sse2_lowp+0xcc>
.byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
.byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
.byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
@@ -70987,7 +71665,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 71 // inc %edi
.byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,133,86,255,255,255 // jne 985c <_sk_start_pipeline_sse2_lowp+0x2c>
+ .byte 15,133,86,255,255,255 // jne 9a48 <_sk_start_pipeline_sse2_lowp+0x2c>
.byte 131,196,92 // add $0x5c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
@@ -71010,7 +71688,7 @@ _sk_seed_shader_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 991c <_sk_seed_shader_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9b08 <_sk_seed_shader_sse2_lowp+0xd>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,93,24 // movaps 0x18(%ebp),%xmm3
@@ -71031,7 +71709,7 @@ _sk_seed_shader_sse2_lowp:
.byte 102,15,110,210 // movd %edx,%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,88,145,4,96,0,0 // addps 0x6004(%ecx),%xmm2
+ .byte 15,88,145,8,96,0,0 // addps 0x6008(%ecx),%xmm2
.byte 141,78,8 // lea 0x8(%esi),%ecx
.byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
.byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
@@ -71361,7 +72039,7 @@ _sk_black_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call 9d3b <_sk_black_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call 9f27 <_sk_black_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -71380,7 +72058,7 @@ _sk_black_color_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,152,213,98,0,0 // movaps 0x62d5(%eax),%xmm3
+ .byte 15,40,152,217,98,0,0 // movaps 0x62d9(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -71402,7 +72080,7 @@ _sk_white_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call 9da6 <_sk_white_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call 9f92 <_sk_white_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -71421,7 +72099,7 @@ _sk_white_color_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,128,106,98,0,0 // movaps 0x626a(%eax),%xmm0
+ .byte 15,40,128,110,98,0,0 // movaps 0x626e(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -71442,16 +72120,16 @@ _sk_set_rgb_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9e10 <_sk_set_rgb_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9ffc <_sk_set_rgb_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,57 // mov (%ecx),%edi
- .byte 243,15,16,150,4,99,0,0 // movss 0x6304(%esi),%xmm2
+ .byte 243,15,16,150,8,99,0,0 // movss 0x6308(%esi),%xmm2
.byte 243,15,16,7 // movss (%edi),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,15,16,142,0,99,0,0 // movss 0x6300(%esi),%xmm1
+ .byte 243,15,16,142,4,99,0,0 // movss 0x6304(%esi),%xmm1
.byte 243,15,88,193 // addss %xmm1,%xmm0
.byte 243,15,44,240 // cvttss2si %xmm0,%esi
.byte 102,15,110,198 // movd %esi,%xmm0
@@ -71500,12 +72178,12 @@ _sk_clamp_a_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9ed4 <_sk_clamp_a_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a0c0 <_sk_clamp_a_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
.byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 102,15,111,166,76,97,0,0 // movdqa 0x614c(%esi),%xmm4
+ .byte 102,15,111,166,80,97,0,0 // movdqa 0x6150(%esi),%xmm4
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
.byte 102,15,239,236 // pxor %xmm4,%xmm5
.byte 102,15,111,243 // movdqa %xmm3,%xmm6
@@ -71561,11 +72239,11 @@ _sk_clamp_a_dst_sse2_lowp:
.byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
.byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
.byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 232,0,0,0,0 // call 9f9b <_sk_clamp_a_dst_sse2_lowp+0x1f>
+ .byte 232,0,0,0,0 // call a187 <_sk_clamp_a_dst_sse2_lowp+0x1f>
.byte 88 // pop %eax
.byte 102,15,111,101,72 // movdqa 0x48(%ebp),%xmm4
.byte 102,15,111,77,24 // movdqa 0x18(%ebp),%xmm1
- .byte 102,15,111,144,133,96,0,0 // movdqa 0x6085(%eax),%xmm2
+ .byte 102,15,111,144,137,96,0,0 // movdqa 0x6089(%eax),%xmm2
.byte 102,15,111,249 // movdqa %xmm1,%xmm7
.byte 102,15,239,250 // pxor %xmm2,%xmm7
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -71622,7 +72300,7 @@ _sk_premul_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a06a <_sk_premul_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a256 <_sk_premul_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -71631,7 +72309,7 @@ _sk_premul_sse2_lowp:
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
.byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,186,166,95,0,0 // movdqa 0x5fa6(%edx),%xmm7
+ .byte 102,15,111,186,170,95,0,0 // movdqa 0x5faa(%edx),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -71671,12 +72349,12 @@ _sk_premul_dst_sse2_lowp:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a0ff <_sk_premul_dst_sse2_lowp+0x1a>
+ .byte 232,0,0,0,0 // call a2eb <_sk_premul_dst_sse2_lowp+0x1a>
.byte 88 // pop %eax
.byte 102,15,111,101,72 // movdqa 0x48(%ebp),%xmm4
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,213,236 // pmullw %xmm4,%xmm5
- .byte 102,15,111,176,17,95,0,0 // movdqa 0x5f11(%eax),%xmm6
+ .byte 102,15,111,176,21,95,0,0 // movdqa 0x5f15(%eax),%xmm6
.byte 102,15,253,238 // paddw %xmm6,%xmm5
.byte 102,15,111,125,40 // movdqa 0x28(%ebp),%xmm7
.byte 102,15,213,252 // pmullw %xmm4,%xmm7
@@ -71818,12 +72496,12 @@ _sk_invert_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a28e <_sk_invert_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a47a <_sk_invert_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 102,15,111,160,130,93,0,0 // movdqa 0x5d82(%eax),%xmm4
+ .byte 102,15,111,160,134,93,0,0 // movdqa 0x5d86(%eax),%xmm4
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,249,232 // psubw %xmm0,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -71905,11 +72583,11 @@ _sk_srcatop_sse2_lowp:
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a386 <_sk_srcatop_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call a572 <_sk_srcatop_sse2_lowp+0x19>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,128,138,92,0,0 // movdqa 0x5c8a(%eax),%xmm0
+ .byte 102,15,111,128,142,92,0,0 // movdqa 0x5c8e(%eax),%xmm0
.byte 102,15,253,200 // paddw %xmm0,%xmm1
.byte 102,15,213,214 // pmullw %xmm6,%xmm2
.byte 102,15,253,208 // paddw %xmm0,%xmm2
@@ -71967,12 +72645,12 @@ _sk_dstatop_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a45a <_sk_dstatop_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a646 <_sk_dstatop_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,101,40 // movdqa 0x28(%ebp),%xmm4
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,213,243 // pmullw %xmm3,%xmm6
- .byte 102,15,111,184,182,91,0,0 // movdqa 0x5bb6(%eax),%xmm7
+ .byte 102,15,111,184,186,91,0,0 // movdqa 0x5bba(%eax),%xmm7
.byte 102,15,253,247 // paddw %xmm7,%xmm6
.byte 102,15,213,227 // pmullw %xmm3,%xmm4
.byte 102,15,253,231 // paddw %xmm7,%xmm4
@@ -72025,7 +72703,7 @@ _sk_srcin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a51b <_sk_srcin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a707 <_sk_srcin_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -72034,7 +72712,7 @@ _sk_srcin_sse2_lowp:
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,190,245,90,0,0 // movdqa 0x5af5(%esi),%xmm7
+ .byte 102,15,111,190,249,90,0,0 // movdqa 0x5af9(%esi),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -72073,14 +72751,14 @@ _sk_dstin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a5b2 <_sk_dstin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a79e <_sk_dstin_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,85,56 // movdqa 0x38(%ebp),%xmm2
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,184,94,90,0,0 // movdqa 0x5a5e(%eax),%xmm7
+ .byte 102,15,111,184,98,90,0,0 // movdqa 0x5a62(%eax),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -72124,14 +72802,14 @@ _sk_srcout_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a65a <_sk_srcout_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call a846 <_sk_srcout_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
.byte 139,85,20 // mov 0x14(%ebp),%edx
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,182,182,89,0,0 // movdqa 0x59b6(%esi),%xmm6
+ .byte 102,15,111,182,186,89,0,0 // movdqa 0x59ba(%esi),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,253 // psubw %xmm5,%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -72175,11 +72853,11 @@ _sk_dstout_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 232,0,0,0,0 // call a6fd <_sk_dstout_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call a8e9 <_sk_dstout_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 102,15,111,109,56 // movdqa 0x38(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
- .byte 102,15,111,184,19,89,0,0 // movdqa 0x5913(%eax),%xmm7
+ .byte 102,15,111,184,23,89,0,0 // movdqa 0x5917(%eax),%xmm7
.byte 102,15,111,223 // movdqa %xmm7,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -72231,9 +72909,9 @@ _sk_srcover_sse2_lowp:
.byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call a7b9 <_sk_srcover_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call a9a5 <_sk_srcover_sse2_lowp+0x19>
.byte 88 // pop %eax
- .byte 102,15,111,136,87,88,0,0 // movdqa 0x5857(%eax),%xmm1
+ .byte 102,15,111,136,91,88,0,0 // movdqa 0x585b(%eax),%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -72292,7 +72970,7 @@ _sk_dstover_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a889 <_sk_dstover_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call aa75 <_sk_dstover_sse2_lowp+0xd>
.byte 95 // pop %edi
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -72300,7 +72978,7 @@ _sk_dstover_sse2_lowp:
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 102,15,111,101,56 // movdqa 0x38(%ebp),%xmm4
.byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,183,135,87,0,0 // movdqa 0x5787(%edi),%xmm6
+ .byte 102,15,111,183,139,87,0,0 // movdqa 0x578b(%edi),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,253 // psubw %xmm5,%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -72346,12 +73024,12 @@ _sk_modulate_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a93e <_sk_modulate_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call ab2a <_sk_modulate_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,210,86,0,0 // movdqa 0x56d2(%eax),%xmm7
+ .byte 102,15,111,184,214,86,0,0 // movdqa 0x56d6(%eax),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -72394,10 +73072,10 @@ _sk_multiply_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a9da <_sk_multiply_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call abc6 <_sk_multiply_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
- .byte 102,15,111,160,54,86,0,0 // movdqa 0x5636(%eax),%xmm4
+ .byte 102,15,111,160,58,86,0,0 // movdqa 0x563a(%eax),%xmm4
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,253,244 // paddw %xmm4,%xmm6
.byte 102,15,249,117,72 // psubw 0x48(%ebp),%xmm6
@@ -72467,17 +73145,17 @@ _sk_plus__sse2_lowp:
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call aadb <_sk_plus__sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call acc7 <_sk_plus__sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,253,77,24 // paddw 0x18(%ebp),%xmm1
- .byte 102,15,111,168,85,85,0,0 // movdqa 0x5555(%eax),%xmm5
+ .byte 102,15,111,168,89,85,0,0 // movdqa 0x5559(%eax),%xmm5
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,217,197 // psubusw %xmm5,%xmm0
.byte 102,15,127,109,232 // movdqa %xmm5,-0x18(%ebp)
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,117,199 // pcmpeqw %xmm7,%xmm0
.byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,111,176,53,85,0,0 // movdqa 0x5535(%eax),%xmm6
+ .byte 102,15,111,176,57,85,0,0 // movdqa 0x5539(%eax),%xmm6
.byte 102,15,223,198 // pandn %xmm6,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
.byte 102,15,253,101,40 // paddw 0x28(%ebp),%xmm4
@@ -72538,14 +73216,14 @@ _sk_screen_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call abd3 <_sk_screen_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call adbf <_sk_screen_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,176,61,84,0,0 // movdqa 0x543d(%eax),%xmm6
+ .byte 102,15,111,176,65,84,0,0 // movdqa 0x5441(%eax),%xmm6
.byte 102,15,253,206 // paddw %xmm6,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -72603,9 +73281,9 @@ _sk_xor__sse2_lowp:
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,127,93,232 // movdqa %xmm3,-0x18(%ebp)
- .byte 232,0,0,0,0 // call acb3 <_sk_xor__sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call ae9f <_sk_xor__sse2_lowp+0x12>
.byte 88 // pop %eax
- .byte 102,15,111,176,93,83,0,0 // movdqa 0x535d(%eax),%xmm6
+ .byte 102,15,111,176,97,83,0,0 // movdqa 0x5361(%eax),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,125,72 // psubw 0x48(%ebp),%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -72672,7 +73350,7 @@ _sk_darken_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call ada8 <_sk_darken_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call af94 <_sk_darken_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -72683,7 +73361,7 @@ _sk_darken_sse2_lowp:
.byte 102,15,111,222 // movdqa %xmm6,%xmm3
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,120,82,0,0 // movdqa 0x5278(%eax),%xmm7
+ .byte 102,15,111,184,124,82,0,0 // movdqa 0x527c(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -72692,7 +73370,7 @@ _sk_darken_sse2_lowp:
.byte 102,15,219,197 // pand %xmm5,%xmm0
.byte 102,15,223,233 // pandn %xmm1,%xmm5
.byte 102,15,235,232 // por %xmm0,%xmm5
- .byte 102,15,111,128,104,82,0,0 // movdqa 0x5268(%eax),%xmm0
+ .byte 102,15,111,128,108,82,0,0 // movdqa 0x526c(%eax),%xmm0
.byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -72783,7 +73461,7 @@ _sk_lighten_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call af51 <_sk_lighten_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call b13d <_sk_lighten_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
@@ -72792,7 +73470,7 @@ _sk_lighten_sse2_lowp:
.byte 102,15,213,77,72 // pmullw 0x48(%ebp),%xmm1
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,207,80,0,0 // movdqa 0x50cf(%eax),%xmm7
+ .byte 102,15,111,184,211,80,0,0 // movdqa 0x50d3(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -72801,7 +73479,7 @@ _sk_lighten_sse2_lowp:
.byte 102,15,219,205 // pand %xmm5,%xmm1
.byte 102,15,223,232 // pandn %xmm0,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,191,80,0,0 // movdqa 0x50bf(%eax),%xmm0
+ .byte 102,15,111,128,195,80,0,0 // movdqa 0x50c3(%eax),%xmm0
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,127,85,232 // movdqa %xmm2,-0x18(%ebp)
@@ -72891,7 +73569,7 @@ _sk_difference_sse2_lowp:
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b0ef <_sk_difference_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call b2db <_sk_difference_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -72902,7 +73580,7 @@ _sk_difference_sse2_lowp:
.byte 102,15,111,222 // movdqa %xmm6,%xmm3
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,49,79,0,0 // movdqa 0x4f31(%eax),%xmm7
+ .byte 102,15,111,184,53,79,0,0 // movdqa 0x4f35(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -72911,11 +73589,11 @@ _sk_difference_sse2_lowp:
.byte 102,15,219,205 // pand %xmm5,%xmm1
.byte 102,15,223,232 // pandn %xmm0,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,33,79,0,0 // movdqa 0x4f21(%eax),%xmm0
+ .byte 102,15,111,128,37,79,0,0 // movdqa 0x4f25(%eax),%xmm0
.byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,113,213,7 // psrlw $0x7,%xmm5
- .byte 102,15,111,128,81,79,0,0 // movdqa 0x4f51(%eax),%xmm0
+ .byte 102,15,111,128,85,79,0,0 // movdqa 0x4f55(%eax),%xmm0
.byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
.byte 102,15,219,232 // pand %xmm0,%xmm5
.byte 102,15,249,213 // psubw %xmm5,%xmm2
@@ -73004,16 +73682,16 @@ _sk_exclusion_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b2a3 <_sk_exclusion_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call b48f <_sk_exclusion_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,111,184,109,77,0,0 // movdqa 0x4d6d(%eax),%xmm7
+ .byte 102,15,111,184,113,77,0,0 // movdqa 0x4d71(%eax),%xmm7
.byte 102,15,253,207 // paddw %xmm7,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,15,111,176,157,77,0,0 // movdqa 0x4d9d(%eax),%xmm6
+ .byte 102,15,111,176,161,77,0,0 // movdqa 0x4da1(%eax),%xmm6
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
@@ -73074,9 +73752,9 @@ _sk_hardlight_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call b39d <_sk_hardlight_sse2_lowp+0x1c>
+ .byte 232,0,0,0,0 // call b589 <_sk_hardlight_sse2_lowp+0x1c>
.byte 88 // pop %eax
- .byte 102,15,111,184,115,76,0,0 // movdqa 0x4c73(%eax),%xmm7
+ .byte 102,15,111,184,119,76,0,0 // movdqa 0x4c77(%eax),%xmm7
.byte 102,15,127,125,200 // movdqa %xmm7,-0x38(%ebp)
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,249,85,72 // psubw 0x48(%ebp),%xmm2
@@ -73103,7 +73781,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,15,249,209 // psubw %xmm1,%xmm2
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,128,131,76,0,0 // movdqa 0x4c83(%eax),%xmm0
+ .byte 102,15,111,128,135,76,0,0 // movdqa 0x4c87(%eax),%xmm0
.byte 102,15,239,216 // pxor %xmm0,%xmm3
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
@@ -73210,10 +73888,10 @@ _sk_overlay_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b5bf <_sk_overlay_sse2_lowp+0x1f>
+ .byte 232,0,0,0,0 // call b7ab <_sk_overlay_sse2_lowp+0x1f>
.byte 88 // pop %eax
.byte 102,15,111,69,72 // movdqa 0x48(%ebp),%xmm0
- .byte 102,15,111,184,81,74,0,0 // movdqa 0x4a51(%eax),%xmm7
+ .byte 102,15,111,184,85,74,0,0 // movdqa 0x4a55(%eax),%xmm7
.byte 102,15,127,125,232 // movdqa %xmm7,-0x18(%ebp)
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,249,208 // psubw %xmm0,%xmm2
@@ -73240,7 +73918,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,249,234 // psubw %xmm2,%xmm5
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,111,144,97,74,0,0 // movdqa 0x4a61(%eax),%xmm2
+ .byte 102,15,111,144,101,74,0,0 // movdqa 0x4a65(%eax),%xmm2
.byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
.byte 102,15,239,226 // pxor %xmm2,%xmm4
.byte 102,15,239,194 // pxor %xmm2,%xmm0
@@ -73370,10 +74048,10 @@ _sk_load_8888_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b82e <_sk_load_8888_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call ba1a <_sk_load_8888_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja b854 <_sk_load_8888_sse2_lowp+0x56>
+ .byte 119,32 // ja ba40 <_sk_load_8888_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,50,1,0,0 // mov 0x132(%edi,%ecx,4),%ecx
@@ -73382,14 +74060,14 @@ _sk_load_8888_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp b89d <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,73 // jmp ba89 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp b89d <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,61 // jmp ba89 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp b89d <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,43 // jmp ba89 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -73406,7 +74084,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,226,71,0,0 // movdqa 0x47e2(%edi),%xmm5
+ .byte 102,15,111,175,230,71,0,0 // movdqa 0x47e6(%edi),%xmm5
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,219,197 // pand %xmm5,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -73485,10 +74163,10 @@ _sk_load_8888_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b9b9 <_sk_load_8888_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call bba5 <_sk_load_8888_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja b9df <_sk_load_8888_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja bbcb <_sk_load_8888_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -73497,14 +74175,14 @@ _sk_load_8888_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp ba28 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp bc14 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp ba28 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp bc14 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp ba28 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp bc14 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -73521,7 +74199,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,114,226,16 // psrad $0x10,%xmm2
.byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,87,70,0,0 // movdqa 0x4657(%edi),%xmm2
+ .byte 102,15,111,151,91,70,0,0 // movdqa 0x465b(%edi),%xmm2
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
@@ -73615,19 +74293,19 @@ _sk_store_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call bb84 <_sk_store_8888_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call bd70 <_sk_store_8888_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja bba1 <_sk_store_8888_sse2_lowp+0x91>
+ .byte 119,19 // ja bd8d <_sk_store_8888_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp bbfe <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,93 // jmp bdea <_sk_store_8888_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp bbfe <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,80 // jmp bdea <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -73635,7 +74313,7 @@ _sk_store_8888_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp bbfe <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,48 // jmp bdea <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -73672,7 +74350,7 @@ _sk_store_8888_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne bc4a <_sk_store_8888_sse2_lowp+0x13a>
+ .byte 117,0 // jne be36 <_sk_store_8888_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -73704,10 +74382,10 @@ _sk_load_bgra_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call bc88 <_sk_load_bgra_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call be74 <_sk_load_bgra_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja bcae <_sk_load_bgra_sse2_lowp+0x56>
+ .byte 119,32 // ja be9a <_sk_load_bgra_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,52,1,0,0 // mov 0x134(%edi,%ecx,4),%ecx
@@ -73716,14 +74394,14 @@ _sk_load_bgra_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp bcf7 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,73 // jmp bee3 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp bcf7 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,61 // jmp bee3 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp bcf7 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,43 // jmp bee3 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -73740,7 +74418,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,136,67,0,0 // movdqa 0x4388(%edi),%xmm5
+ .byte 102,15,111,175,140,67,0,0 // movdqa 0x438c(%edi),%xmm5
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,213 // pand %xmm5,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -73820,10 +74498,10 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call be15 <_sk_load_bgra_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call c001 <_sk_load_bgra_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja be3b <_sk_load_bgra_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja c027 <_sk_load_bgra_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -73832,14 +74510,14 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp be84 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp c070 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp be84 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp c070 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp be84 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp c070 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -73856,7 +74534,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,114,226,16 // psrad $0x10,%xmm2
.byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,251,65,0,0 // movdqa 0x41fb(%edi),%xmm2
+ .byte 102,15,111,151,255,65,0,0 // movdqa 0x41ff(%edi),%xmm2
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
@@ -73950,19 +74628,19 @@ _sk_store_bgra_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call bfe0 <_sk_store_bgra_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call c1cc <_sk_store_bgra_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja bffd <_sk_store_bgra_sse2_lowp+0x91>
+ .byte 119,19 // ja c1e9 <_sk_store_bgra_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp c05a <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,93 // jmp c246 <_sk_store_bgra_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp c05a <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,80 // jmp c246 <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -73970,7 +74648,7 @@ _sk_store_bgra_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp c05a <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,48 // jmp c246 <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -74007,7 +74685,7 @@ _sk_store_bgra_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne c0a6 <_sk_store_bgra_sse2_lowp+0x13a>
+ .byte 117,0 // jne c292 <_sk_store_bgra_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -74026,7 +74704,7 @@ _sk_gather_8888_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
- .byte 232,0,0,0,0 // call c0c1 <_sk_gather_8888_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call c2ad <_sk_gather_8888_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -74118,7 +74796,7 @@ _sk_gather_8888_sse2_lowp:
.byte 102,15,114,243,16 // pslld $0x10,%xmm3
.byte 102,15,114,227,16 // psrad $0x10,%xmm3
.byte 102,15,107,216 // packssdw %xmm0,%xmm3
- .byte 102,15,111,186,79,63,0,0 // movdqa 0x3f4f(%edx),%xmm7
+ .byte 102,15,111,186,83,63,0,0 // movdqa 0x3f53(%edx),%xmm7
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
.byte 102,15,114,212,16 // psrld $0x10,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
@@ -74157,7 +74835,7 @@ _sk_gather_bgra_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call c2bc <_sk_gather_bgra_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call c4a8 <_sk_gather_bgra_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -74248,7 +74926,7 @@ _sk_gather_bgra_sse2_lowp:
.byte 102,15,114,243,16 // pslld $0x10,%xmm3
.byte 102,15,114,227,16 // psrad $0x10,%xmm3
.byte 102,15,107,218 // packssdw %xmm2,%xmm3
- .byte 102,15,111,162,84,61,0,0 // movdqa 0x3d54(%edx),%xmm4
+ .byte 102,15,111,162,88,61,0,0 // movdqa 0x3d58(%edx),%xmm4
.byte 102,15,114,208,16 // psrld $0x10,%xmm0
.byte 102,15,114,215,16 // psrld $0x10,%xmm7
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
@@ -74303,10 +74981,10 @@ _sk_load_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c4e0 <_sk_load_565_sse2_lowp+0x3b>
+ .byte 232,0,0,0,0 // call c6cc <_sk_load_565_sse2_lowp+0x3b>
.byte 94 // pop %esi
.byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja c502 <_sk_load_565_sse2_lowp+0x5d>
+ .byte 119,28 // ja c6ee <_sk_load_565_sse2_lowp+0x5d>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,142,244,0,0,0 // mov 0xf4(%esi,%ecx,4),%ecx
@@ -74314,14 +74992,14 @@ _sk_load_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,123 // movzwl (%ebx,%edi,2),%ecx
.byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,59 // jmp c53d <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,59 // jmp c729 <_sk_load_565_sse2_lowp+0x98>
.byte 243,15,111,4,123 // movdqu (%ebx,%edi,2),%xmm0
- .byte 235,52 // jmp c53d <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,52 // jmp c729 <_sk_load_565_sse2_lowp+0x98>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,68,123,4,2 // pinsrw $0x2,0x4(%ebx,%edi,2),%xmm0
.byte 243,15,16,12,123 // movss (%ebx,%edi,2),%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,30 // jmp c53d <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,30 // jmp c729 <_sk_load_565_sse2_lowp+0x98>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,68,123,12,6 // pinsrw $0x6,0xc(%ebx,%edi,2),%xmm0
.byte 102,15,196,68,123,10,5 // pinsrw $0x5,0xa(%ebx,%edi,2),%xmm0
@@ -74329,11 +75007,11 @@ _sk_load_565_sse2_lowp:
.byte 102,15,18,4,123 // movlpd (%ebx,%edi,2),%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,190,112,59,0,0 // pand 0x3b70(%esi),%xmm7
+ .byte 102,15,219,190,116,59,0,0 // pand 0x3b74(%esi),%xmm7
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,142,128,59,0,0 // pand 0x3b80(%esi),%xmm1
- .byte 102,15,111,150,144,59,0,0 // movdqa 0x3b90(%esi),%xmm2
+ .byte 102,15,219,142,132,59,0,0 // pand 0x3b84(%esi),%xmm1
+ .byte 102,15,111,150,148,59,0,0 // movdqa 0x3b94(%esi),%xmm2
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,199 // por %xmm7,%xmm0
@@ -74355,7 +75033,7 @@ _sk_load_565_sse2_lowp:
.byte 137,124,36,8 // mov %edi,0x8(%esp)
.byte 137,76,36,4 // mov %ecx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,158,48,59,0,0 // movaps 0x3b30(%esi),%xmm3
+ .byte 15,40,158,52,59,0,0 // movaps 0x3b34(%esi),%xmm3
.byte 255,80,4 // call *0x4(%eax)
.byte 131,196,92 // add $0x5c,%esp
.byte 94 // pop %esi
@@ -74401,10 +75079,10 @@ _sk_load_565_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c61b <_sk_load_565_dst_sse2_lowp+0x2b>
+ .byte 232,0,0,0,0 // call c807 <_sk_load_565_dst_sse2_lowp+0x2b>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja c63d <_sk_load_565_dst_sse2_lowp+0x4d>
+ .byte 119,28 // ja c829 <_sk_load_565_dst_sse2_lowp+0x4d>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,249,0,0,0 // mov 0xf9(%edi,%ecx,4),%ecx
@@ -74412,14 +75090,14 @@ _sk_load_565_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,59 // jmp c678 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,59 // jmp c864 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 243,15,111,36,115 // movdqu (%ebx,%esi,2),%xmm4
- .byte 235,52 // jmp c678 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,52 // jmp c864 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
.byte 243,15,16,44,115 // movss (%ebx,%esi,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,30 // jmp c678 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,30 // jmp c864 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
.byte 102,15,196,100,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
@@ -74427,11 +75105,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,18,36,115 // movlpd (%ebx,%esi,2),%xmm4
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,219,183,53,58,0,0 // pand 0x3a35(%edi),%xmm6
+ .byte 102,15,219,183,57,58,0,0 // pand 0x3a39(%edi),%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,175,69,58,0,0 // pand 0x3a45(%edi),%xmm5
- .byte 102,15,111,191,85,58,0,0 // movdqa 0x3a55(%edi),%xmm7
+ .byte 102,15,219,175,73,58,0,0 // pand 0x3a49(%edi),%xmm5
+ .byte 102,15,111,191,89,58,0,0 // movdqa 0x3a59(%edi),%xmm7
.byte 102,15,219,252 // pand %xmm4,%xmm7
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,230 // por %xmm6,%xmm4
@@ -74444,7 +75122,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,215,2 // psrlw $0x2,%xmm7
.byte 102,15,235,254 // por %xmm6,%xmm7
.byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,183,245,57,0,0 // movaps 0x39f5(%edi),%xmm6
+ .byte 15,40,183,249,57,0,0 // movaps 0x39f9(%edi),%xmm6
.byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
.byte 139,125,20 // mov 0x14(%ebp),%edi
.byte 137,124,36,12 // mov %edi,0xc(%esp)
@@ -74489,15 +75167,15 @@ _sk_store_565_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 232,0,0,0,0 // call c742 <_sk_store_565_sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call c92e <_sk_store_565_sse2_lowp+0x12>
.byte 95 // pop %edi
.byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,113,242,8 // psllw $0x8,%xmm2
- .byte 102,15,219,151,62,57,0,0 // pand 0x393e(%edi),%xmm2
+ .byte 102,15,219,151,66,57,0,0 // pand 0x3942(%edi),%xmm2
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,113,246,3 // psllw $0x3,%xmm6
- .byte 102,15,219,183,78,57,0,0 // pand 0x394e(%edi),%xmm6
+ .byte 102,15,219,183,82,57,0,0 // pand 0x3952(%edi),%xmm6
.byte 102,15,235,242 // por %xmm2,%xmm6
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,113,210,3 // psrlw $0x3,%xmm2
@@ -74516,19 +75194,19 @@ _sk_store_565_sse2_lowp:
.byte 128,249,6 // cmp $0x6,%cl
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,125,24 // movaps 0x18(%ebp),%xmm7
- .byte 119,22 // ja c7ba <_sk_store_565_sse2_lowp+0x8a>
+ .byte 119,22 // ja c9a6 <_sk_store_565_sse2_lowp+0x8a>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 3,188,143,242,0,0,0 // add 0xf2(%edi,%ecx,4),%edi
.byte 255,231 // jmp *%edi
.byte 102,15,126,209 // movd %xmm2,%ecx
.byte 102,137,12,115 // mov %cx,(%ebx,%esi,2)
- .byte 235,59 // jmp c7f5 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,59 // jmp c9e1 <_sk_store_565_sse2_lowp+0xc5>
.byte 243,15,127,20,115 // movdqu %xmm2,(%ebx,%esi,2)
- .byte 235,52 // jmp c7f5 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,52 // jmp c9e1 <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,2 // pextrw $0x2,%xmm2,%ecx
.byte 102,137,76,115,4 // mov %cx,0x4(%ebx,%esi,2)
.byte 102,15,126,20,115 // movd %xmm2,(%ebx,%esi,2)
- .byte 235,35 // jmp c7f5 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,35 // jmp c9e1 <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,6 // pextrw $0x6,%xmm2,%ecx
.byte 102,137,76,115,12 // mov %cx,0xc(%ebx,%esi,2)
.byte 102,15,197,202,5 // pextrw $0x5,%xmm2,%ecx
@@ -74604,7 +75282,7 @@ _sk_gather_565_sse2_lowp:
.byte 102,15,244,242 // pmuludq %xmm2,%xmm6
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
- .byte 232,0,0,0,0 // call c8c8 <_sk_gather_565_sse2_lowp+0x78>
+ .byte 232,0,0,0,0 // call cab4 <_sk_gather_565_sse2_lowp+0x78>
.byte 89 // pop %ecx
.byte 139,50 // mov (%edx),%esi
.byte 102,15,112,246,232 // pshufd $0xe8,%xmm6,%xmm6
@@ -74665,11 +75343,11 @@ _sk_gather_565_sse2_lowp:
.byte 102,15,108,198 // punpcklqdq %xmm6,%xmm0
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,219,169,136,55,0,0 // pand 0x3788(%ecx),%xmm5
+ .byte 102,15,219,169,140,55,0,0 // pand 0x378c(%ecx),%xmm5
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,137,152,55,0,0 // pand 0x3798(%ecx),%xmm1
- .byte 102,15,111,145,168,55,0,0 // movdqa 0x37a8(%ecx),%xmm2
+ .byte 102,15,219,137,156,55,0,0 // pand 0x379c(%ecx),%xmm1
+ .byte 102,15,111,145,172,55,0,0 // movdqa 0x37ac(%ecx),%xmm2
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,197 // por %xmm5,%xmm0
@@ -74691,7 +75369,7 @@ _sk_gather_565_sse2_lowp:
.byte 137,116,36,8 // mov %esi,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,153,72,55,0,0 // movaps 0x3748(%ecx),%xmm3
+ .byte 15,40,153,76,55,0,0 // movaps 0x374c(%ecx),%xmm3
.byte 255,80,4 // call *0x4(%eax)
.byte 131,196,108 // add $0x6c,%esp
.byte 94 // pop %esi
@@ -74724,10 +75402,10 @@ _sk_load_4444_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call ca82 <_sk_load_4444_sse2_lowp+0x37>
+ .byte 232,0,0,0,0 // call cc6e <_sk_load_4444_sse2_lowp+0x37>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja caa4 <_sk_load_4444_sse2_lowp+0x59>
+ .byte 119,28 // ja cc90 <_sk_load_4444_sse2_lowp+0x59>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,250,0,0,0 // mov 0xfa(%edi,%ecx,4),%ecx
@@ -74735,14 +75413,14 @@ _sk_load_4444_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,59 // jmp cadf <_sk_load_4444_sse2_lowp+0x94>
+ .byte 235,59 // jmp cccb <_sk_load_4444_sse2_lowp+0x94>
.byte 243,15,111,36,115 // movdqu (%ebx,%esi,2),%xmm4
- .byte 235,52 // jmp cadf <_sk_load_4444_sse2_lowp+0x94>
+ .byte 235,52 // jmp cccb <_sk_load_4444_sse2_lowp+0x94>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
.byte 243,15,16,4,115 // movss (%ebx,%esi,2),%xmm0
.byte 243,15,16,224 // movss %xmm0,%xmm4
- .byte 235,30 // jmp cadf <_sk_load_4444_sse2_lowp+0x94>
+ .byte 235,30 // jmp cccb <_sk_load_4444_sse2_lowp+0x94>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
.byte 102,15,196,100,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
@@ -74752,7 +75430,7 @@ _sk_load_4444_sse2_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,135,30,54,0,0 // movdqa 0x361e(%edi),%xmm0
+ .byte 102,15,111,135,34,54,0,0 // movdqa 0x3622(%edi),%xmm0
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -74827,10 +75505,10 @@ _sk_load_4444_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call cbc7 <_sk_load_4444_dst_sse2_lowp+0x2f>
+ .byte 232,0,0,0,0 // call cdb3 <_sk_load_4444_dst_sse2_lowp+0x2f>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja cbe9 <_sk_load_4444_dst_sse2_lowp+0x51>
+ .byte 119,28 // ja cdd5 <_sk_load_4444_dst_sse2_lowp+0x51>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,253,0,0,0 // mov 0xfd(%edi,%ecx,4),%ecx
@@ -74838,14 +75516,14 @@ _sk_load_4444_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,249 // movd %ecx,%xmm7
- .byte 235,59 // jmp cc24 <_sk_load_4444_dst_sse2_lowp+0x8c>
+ .byte 235,59 // jmp ce10 <_sk_load_4444_dst_sse2_lowp+0x8c>
.byte 243,15,111,60,115 // movdqu (%ebx,%esi,2),%xmm7
- .byte 235,52 // jmp cc24 <_sk_load_4444_dst_sse2_lowp+0x8c>
+ .byte 235,52 // jmp ce10 <_sk_load_4444_dst_sse2_lowp+0x8c>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,124,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm7
.byte 243,15,16,44,115 // movss (%ebx,%esi,2),%xmm5
.byte 243,15,16,253 // movss %xmm5,%xmm7
- .byte 235,30 // jmp cc24 <_sk_load_4444_dst_sse2_lowp+0x8c>
+ .byte 235,30 // jmp ce10 <_sk_load_4444_dst_sse2_lowp+0x8c>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,124,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm7
.byte 102,15,196,124,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm7
@@ -74855,7 +75533,7 @@ _sk_load_4444_dst_sse2_lowp:
.byte 102,15,113,213,12 // psrlw $0xc,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,111,159,217,52,0,0 // movdqa 0x34d9(%edi),%xmm3
+ .byte 102,15,111,159,221,52,0,0 // movdqa 0x34dd(%edi),%xmm3
.byte 102,15,219,243 // pand %xmm3,%xmm6
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
.byte 102,15,113,212,4 // psrlw $0x4,%xmm4
@@ -74919,16 +75597,16 @@ _sk_store_4444_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
.byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 232,0,0,0,0 // call ccf2 <_sk_store_4444_sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call cede <_sk_store_4444_sse2_lowp+0x12>
.byte 94 // pop %esi
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,243,8 // psllw $0x8,%xmm3
- .byte 102,15,219,158,190,51,0,0 // pand 0x33be(%esi),%xmm3
+ .byte 102,15,219,158,194,51,0,0 // pand 0x33c2(%esi),%xmm3
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,113,246,4 // psllw $0x4,%xmm6
- .byte 102,15,219,182,206,51,0,0 // pand 0x33ce(%esi),%xmm6
+ .byte 102,15,219,182,210,51,0,0 // pand 0x33d2(%esi),%xmm6
.byte 102,15,235,243 // por %xmm3,%xmm6
- .byte 102,15,111,174,222,51,0,0 // movdqa 0x33de(%esi),%xmm5
+ .byte 102,15,111,174,226,51,0,0 // movdqa 0x33e2(%esi),%xmm5
.byte 102,15,219,234 // pand %xmm2,%xmm5
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -74949,19 +75627,19 @@ _sk_store_4444_sse2_lowp:
.byte 128,249,6 // cmp $0x6,%cl
.byte 139,125,16 // mov 0x10(%ebp),%edi
.byte 15,40,125,24 // movaps 0x18(%ebp),%xmm7
- .byte 119,22 // ja cd7a <_sk_store_4444_sse2_lowp+0x9a>
+ .byte 119,22 // ja cf66 <_sk_store_4444_sse2_lowp+0x9a>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 3,180,142,2,1,0,0 // add 0x102(%esi,%ecx,4),%esi
.byte 255,230 // jmp *%esi
.byte 102,15,126,217 // movd %xmm3,%ecx
.byte 102,137,12,123 // mov %cx,(%ebx,%edi,2)
- .byte 235,59 // jmp cdb5 <_sk_store_4444_sse2_lowp+0xd5>
+ .byte 235,59 // jmp cfa1 <_sk_store_4444_sse2_lowp+0xd5>
.byte 243,15,127,28,123 // movdqu %xmm3,(%ebx,%edi,2)
- .byte 235,52 // jmp cdb5 <_sk_store_4444_sse2_lowp+0xd5>
+ .byte 235,52 // jmp cfa1 <_sk_store_4444_sse2_lowp+0xd5>
.byte 102,15,197,203,2 // pextrw $0x2,%xmm3,%ecx
.byte 102,137,76,123,4 // mov %cx,0x4(%ebx,%edi,2)
.byte 102,15,126,28,123 // movd %xmm3,(%ebx,%edi,2)
- .byte 235,35 // jmp cdb5 <_sk_store_4444_sse2_lowp+0xd5>
+ .byte 235,35 // jmp cfa1 <_sk_store_4444_sse2_lowp+0xd5>
.byte 102,15,197,203,6 // pextrw $0x6,%xmm3,%ecx
.byte 102,137,76,123,12 // mov %cx,0xc(%ebx,%edi,2)
.byte 102,15,197,203,5 // pextrw $0x5,%xmm3,%ecx
@@ -74989,7 +75667,7 @@ _sk_store_4444_sse2_lowp:
.byte 93 // pop %ebp
.byte 195 // ret
.byte 15,31,0 // nopl (%eax)
- .byte 126,0 // jle cdf6 <_sk_store_4444_sse2_lowp+0x116>
+ .byte 126,0 // jle cfe2 <_sk_store_4444_sse2_lowp+0x116>
.byte 0,0 // add %al,(%eax)
.byte 153 // cltd
.byte 0,0 // add %al,(%eax)
@@ -75010,7 +75688,7 @@ _sk_gather_4444_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call ce1d <_sk_gather_4444_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call d009 <_sk_gather_4444_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -75098,7 +75776,7 @@ _sk_gather_4444_sse2_lowp:
.byte 102,15,113,209,12 // psrlw $0xc,%xmm1
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,130,131,50,0,0 // movdqa 0x3283(%edx),%xmm0
+ .byte 102,15,111,130,135,50,0,0 // movdqa 0x3287(%edx),%xmm0
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,111,223 // movdqa %xmm7,%xmm3
.byte 102,15,113,211,4 // psrlw $0x4,%xmm3
@@ -75158,10 +75836,10 @@ _sk_load_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d03a <_sk_load_a8_sse2_lowp+0x3a>
+ .byte 232,0,0,0,0 // call d226 <_sk_load_a8_sse2_lowp+0x3a>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja d05c <_sk_load_a8_sse2_lowp+0x5c>
+ .byte 119,28 // ja d248 <_sk_load_a8_sse2_lowp+0x5c>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,198,0,0,0 // mov 0xc6(%edi,%ecx,4),%ecx
@@ -75169,10 +75847,10 @@ _sk_load_a8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp d0b6 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,90 // jmp d2a2 <_sk_load_a8_sse2_lowp+0xb6>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp d0b6 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,79 // jmp d2a2 <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -75180,7 +75858,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,221 // movss %xmm5,%xmm3
- .byte 235,47 // jmp d0b6 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,47 // jmp d2a2 <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -75191,7 +75869,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,221 // movsd %xmm5,%xmm3
- .byte 102,15,219,159,214,47,0,0 // pand 0x2fd6(%edi),%xmm3
+ .byte 102,15,219,159,218,47,0,0 // pand 0x2fda(%edi),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
.byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
@@ -75246,10 +75924,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d145 <_sk_load_a8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call d331 <_sk_load_a8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja d167 <_sk_load_a8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja d353 <_sk_load_a8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -75257,10 +75935,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp d1c1 <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp d3ad <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp d1c1 <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp d3ad <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -75268,7 +75946,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp d1c1 <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp d3ad <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -75279,7 +75957,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,203,46,0,0 // pand 0x2ecb(%edi),%xmm4
+ .byte 102,15,219,167,207,46,0,0 // pand 0x2ecf(%edi),%xmm4
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 102,15,127,100,36,64 // movdqa %xmm4,0x40(%esp)
.byte 102,15,239,228 // pxor %xmm4,%xmm4
@@ -75336,32 +76014,32 @@ _sk_store_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d25d <_sk_store_a8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call d449 <_sk_store_a8_sse2_lowp+0x39>
.byte 91 // pop %ebx
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,26 // ja d27d <_sk_store_a8_sse2_lowp+0x59>
+ .byte 119,26 // ja d469 <_sk_store_a8_sse2_lowp+0x59>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,139,223,0,0,0 // mov 0xdf(%ebx,%ecx,4),%ecx
.byte 1,217 // add %ebx,%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,217 // movd %xmm3,%ecx
.byte 136,12,55 // mov %cl,(%edi,%esi,1)
- .byte 233,136,0,0,0 // jmp d305 <_sk_store_a8_sse2_lowp+0xe1>
- .byte 102,15,111,163,179,45,0,0 // movdqa 0x2db3(%ebx),%xmm4
+ .byte 233,136,0,0,0 // jmp d4f1 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 102,15,111,163,183,45,0,0 // movdqa 0x2db7(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,214,36,55 // movq %xmm4,(%edi,%esi,1)
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 235,109 // jmp d305 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,109 // jmp d4f1 <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,2 // pextrw $0x2,%xmm3,%ecx
.byte 136,76,55,2 // mov %cl,0x2(%edi,%esi,1)
- .byte 102,15,111,163,179,45,0,0 // movdqa 0x2db3(%ebx),%xmm4
+ .byte 102,15,111,163,183,45,0,0 // movdqa 0x2db7(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,225 // movd %xmm4,%ecx
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 102,137,12,55 // mov %cx,(%edi,%esi,1)
- .byte 235,70 // jmp d305 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,70 // jmp d4f1 <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,6 // pextrw $0x6,%xmm3,%ecx
.byte 136,76,55,6 // mov %cl,0x6(%edi,%esi,1)
.byte 102,15,197,203,5 // pextrw $0x5,%xmm3,%ecx
@@ -75371,7 +76049,7 @@ _sk_store_a8_sse2_lowp:
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 102,15,111,163,179,45,0,0 // movdqa 0x2db3(%ebx),%xmm4
+ .byte 102,15,111,163,183,45,0,0 // movdqa 0x2db7(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,36,55 // movd %xmm4,(%edi,%esi,1)
@@ -75405,7 +76083,7 @@ _sk_store_a8_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 0,125,0 // add %bh,0x0(%ebp)
.byte 0,0 // add %al,(%eax)
- .byte 116,0 // je d34e <_sk_store_a8_sse2_lowp+0x12a>
+ .byte 116,0 // je d53a <_sk_store_a8_sse2_lowp+0x12a>
.byte 0,0 // add %al,(%eax)
.byte 107,0,0 // imul $0x0,(%eax),%eax
.byte 0,98,0 // add %ah,0x0(%edx)
@@ -75545,10 +76223,10 @@ _sk_load_g8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d510 <_sk_load_g8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call d6fc <_sk_load_g8_sse2_lowp+0x39>
.byte 94 // pop %esi
.byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja d532 <_sk_load_g8_sse2_lowp+0x5b>
+ .byte 119,28 // ja d71e <_sk_load_g8_sse2_lowp+0x5b>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,142,200,0,0,0 // mov 0xc8(%esi,%ecx,4),%ecx
@@ -75556,10 +76234,10 @@ _sk_load_g8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,59 // movzbl (%ebx,%edi,1),%ecx
.byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,90 // jmp d58c <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,90 // jmp d778 <_sk_load_g8_sse2_lowp+0xb5>
.byte 243,15,126,4,59 // movq (%ebx,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,79 // jmp d58c <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,79 // jmp d778 <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,2 // movzbl 0x2(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,2 // pinsrw $0x2,%ecx,%xmm0
@@ -75567,7 +76245,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,197 // movss %xmm5,%xmm0
- .byte 235,47 // jmp d58c <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,47 // jmp d778 <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,6 // movzbl 0x6(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,6 // pinsrw $0x6,%ecx,%xmm0
@@ -75578,7 +76256,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,44,59 // movd (%ebx,%edi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,197 // movsd %xmm5,%xmm0
- .byte 102,15,219,134,0,43,0,0 // pand 0x2b00(%esi),%xmm0
+ .byte 102,15,219,134,4,43,0,0 // pand 0x2b04(%esi),%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
.byte 15,41,92,36,48 // movaps %xmm3,0x30(%esp)
@@ -75589,7 +76267,7 @@ _sk_load_g8_sse2_lowp:
.byte 137,124,36,8 // mov %edi,0x8(%esp)
.byte 137,76,36,4 // mov %ecx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,158,0,43,0,0 // movaps 0x2b00(%esi),%xmm3
+ .byte 15,40,158,4,43,0,0 // movaps 0x2b04(%esi),%xmm3
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,80,4 // call *0x4(%eax)
@@ -75633,10 +76311,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d61d <_sk_load_g8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call d809 <_sk_load_g8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja d63f <_sk_load_g8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja d82b <_sk_load_g8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -75644,10 +76322,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp d699 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp d885 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp d699 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp d885 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -75655,7 +76333,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp d699 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp d885 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -75666,9 +76344,9 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,243,41,0,0 // pand 0x29f3(%edi),%xmm4
+ .byte 102,15,219,167,247,41,0,0 // pand 0x29f7(%edi),%xmm4
.byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,175,243,41,0,0 // movaps 0x29f3(%edi),%xmm5
+ .byte 15,40,175,247,41,0,0 // movaps 0x29f7(%edi),%xmm5
.byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
.byte 102,15,127,100,36,48 // movdqa %xmm4,0x30(%esp)
.byte 102,15,127,100,36,32 // movdqa %xmm4,0x20(%esp)
@@ -75709,7 +76387,7 @@ _sk_luminance_to_alpha_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 232,0,0,0,0 // call d70d <_sk_luminance_to_alpha_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call d8f9 <_sk_luminance_to_alpha_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -75719,10 +76397,10 @@ _sk_luminance_to_alpha_sse2_lowp:
.byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
.byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
.byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 102,15,213,128,211,41,0,0 // pmullw 0x29d3(%eax),%xmm0
- .byte 102,15,213,136,227,41,0,0 // pmullw 0x29e3(%eax),%xmm1
+ .byte 102,15,213,128,215,41,0,0 // pmullw 0x29d7(%eax),%xmm0
+ .byte 102,15,213,136,231,41,0,0 // pmullw 0x29e7(%eax),%xmm1
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,152,243,41,0,0 // pmullw 0x29f3(%eax),%xmm3
+ .byte 102,15,213,152,247,41,0,0 // pmullw 0x29f7(%eax),%xmm3
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 141,71,4 // lea 0x4(%edi),%eax
@@ -75803,7 +76481,7 @@ _sk_gather_g8_sse2_lowp:
.byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx
.byte 193,226,8 // shl $0x8,%edx
.byte 9,202 // or %ecx,%edx
- .byte 232,0,0,0,0 // call d852 <_sk_gather_g8_sse2_lowp+0xc9>
+ .byte 232,0,0,0,0 // call da3e <_sk_gather_g8_sse2_lowp+0xc9>
.byte 89 // pop %ecx
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
@@ -75847,7 +76525,7 @@ _sk_gather_g8_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,60,36 // mov %edi,(%esp)
- .byte 15,40,153,190,39,0,0 // movaps 0x27be(%ecx),%xmm3
+ .byte 15,40,153,194,39,0,0 // movaps 0x27c2(%ecx),%xmm3
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,80,4 // call *0x4(%eax)
@@ -75867,15 +76545,15 @@ _sk_scale_1_float_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call d923 <_sk_scale_1_float_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call db0f <_sk_scale_1_float_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,57 // mov (%ecx),%edi
.byte 243,15,16,39 // movss (%edi),%xmm4
- .byte 243,15,89,166,241,39,0,0 // mulss 0x27f1(%esi),%xmm4
- .byte 243,15,88,166,237,39,0,0 // addss 0x27ed(%esi),%xmm4
+ .byte 243,15,89,166,245,39,0,0 // mulss 0x27f5(%esi),%xmm4
+ .byte 243,15,88,166,241,39,0,0 // addss 0x27f1(%esi),%xmm4
.byte 243,15,44,252 // cvttss2si %xmm4,%edi
.byte 102,15,110,239 // movd %edi,%xmm5
.byte 139,125,20 // mov 0x14(%ebp),%edi
@@ -75888,7 +76566,7 @@ _sk_scale_1_float_sse2_lowp:
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
.byte 102,15,213,213 // pmullw %xmm5,%xmm2
.byte 102,15,213,221 // pmullw %xmm5,%xmm3
- .byte 102,15,111,174,237,38,0,0 // movdqa 0x26ed(%esi),%xmm5
+ .byte 102,15,111,174,241,38,0,0 // movdqa 0x26f1(%esi),%xmm5
.byte 102,15,253,197 // paddw %xmm5,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,15,253,213 // paddw %xmm5,%xmm2
@@ -75927,19 +76605,19 @@ _sk_lerp_1_float_sse2_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call d9f1 <_sk_lerp_1_float_sse2_lowp+0x1d>
+ .byte 232,0,0,0,0 // call dbdd <_sk_lerp_1_float_sse2_lowp+0x1d>
.byte 89 // pop %ecx
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
.byte 243,15,16,50 // movss (%edx),%xmm6
- .byte 243,15,89,177,35,39,0,0 // mulss 0x2723(%ecx),%xmm6
- .byte 243,15,88,177,31,39,0,0 // addss 0x271f(%ecx),%xmm6
+ .byte 243,15,89,177,39,39,0,0 // mulss 0x2727(%ecx),%xmm6
+ .byte 243,15,88,177,35,39,0,0 // addss 0x2723(%ecx),%xmm6
.byte 243,15,44,214 // cvttss2si %xmm6,%edx
.byte 102,15,110,242 // movd %edx,%xmm6
.byte 242,15,112,246,0 // pshuflw $0x0,%xmm6,%xmm6
.byte 102,15,112,246,80 // pshufd $0x50,%xmm6,%xmm6
- .byte 102,15,111,129,31,38,0,0 // movdqa 0x261f(%ecx),%xmm0
+ .byte 102,15,111,129,35,38,0,0 // movdqa 0x2623(%ecx),%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
.byte 102,15,253,200 // paddw %xmm0,%xmm1
.byte 102,15,213,214 // pmullw %xmm6,%xmm2
@@ -76012,10 +76690,10 @@ _sk_scale_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call db1a <_sk_scale_u8_sse2_lowp+0x31>
+ .byte 232,0,0,0,0 // call dd06 <_sk_scale_u8_sse2_lowp+0x31>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja db3c <_sk_scale_u8_sse2_lowp+0x53>
+ .byte 119,28 // ja dd28 <_sk_scale_u8_sse2_lowp+0x53>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,2,1,0,0 // mov 0x102(%edi,%ecx,4),%ecx
@@ -76023,10 +76701,10 @@ _sk_scale_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp db96 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,90 // jmp dd82 <_sk_scale_u8_sse2_lowp+0xad>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp db96 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,79 // jmp dd82 <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -76034,7 +76712,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp db96 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,47 // jmp dd82 <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -76045,9 +76723,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,246,36,0,0 // pand 0x24f6(%edi),%xmm4
+ .byte 102,15,219,167,250,36,0,0 // pand 0x24fa(%edi),%xmm4
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,111,175,246,36,0,0 // movdqa 0x24f6(%edi),%xmm5
+ .byte 102,15,111,175,250,36,0,0 // movdqa 0x24fa(%edi),%xmm5
.byte 102,15,253,197 // paddw %xmm5,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
@@ -76114,10 +76792,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call dc66 <_sk_lerp_u8_sse2_lowp+0x2e>
+ .byte 232,0,0,0,0 // call de52 <_sk_lerp_u8_sse2_lowp+0x2e>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja dc88 <_sk_lerp_u8_sse2_lowp+0x50>
+ .byte 119,28 // ja de74 <_sk_lerp_u8_sse2_lowp+0x50>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,74,1,0,0 // mov 0x14a(%edi,%ecx,4),%ecx
@@ -76125,10 +76803,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp dce2 <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,90 // jmp dece <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp dce2 <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,79 // jmp dece <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -76136,7 +76814,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,15,110,225 // movd %ecx,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,220 // movss %xmm4,%xmm3
- .byte 235,47 // jmp dce2 <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,47 // jmp dece <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -76147,8 +76825,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,15,110,36,51 // movd (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,220 // movsd %xmm4,%xmm3
- .byte 102,15,219,159,170,35,0,0 // pand 0x23aa(%edi),%xmm3
- .byte 102,15,111,183,170,35,0,0 // movdqa 0x23aa(%edi),%xmm6
+ .byte 102,15,219,159,174,35,0,0 // pand 0x23ae(%edi),%xmm3
+ .byte 102,15,111,183,174,35,0,0 // movdqa 0x23ae(%edi),%xmm6
.byte 102,15,111,227 // movdqa %xmm3,%xmm4
.byte 102,15,239,230 // pxor %xmm6,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
@@ -76237,10 +76915,10 @@ _sk_scale_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call de0f <_sk_scale_565_sse2_lowp+0x43>
+ .byte 232,0,0,0,0 // call dffb <_sk_scale_565_sse2_lowp+0x43>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja de31 <_sk_scale_565_sse2_lowp+0x65>
+ .byte 119,28 // ja e01d <_sk_scale_565_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,249,1,0,0 // mov 0x1f9(%edi,%ecx,4),%ecx
@@ -76248,14 +76926,14 @@ _sk_scale_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,59 // jmp de6c <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,59 // jmp e058 <_sk_scale_565_sse2_lowp+0xa0>
.byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3
- .byte 235,52 // jmp de6c <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,52 // jmp e058 <_sk_scale_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
.byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1
.byte 243,15,16,217 // movss %xmm1,%xmm3
- .byte 235,30 // jmp de6c <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,30 // jmp e058 <_sk_scale_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
.byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
@@ -76263,11 +76941,11 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,18,28,115 // movlpd (%ebx,%esi,2),%xmm3
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,219,143,65,34,0,0 // pand 0x2241(%edi),%xmm1
+ .byte 102,15,219,143,69,34,0,0 // pand 0x2245(%edi),%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
.byte 102,15,113,210,5 // psrlw $0x5,%xmm2
- .byte 102,15,219,151,81,34,0,0 // pand 0x2251(%edi),%xmm2
- .byte 102,15,111,135,97,34,0,0 // movdqa 0x2261(%edi),%xmm0
+ .byte 102,15,219,151,85,34,0,0 // pand 0x2255(%edi),%xmm2
+ .byte 102,15,111,135,101,34,0,0 // movdqa 0x2265(%edi),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,113,211,13 // psrlw $0xd,%xmm3
.byte 102,15,235,217 // por %xmm1,%xmm3
@@ -76280,7 +76958,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,113,208,2 // psrlw $0x2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
.byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
- .byte 102,15,111,167,17,34,0,0 // movdqa 0x2211(%edi),%xmm4
+ .byte 102,15,111,167,21,34,0,0 // movdqa 0x2215(%edi),%xmm4
.byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp)
.byte 102,15,239,244 // pxor %xmm4,%xmm6
.byte 102,15,239,252 // pxor %xmm4,%xmm7
@@ -76323,7 +77001,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,15,213,101,136 // pmullw -0x78(%ebp),%xmm4
.byte 102,15,213,125,184 // pmullw -0x48(%ebp),%xmm7
- .byte 102,15,111,135,1,34,0,0 // movdqa 0x2201(%edi),%xmm0
+ .byte 102,15,111,135,5,34,0,0 // movdqa 0x2205(%edi),%xmm0
.byte 102,15,253,216 // paddw %xmm0,%xmm3
.byte 102,15,253,208 // paddw %xmm0,%xmm2
.byte 102,15,253,224 // paddw %xmm0,%xmm4
@@ -76400,10 +77078,10 @@ _sk_lerp_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call e067 <_sk_lerp_565_sse2_lowp+0x43>
+ .byte 232,0,0,0,0 // call e253 <_sk_lerp_565_sse2_lowp+0x43>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja e089 <_sk_lerp_565_sse2_lowp+0x65>
+ .byte 119,28 // ja e275 <_sk_lerp_565_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,73,2,0,0 // mov 0x249(%edi,%ecx,4),%ecx
@@ -76411,14 +77089,14 @@ _sk_lerp_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,59 // jmp e0c4 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,59 // jmp e2b0 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3
- .byte 235,52 // jmp e0c4 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,52 // jmp e2b0 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
.byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1
.byte 243,15,16,217 // movss %xmm1,%xmm3
- .byte 235,30 // jmp e0c4 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,30 // jmp e2b0 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
.byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
@@ -76426,11 +77104,11 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,18,28,115 // movlpd (%ebx,%esi,2),%xmm3
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,219,143,233,31,0,0 // pand 0x1fe9(%edi),%xmm1
+ .byte 102,15,219,143,237,31,0,0 // pand 0x1fed(%edi),%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
.byte 102,15,113,210,5 // psrlw $0x5,%xmm2
- .byte 102,15,219,151,249,31,0,0 // pand 0x1ff9(%edi),%xmm2
- .byte 102,15,111,175,9,32,0,0 // movdqa 0x2009(%edi),%xmm5
+ .byte 102,15,219,151,253,31,0,0 // pand 0x1ffd(%edi),%xmm2
+ .byte 102,15,111,175,13,32,0,0 // movdqa 0x200d(%edi),%xmm5
.byte 102,15,219,235 // pand %xmm3,%xmm5
.byte 102,15,113,211,13 // psrlw $0xd,%xmm3
.byte 102,15,235,217 // por %xmm1,%xmm3
@@ -76443,7 +77121,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,113,213,2 // psrlw $0x2,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
.byte 102,15,127,109,216 // movdqa %xmm5,-0x28(%ebp)
- .byte 102,15,111,167,185,31,0,0 // movdqa 0x1fb9(%edi),%xmm4
+ .byte 102,15,111,167,189,31,0,0 // movdqa 0x1fbd(%edi),%xmm4
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,239,204 // pxor %xmm4,%xmm1
@@ -76484,7 +77162,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,235,249 // por %xmm1,%xmm7
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,213,93,168 // pmullw -0x58(%ebp),%xmm3
- .byte 102,15,111,143,169,31,0,0 // movdqa 0x1fa9(%edi),%xmm1
+ .byte 102,15,111,143,173,31,0,0 // movdqa 0x1fad(%edi),%xmm1
.byte 102,15,239,193 // pxor %xmm1,%xmm0
.byte 102,15,111,101,24 // movdqa 0x18(%ebp),%xmm4
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
@@ -76564,7 +77242,7 @@ _sk_clamp_x_1_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call e2d9 <_sk_clamp_x_1_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call e4c5 <_sk_clamp_x_1_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -76575,7 +77253,7 @@ _sk_clamp_x_1_sse2_lowp:
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,95,207 // maxps %xmm7,%xmm1
.byte 15,95,199 // maxps %xmm7,%xmm0
- .byte 15,40,184,87,22,0,0 // movaps 0x1657(%eax),%xmm7
+ .byte 15,40,184,91,22,0,0 // movaps 0x165b(%eax),%xmm7
.byte 15,93,199 // minps %xmm7,%xmm0
.byte 15,93,207 // minps %xmm7,%xmm1
.byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
@@ -76605,7 +77283,7 @@ _sk_repeat_x_1_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call e348 <_sk_repeat_x_1_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call e534 <_sk_repeat_x_1_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -76616,7 +77294,7 @@ _sk_repeat_x_1_sse2_lowp:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,194,244,1 // cmpltps %xmm4,%xmm6
- .byte 15,40,190,232,21,0,0 // movaps 0x15e8(%esi),%xmm7
+ .byte 15,40,190,236,21,0,0 // movaps 0x15ec(%esi),%xmm7
.byte 15,84,247 // andps %xmm7,%xmm6
.byte 15,92,230 // subps %xmm6,%xmm4
.byte 15,40,240 // movaps %xmm0,%xmm6
@@ -76664,19 +77342,19 @@ _sk_mirror_x_1_sse2_lowp:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call e3f2 <_sk_mirror_x_1_sse2_lowp+0x1a>
+ .byte 232,0,0,0,0 // call e5de <_sk_mirror_x_1_sse2_lowp+0x1a>
.byte 88 // pop %eax
- .byte 15,40,160,174,21,0,0 // movaps 0x15ae(%eax),%xmm4
+ .byte 15,40,160,178,21,0,0 // movaps 0x15b2(%eax),%xmm4
.byte 15,88,204 // addps %xmm4,%xmm1
.byte 15,88,212 // addps %xmm4,%xmm2
- .byte 15,40,176,46,21,0,0 // movaps 0x152e(%eax),%xmm6
+ .byte 15,40,176,50,21,0,0 // movaps 0x1532(%eax),%xmm6
.byte 15,40,250 // movaps %xmm2,%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 243,15,91,238 // cvttps2dq %xmm6,%xmm5
.byte 15,91,197 // cvtdq2ps %xmm5,%xmm0
.byte 15,194,240,1 // cmpltps %xmm0,%xmm6
- .byte 15,40,168,62,21,0,0 // movaps 0x153e(%eax),%xmm5
+ .byte 15,40,168,66,21,0,0 // movaps 0x1542(%eax),%xmm5
.byte 15,84,245 // andps %xmm5,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 243,15,91,247 // cvttps2dq %xmm7,%xmm6
@@ -76695,7 +77373,7 @@ _sk_mirror_x_1_sse2_lowp:
.byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
.byte 15,88,212 // addps %xmm4,%xmm2
.byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,160,62,26,0,0 // movaps 0x1a3e(%eax),%xmm4
+ .byte 15,40,160,66,26,0,0 // movaps 0x1a42(%eax),%xmm4
.byte 15,84,204 // andps %xmm4,%xmm1
.byte 15,84,212 // andps %xmm4,%xmm2
.byte 15,87,228 // xorps %xmm4,%xmm4
@@ -76736,7 +77414,7 @@ _sk_gradient_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 129,236,108,1,0,0 // sub $0x16c,%esp
- .byte 232,0,0,0,0 // call e4d0 <_sk_gradient_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call e6bc <_sk_gradient_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 137,69,164 // mov %eax,-0x5c(%ebp)
.byte 139,69,12 // mov 0xc(%ebp),%eax
@@ -76746,7 +77424,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 131,248,2 // cmp $0x2,%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 114,48 // jb e51a <_sk_gradient_sse2_lowp+0x5b>
+ .byte 114,48 // jb e706 <_sk_gradient_sse2_lowp+0x5b>
.byte 139,78,36 // mov 0x24(%esi),%ecx
.byte 72 // dec %eax
.byte 131,193,4 // add $0x4,%ecx
@@ -76761,7 +77439,7 @@ _sk_gradient_sse2_lowp:
.byte 102,15,250,234 // psubd %xmm2,%xmm5
.byte 131,193,4 // add $0x4,%ecx
.byte 72 // dec %eax
- .byte 117,223 // jne e4f9 <_sk_gradient_sse2_lowp+0x3a>
+ .byte 117,223 // jne e6e5 <_sk_gradient_sse2_lowp+0x3a>
.byte 102,15,112,215,229 // pshufd $0xe5,%xmm7,%xmm2
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
.byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
@@ -76968,10 +77646,10 @@ _sk_gradient_sse2_lowp:
.byte 15,89,195 // mulps %xmm3,%xmm0
.byte 15,88,194 // addps %xmm2,%xmm0
.byte 139,69,164 // mov -0x5c(%ebp),%eax
- .byte 15,40,136,48,21,0,0 // movaps 0x1530(%eax),%xmm1
+ .byte 15,40,136,52,21,0,0 // movaps 0x1534(%eax),%xmm1
.byte 15,89,225 // mulps %xmm1,%xmm4
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,144,80,20,0,0 // movaps 0x1450(%eax),%xmm2
+ .byte 15,40,144,84,20,0,0 // movaps 0x1454(%eax),%xmm2
.byte 15,88,194 // addps %xmm2,%xmm0
.byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp)
.byte 15,88,226 // addps %xmm2,%xmm4
@@ -77087,7 +77765,7 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 129,236,92,1,0,0 // sub $0x15c,%esp
.byte 15,41,141,232,254,255,255 // movaps %xmm1,-0x118(%ebp)
.byte 15,41,69,136 // movaps %xmm0,-0x78(%ebp)
- .byte 232,0,0,0,0 // call ea42 <_sk_evenly_spaced_gradient_sse2_lowp+0x1c>
+ .byte 232,0,0,0,0 // call ec2e <_sk_evenly_spaced_gradient_sse2_lowp+0x1c>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,48 // mov (%eax),%esi
@@ -77098,12 +77776,12 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 102,15,110,209 // movd %ecx,%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 137,85,164 // mov %edx,-0x5c(%ebp)
- .byte 102,15,111,154,94,20,0,0 // movdqa 0x145e(%edx),%xmm3
+ .byte 102,15,111,154,98,20,0,0 // movdqa 0x1462(%edx),%xmm3
.byte 102,15,219,218 // pand %xmm2,%xmm3
- .byte 102,15,235,154,30,18,0,0 // por 0x121e(%edx),%xmm3
+ .byte 102,15,235,154,34,18,0,0 // por 0x1222(%edx),%xmm3
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,15,235,146,110,20,0,0 // por 0x146e(%edx),%xmm2
- .byte 15,88,146,126,20,0,0 // addps 0x147e(%edx),%xmm2
+ .byte 102,15,235,146,114,20,0,0 // por 0x1472(%edx),%xmm2
+ .byte 15,88,146,130,20,0,0 // addps 0x1482(%edx),%xmm2
.byte 15,88,211 // addps %xmm3,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,89,218 // mulps %xmm2,%xmm3
@@ -77310,10 +77988,10 @@ _sk_evenly_spaced_gradient_sse2_lowp:
.byte 15,89,69,136 // mulps -0x78(%ebp),%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
.byte 139,69,164 // mov -0x5c(%ebp),%eax
- .byte 15,40,152,190,15,0,0 // movaps 0xfbe(%eax),%xmm3
+ .byte 15,40,152,194,15,0,0 // movaps 0xfc2(%eax),%xmm3
.byte 15,89,227 // mulps %xmm3,%xmm4
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,168,222,14,0,0 // movaps 0xede(%eax),%xmm5
+ .byte 15,40,168,226,14,0,0 // movaps 0xee2(%eax),%xmm5
.byte 15,88,197 // addps %xmm5,%xmm0
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,88,229 // addps %xmm5,%xmm4
@@ -77423,7 +78101,7 @@ _sk_evenly_spaced_2_stop_gradient_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
.byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 232,0,0,0,0 // call ef81 <_sk_evenly_spaced_2_stop_gradient_sse2_lowp+0x10>
+ .byte 232,0,0,0,0 // call f16d <_sk_evenly_spaced_2_stop_gradient_sse2_lowp+0x10>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -77438,10 +78116,10 @@ _sk_evenly_spaced_2_stop_gradient_sse2_lowp:
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,88,227 // addps %xmm3,%xmm4
.byte 15,88,235 // addps %xmm3,%xmm5
- .byte 15,40,154,127,10,0,0 // movaps 0xa7f(%edx),%xmm3
+ .byte 15,40,154,131,10,0,0 // movaps 0xa83(%edx),%xmm3
.byte 15,89,235 // mulps %xmm3,%xmm5
.byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,40,130,159,9,0,0 // movaps 0x99f(%edx),%xmm0
+ .byte 15,40,130,163,9,0,0 // movaps 0x9a3(%edx),%xmm0
.byte 15,88,224 // addps %xmm0,%xmm4
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 243,15,91,237 // cvttps2dq %xmm5,%xmm5
@@ -77558,9 +78236,9 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,41,77,184 // movaps %xmm1,-0x48(%ebp)
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 232,0,0,0,0 // call f16c <_sk_xy_to_unit_angle_sse2_lowp+0x23>
+ .byte 232,0,0,0,0 // call f358 <_sk_xy_to_unit_angle_sse2_lowp+0x23>
.byte 88 // pop %eax
- .byte 15,40,128,196,12,0,0 // movaps 0xcc4(%eax),%xmm0
+ .byte 15,40,128,200,12,0,0 // movaps 0xcc8(%eax),%xmm0
.byte 15,40,225 // movaps %xmm1,%xmm4
.byte 15,84,224 // andps %xmm0,%xmm4
.byte 15,40,203 // movaps %xmm3,%xmm1
@@ -77595,24 +78273,24 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,89,219 // mulps %xmm3,%xmm3
.byte 15,40,247 // movaps %xmm7,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
- .byte 15,40,136,100,13,0,0 // movaps 0xd64(%eax),%xmm1
+ .byte 15,40,136,104,13,0,0 // movaps 0xd68(%eax),%xmm1
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,88,136,116,13,0,0 // addps 0xd74(%eax),%xmm1
- .byte 15,88,128,116,13,0,0 // addps 0xd74(%eax),%xmm0
+ .byte 15,88,136,120,13,0,0 // addps 0xd78(%eax),%xmm1
+ .byte 15,88,128,120,13,0,0 // addps 0xd78(%eax),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,88,136,132,13,0,0 // addps 0xd84(%eax),%xmm1
- .byte 15,88,128,132,13,0,0 // addps 0xd84(%eax),%xmm0
+ .byte 15,88,136,136,13,0,0 // addps 0xd88(%eax),%xmm1
+ .byte 15,88,128,136,13,0,0 // addps 0xd88(%eax),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,152,148,13,0,0 // movaps 0xd94(%eax),%xmm3
+ .byte 15,40,152,152,13,0,0 // movaps 0xd98(%eax),%xmm3
.byte 15,88,203 // addps %xmm3,%xmm1
.byte 15,88,195 // addps %xmm3,%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,152,164,13,0,0 // movaps 0xda4(%eax),%xmm3
+ .byte 15,40,152,168,13,0,0 // movaps 0xda8(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,92,216 // subps %xmm0,%xmm3
.byte 15,84,218 // andps %xmm2,%xmm3
@@ -77625,7 +78303,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
.byte 15,194,220,1 // cmpltps %xmm4,%xmm3
- .byte 15,40,128,180,7,0,0 // movaps 0x7b4(%eax),%xmm0
+ .byte 15,40,128,184,7,0,0 // movaps 0x7b8(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,92,194 // subps %xmm2,%xmm0
.byte 15,84,195 // andps %xmm3,%xmm0
@@ -77644,7 +78322,7 @@ _sk_xy_to_unit_angle_sse2_lowp:
.byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,136,196,7,0,0 // movaps 0x7c4(%eax),%xmm1
+ .byte 15,40,136,200,7,0,0 // movaps 0x7c8(%eax),%xmm1
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,84,200 // andps %xmm0,%xmm1
@@ -77754,11 +78432,11 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call f3d4 <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
+ .byte 232,0,0,0,0 // call f5c0 <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,182,211 // movzbl %bl,%edx
- .byte 119,29 // ja f3fa <_sk_srcover_rgba_8888_sse2_lowp+0x65>
+ .byte 119,29 // ja f5e6 <_sk_srcover_rgba_8888_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 139,132,145,76,2,0,0 // mov 0x24c(%ecx,%edx,4),%eax
.byte 1,200 // add %ecx,%eax
@@ -77766,14 +78444,14 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 255,224 // jmp *%eax
.byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp f443 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,73 // jmp f62f <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6
.byte 15,16,92,183,16 // movups 0x10(%edi,%esi,4),%xmm3
- .byte 235,61 // jmp f443 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,61 // jmp f62f <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 102,15,18,52,183 // movlpd (%edi,%esi,4),%xmm6
- .byte 235,43 // jmp f443 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,43 // jmp f62f <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0
@@ -77799,7 +78477,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,243,16 // pslld $0x10,%xmm3
.byte 102,15,114,227,16 // psrad $0x10,%xmm3
.byte 102,15,107,243 // packssdw %xmm3,%xmm6
- .byte 102,15,111,153,60,12,0,0 // movdqa 0xc3c(%ecx),%xmm3
+ .byte 102,15,111,153,64,12,0,0 // movdqa 0xc40(%ecx),%xmm3
.byte 102,15,114,208,16 // psrld $0x10,%xmm0
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
@@ -77851,18 +78529,18 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
.byte 102,15,235,222 // por %xmm6,%xmm3
.byte 128,251,6 // cmp $0x6,%bl
- .byte 119,16 // ja f584 <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
+ .byte 119,16 // ja f770 <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
.byte 3,140,145,104,2,0,0 // add 0x268(%ecx,%edx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4)
- .byte 235,64 // jmp f5c4 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,64 // jmp f7b0 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
.byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4)
- .byte 235,51 // jmp f5c4 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,51 // jmp f7b0 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4)
.byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4)
- .byte 235,33 // jmp f5c4 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,33 // jmp f7b0 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
.byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4)
.byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2
@@ -77946,11 +78624,11 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call f698 <_sk_srcover_bgra_8888_sse2_lowp+0x40>
+ .byte 232,0,0,0,0 // call f884 <_sk_srcover_bgra_8888_sse2_lowp+0x40>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,182,211 // movzbl %bl,%edx
- .byte 119,29 // ja f6be <_sk_srcover_bgra_8888_sse2_lowp+0x66>
+ .byte 119,29 // ja f8aa <_sk_srcover_bgra_8888_sse2_lowp+0x66>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 139,132,145,80,2,0,0 // mov 0x250(%ecx,%edx,4),%eax
.byte 1,200 // add %ecx,%eax
@@ -77958,14 +78636,14 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 255,224 // jmp *%eax
.byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,73 // jmp f707 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
+ .byte 235,73 // jmp f8f3 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
.byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6
.byte 15,16,100,183,16 // movups 0x10(%edi,%esi,4),%xmm4
- .byte 235,61 // jmp f707 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
+ .byte 235,61 // jmp f8f3 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
.byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 102,15,18,52,183 // movlpd (%edi,%esi,4),%xmm6
- .byte 235,43 // jmp f707 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
+ .byte 235,43 // jmp f8f3 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
.byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0
.byte 102,15,112,224,69 // pshufd $0x45,%xmm0,%xmm4
.byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0
@@ -77991,7 +78669,7 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,244 // packssdw %xmm4,%xmm6
- .byte 102,15,111,153,120,9,0,0 // movdqa 0x978(%ecx),%xmm3
+ .byte 102,15,111,153,124,9,0,0 // movdqa 0x97c(%ecx),%xmm3
.byte 102,15,114,208,16 // psrld $0x10,%xmm0
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
@@ -78043,18 +78721,18 @@ _sk_srcover_bgra_8888_sse2_lowp:
.byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
.byte 102,15,235,222 // por %xmm6,%xmm3
.byte 128,251,6 // cmp $0x6,%bl
- .byte 119,16 // ja f84a <_sk_srcover_bgra_8888_sse2_lowp+0x1f2>
+ .byte 119,16 // ja fa36 <_sk_srcover_bgra_8888_sse2_lowp+0x1f2>
.byte 3,140,145,108,2,0,0 // add 0x26c(%ecx,%edx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4)
- .byte 235,64 // jmp f88a <_sk_srcover_bgra_8888_sse2_lowp+0x232>
+ .byte 235,64 // jmp fa76 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
.byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
.byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4)
- .byte 235,51 // jmp f88a <_sk_srcover_bgra_8888_sse2_lowp+0x232>
+ .byte 235,51 // jmp fa76 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4)
.byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4)
- .byte 235,33 // jmp f88a <_sk_srcover_bgra_8888_sse2_lowp+0x232>
+ .byte 235,33 // jmp fa76 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
.byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
.byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4)
.byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2
@@ -78174,11 +78852,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%eax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne f9f8 <.literal16+0xd8>
+ .byte 224,64 // loopne fbe8 <.literal16+0xd8>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne f9fc <.literal16+0xdc>
+ .byte 224,64 // loopne fbec <.literal16+0xdc>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne fa00 <.literal16+0xe0>
+ .byte 224,64 // loopne fbf0 <.literal16+0xe0>
.byte 154,153,153,62,154,153,153 // lcall $0x9999,$0x9a3e9999
.byte 62,154,153,153,62,154,153,153 // ds lcall $0x9999,$0x9a3e9999
.byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax
@@ -78189,16 +78867,16 @@ BALIGN16
.byte 63 // aas
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope fa21 <.literal16+0x101>
+ .byte 225,61 // loope fc11 <.literal16+0x101>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope fa25 <.literal16+0x105>
+ .byte 225,61 // loope fc15 <.literal16+0x105>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope fa29 <.literal16+0x109>
+ .byte 225,61 // loope fc19 <.literal16+0x109>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope fa2d <.literal16+0x10d>
+ .byte 225,61 // loope fc1d <.literal16+0x10d>
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 255,0 // incl (%eax)
@@ -78208,13 +78886,13 @@ BALIGN16
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg fa47 <.literal16+0x127>
+ .byte 127,67 // jg fc37 <.literal16+0x127>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg fa4b <.literal16+0x12b>
+ .byte 127,67 // jg fc3b <.literal16+0x12b>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg fa4f <.literal16+0x12f>
+ .byte 127,67 // jg fc3f <.literal16+0x12f>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg fa53 <.literal16+0x133>
+ .byte 127,67 // jg fc43 <.literal16+0x133>
.byte 0,0 // add %al,(%eax)
.byte 128,127,0,0 // cmpb $0x0,0x0(%edi)
.byte 128,127,0,0 // cmpb $0x0,0x0(%edi)
@@ -78370,13 +79048,13 @@ BALIGN16
.byte 132,55 // test %dh,(%edi)
.byte 8,33 // or %ah,(%ecx)
.byte 132,55 // test %dh,(%edi)
- .byte 224,7 // loopne fb69 <.literal16+0x249>
+ .byte 224,7 // loopne fd59 <.literal16+0x249>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne fb6d <.literal16+0x24d>
+ .byte 224,7 // loopne fd5d <.literal16+0x24d>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne fb71 <.literal16+0x251>
+ .byte 224,7 // loopne fd61 <.literal16+0x251>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne fb75 <.literal16+0x255>
+ .byte 224,7 // loopne fd65 <.literal16+0x255>
.byte 0,0 // add %al,(%eax)
.byte 33,8 // and %ecx,(%eax)
.byte 2,58 // add (%edx),%bh
@@ -78425,17 +79103,17 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg fbd4 <.literal16+0x2b4>
+ .byte 127,0 // jg fdc4 <.literal16+0x2b4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg fbd8 <.literal16+0x2b8>
+ .byte 127,0 // jg fdc8 <.literal16+0x2b8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg fbdc <.literal16+0x2bc>
+ .byte 127,0 // jg fdcc <.literal16+0x2bc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg fbe0 <.literal16+0x2c0>
- .byte 119,115 // ja fc55 <.literal16+0x335>
+ .byte 127,0 // jg fdd0 <.literal16+0x2c0>
+ .byte 119,115 // ja fe45 <.literal16+0x335>
.byte 248 // clc
.byte 194,119,115 // ret $0x7377
.byte 248 // clc
@@ -78446,7 +79124,7 @@ BALIGN16
.byte 194,117,191 // ret $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
- .byte 117,191 // jne fbb9 <.literal16+0x299>
+ .byte 117,191 // jne fda9 <.literal16+0x299>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
.byte 249 // stc
@@ -78462,7 +79140,7 @@ BALIGN16
.byte 68 // inc %esp
.byte 180,62 // mov $0x3e,%ah
.byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a43bf6 <_sk_srcover_bgra_8888_sse2_lowp+0xe9a3459e>
+ .byte 233,220,63,163,233 // jmp e9a43de6 <_sk_srcover_bgra_8888_sse2_lowp+0xe9a345a2>
.byte 220,63 // fdivrl (%edi)
.byte 163,233,220,63,81 // mov %eax,0x513fdce9
.byte 140,242 // mov %?,%edx
@@ -78558,16 +79236,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%ebx)
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe fd43 <.literal16+0x423>
+ .byte 118,63 // jbe ff33 <.literal16+0x423>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe fd47 <.literal16+0x427>
+ .byte 118,63 // jbe ff37 <.literal16+0x427>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe fd4b <.literal16+0x42b>
+ .byte 118,63 // jbe ff3b <.literal16+0x42b>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe fd4f <.literal16+0x42f>
+ .byte 118,63 // jbe ff3f <.literal16+0x42f>
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
@@ -78593,13 +79271,13 @@ BALIGN16
.byte 248 // clc
.byte 65 // inc %ecx
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl fd86 <.literal16+0x466>
+ .byte 124,66 // jl ff76 <.literal16+0x466>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl fd8a <.literal16+0x46a>
+ .byte 124,66 // jl ff7a <.literal16+0x46a>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl fd8e <.literal16+0x46e>
+ .byte 124,66 // jl ff7e <.literal16+0x46e>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl fd92 <.literal16+0x472>
+ .byte 124,66 // jl ff82 <.literal16+0x472>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%eax)
.byte 0,240 // add %dh,%al
@@ -78645,25 +79323,25 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%eax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo fe15 <.literal16+0x4f5>
+ .byte 112,65 // jo 10005 <.literal16+0x4f5>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo fe19 <.literal16+0x4f9>
+ .byte 112,65 // jo 10009 <.literal16+0x4f9>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo fe1d <.literal16+0x4fd>
+ .byte 112,65 // jo 1000d <.literal16+0x4fd>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo fe21 <.literal16+0x501>
+ .byte 112,65 // jo 10011 <.literal16+0x501>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 255 // (bad)
- .byte 127,0 // jg fdf3 <.literal16+0x4d3>
+ .byte 127,0 // jg ffe3 <.literal16+0x4d3>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg fdf7 <.literal16+0x4d7>
+ .byte 127,0 // jg ffe7 <.literal16+0x4d7>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg fdfb <.literal16+0x4db>
+ .byte 127,0 // jg ffeb <.literal16+0x4db>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg fdff <.literal16+0x4df>
+ .byte 127,0 // jg ffef <.literal16+0x4df>
.byte 0,0 // add %al,(%eax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%eax)
@@ -78689,13 +79367,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg fe38 <.literal16+0x518>
+ .byte 127,255 // jg 10028 <.literal16+0x518>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg fe3c <.literal16+0x51c>
+ .byte 127,255 // jg 1002c <.literal16+0x51c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg fe41 <.literal16+0x521>
+ .byte 127,0 // jg 10031 <.literal16+0x521>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
.byte 56,0 // cmp %al,(%eax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
@@ -78709,13 +79387,13 @@ BALIGN16
.byte 0,255 // add %bh,%bh
.byte 255,0 // incl (%eax)
.byte 255 // (bad)
- .byte 127,71 // jg feab <.literal16+0x58b>
+ .byte 127,71 // jg 1009b <.literal16+0x58b>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg feaf <.literal16+0x58f>
+ .byte 127,71 // jg 1009f <.literal16+0x58f>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg feb3 <.literal16+0x593>
+ .byte 127,71 // jg 100a3 <.literal16+0x593>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg feb7 <.literal16+0x597>
+ .byte 127,71 // jg 100a7 <.literal16+0x597>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,208 // ds (bad)
@@ -78812,13 +79490,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%edi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb ff7e <.literal16+0x65e>
+ .byte 114,28 // jb 1016e <.literal16+0x65e>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt ff82 <.literal16+0x662>
+ .byte 62,114,28 // jb,pt 10172 <.literal16+0x662>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt ff86 <.literal16+0x666>
+ .byte 62,114,28 // jb,pt 10176 <.literal16+0x666>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt ff8a <.literal16+0x66a>
+ .byte 62,114,28 // jb,pt 1017a <.literal16+0x66a>
.byte 199 // (bad)
.byte 62,85 // ds push %ebp
.byte 85 // push %ebp
@@ -78839,13 +79517,13 @@ BALIGN16
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%esi)
.byte 99,61,57,142,99,61 // arpl %di,0x3d638e39
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%esi)
- .byte 127,63 // jg ffe3 <.literal16+0x6c3>
- .byte 114,249 // jb ff9f <.literal16+0x67f>
- .byte 127,63 // jg ffe7 <.literal16+0x6c7>
- .byte 114,249 // jb ffa3 <.literal16+0x683>
- .byte 127,63 // jg ffeb <.literal16+0x6cb>
- .byte 114,249 // jb ffa7 <.literal16+0x687>
- .byte 127,63 // jg ffef <.literal16+0x6cf>
+ .byte 127,63 // jg 101d3 <.literal16+0x6c3>
+ .byte 114,249 // jb 1018f <.literal16+0x67f>
+ .byte 127,63 // jg 101d7 <.literal16+0x6c7>
+ .byte 114,249 // jb 10193 <.literal16+0x683>
+ .byte 127,63 // jg 101db <.literal16+0x6cb>
+ .byte 114,249 // jb 10197 <.literal16+0x687>
+ .byte 127,63 // jg 101df <.literal16+0x6cf>
.byte 3,0 // add (%eax),%eax
.byte 0,0 // add %al,(%eax)
.byte 3,0 // add (%eax),%eax
@@ -78941,14 +79619,14 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne 10091 <.literal16+0x771>
- .byte 224,255 // loopne 10093 <.literal16+0x773>
- .byte 224,255 // loopne 10095 <.literal16+0x775>
- .byte 224,255 // loopne 10097 <.literal16+0x777>
- .byte 224,255 // loopne 10099 <.literal16+0x779>
- .byte 224,255 // loopne 1009b <.literal16+0x77b>
- .byte 224,255 // loopne 1009d <.literal16+0x77d>
- .byte 224,255 // loopne 1009f <.literal16+0x77f>
+ .byte 224,255 // loopne 10281 <.literal16+0x771>
+ .byte 224,255 // loopne 10283 <.literal16+0x773>
+ .byte 224,255 // loopne 10285 <.literal16+0x775>
+ .byte 224,255 // loopne 10287 <.literal16+0x777>
+ .byte 224,255 // loopne 10289 <.literal16+0x779>
+ .byte 224,255 // loopne 1028b <.literal16+0x77b>
+ .byte 224,255 // loopne 1028d <.literal16+0x77d>
+ .byte 224,255 // loopne 1028f <.literal16+0x77f>
.byte 15,0,15 // str (%edi)
.byte 0,15 // add %cl,(%edi)
.byte 0,15 // add %cl,(%edi)
@@ -79003,5 +79681,5 @@ BALIGN4
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 1015b <_sk_srcover_bgra_8888_sse2_lowp+0xb03>
+ .byte 127,67 // jg 1034b <_sk_srcover_bgra_8888_sse2_lowp+0xb07>
#endif