diff options
author | 2017-12-15 09:55:03 -0500 | |
---|---|---|
committer | 2017-12-18 18:48:42 +0000 | |
commit | 37155d476cd727329d985b75ecedbefe380a0f23 (patch) | |
tree | becffe9033cd48e0eaee3c8df335eaae7c850c21 /src/jumper/SkJumper_generated.S | |
parent | 5b92ce1b24186e0ac5a84878a4bcefd81581d2b9 (diff) |
Rework out-of-gamut handling in SkRasterPipeline
Instead of trying to carefully manage the in-gamut / out-of-gamut state
of the pipeline, let's do what a GPU would do, clamping to representable
range in any float -> integer conversion.
Most effects doing table lookups now clamp themselves internally, and
the store_foo() methods clamp when the destination is fixed point. In
turn the from_srgb() conversions and all future transfer function stages
can care less about this stuff.
If I'm thinking right, the _lowp side of things need not change at all,
and that will soften the performance impact of this change. Anything
that was fast to begin with was probably running a _lowp pipeline.
Bug: skia:7419
Change-Id: Id2e080ac240a97b900a1ac131c85d9e15f70af32
Reviewed-on: https://skia-review.googlesource.com/85740
Commit-Queue: Mike Klein <mtklein@chromium.org>
Reviewed-by: Brian Osman <brianosman@google.com>
Diffstat (limited to 'src/jumper/SkJumper_generated.S')
-rw-r--r-- | src/jumper/SkJumper_generated.S | 14754 |
1 files changed, 7716 insertions, 7038 deletions
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S index 3dba3bca4f..7005ce41f1 100644 --- a/src/jumper/SkJumper_generated.S +++ b/src/jumper/SkJumper_generated.S @@ -116,9 +116,9 @@ _sk_seed_shader_skx: .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 .byte 98,242,125,40,124,201 // vpbroadcastd %ecx,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 - .byte 98,241,116,56,88,13,254,150,3,0 // vaddps 0x396fe(%rip){1to8},%ymm1,%ymm1 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 98,241,116,56,88,13,18,161,3,0 // vaddps 0x3a112(%rip){1to8},%ymm1,%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,21,247,150,3,0 // vbroadcastss 0x396f7(%rip),%ymm2 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,21,11,161,3,0 // vbroadcastss 0x3a10b(%rip),%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3 .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4 .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5 @@ -132,16 +132,16 @@ FUNCTION(_sk_dither_skx) _sk_dither_skx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 98,114,125,40,124,194 // vpbroadcastd %edx,%ymm8 - .byte 197,61,254,5,109,152,3,0 // vpaddd 0x3986d(%rip),%ymm8,%ymm8 # 399a0 <_sk_srcover_bgra_8888_sse2_lowp+0x44c> + .byte 197,61,254,5,141,162,3,0 // vpaddd 0x3a28d(%rip),%ymm8,%ymm8 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x458> .byte 98,114,125,40,124,201 // vpbroadcastd %ecx,%ymm9 .byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9 - .byte 196,98,125,88,21,193,150,3,0 // vpbroadcastd 0x396c1(%rip),%ymm10 # 39808 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4> + .byte 196,98,125,88,21,213,160,3,0 // vpbroadcastd 0x3a0d5(%rip),%ymm10 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4> .byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11 .byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11 .byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10 .byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10 - .byte 196,98,125,88,37,166,150,3,0 // vpbroadcastd 0x396a6(%rip),%ymm12 # 3980c <_sk_srcover_bgra_8888_sse2_lowp+0x2b8> - .byte 196,98,125,88,45,161,150,3,0 // vpbroadcastd 0x396a1(%rip),%ymm13 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc> + .byte 196,98,125,88,37,186,160,3,0 // vpbroadcastd 0x3a0ba(%rip),%ymm12 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8> + .byte 196,98,125,88,45,181,160,3,0 // vpbroadcastd 0x3a0b5(%rip),%ymm13 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc> .byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14 .byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14 .byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11 @@ -156,8 +156,8 @@ _sk_dither_skx: .byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8 .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 196,98,125,24,13,83,150,3,0 // vbroadcastss 0x39653(%rip),%ymm9 # 39814 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0> - .byte 98,114,61,56,168,13,77,150,3,0 // vfmadd213ps 0x3964d(%rip){1to8},%ymm8,%ymm9 # 39818 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4> + .byte 196,98,125,24,13,103,160,3,0 // vbroadcastss 0x3a067(%rip),%ymm9 # 3a228 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0> + .byte 98,114,61,56,168,13,97,160,3,0 // vfmadd213ps 0x3a061(%rip){1to8},%ymm8,%ymm9 # 3a22c <_sk_srcover_bgra_8888_sse2_lowp+0x2c4> .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8 .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8 .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0 @@ -190,7 +190,7 @@ HIDDEN _sk_black_color_skx FUNCTION(_sk_black_color_skx) _sk_black_color_skx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,218,149,3,0 // vbroadcastss 0x395da(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,238,159,3,0 // vbroadcastss 0x39fee(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 @@ -201,7 +201,7 @@ HIDDEN _sk_white_color_skx FUNCTION(_sk_white_color_skx) _sk_white_color_skx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,5,193,149,3,0 // vbroadcastss 0x395c1(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,5,213,159,3,0 // vbroadcastss 0x39fd5(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 197,252,40,216 // vmovaps %ymm0,%ymm3 @@ -247,7 +247,7 @@ HIDDEN _sk_srcatop_skx FUNCTION(_sk_srcatop_skx) _sk_srcatop_skx: .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0 - .byte 196,98,125,24,5,96,149,3,0 // vbroadcastss 0x39560(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,116,159,3,0 // vbroadcastss 0x39f74(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0 .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1 @@ -263,7 +263,7 @@ HIDDEN _sk_dstatop_skx .globl _sk_dstatop_skx FUNCTION(_sk_dstatop_skx) _sk_dstatop_skx: - .byte 196,98,125,24,5,47,149,3,0 // vbroadcastss 0x3952f(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,67,159,3,0 // vbroadcastss 0x39f43(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0 @@ -302,7 +302,7 @@ HIDDEN _sk_srcout_skx .globl _sk_srcout_skx FUNCTION(_sk_srcout_skx) _sk_srcout_skx: - .byte 196,98,125,24,5,210,148,3,0 // vbroadcastss 0x394d2(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,230,158,3,0 // vbroadcastss 0x39ee6(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 @@ -315,7 +315,7 @@ HIDDEN _sk_dstout_skx .globl _sk_dstout_skx FUNCTION(_sk_dstout_skx) _sk_dstout_skx: - .byte 196,226,125,24,5,177,148,3,0 // vbroadcastss 0x394b1(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,5,197,158,3,0 // vbroadcastss 0x39ec5(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3 .byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0 .byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1 @@ -328,7 +328,7 @@ HIDDEN _sk_srcover_skx .globl _sk_srcover_skx FUNCTION(_sk_srcover_skx) _sk_srcover_skx: - .byte 196,98,125,24,5,144,148,3,0 // vbroadcastss 0x39490(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,164,158,3,0 // vbroadcastss 0x39ea4(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0 .byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1 @@ -341,7 +341,7 @@ HIDDEN _sk_dstover_skx .globl _sk_dstover_skx FUNCTION(_sk_dstover_skx) _sk_dstover_skx: - .byte 196,98,125,24,5,107,148,3,0 // vbroadcastss 0x3946b(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,127,158,3,0 // vbroadcastss 0x39e7f(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8 .byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0 .byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1 @@ -365,7 +365,7 @@ HIDDEN _sk_multiply_skx .globl _sk_multiply_skx FUNCTION(_sk_multiply_skx) _sk_multiply_skx: - .byte 196,98,125,24,5,50,148,3,0 // vbroadcastss 0x39432(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,70,158,3,0 // vbroadcastss 0x39e46(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 @@ -388,7 +388,7 @@ HIDDEN _sk_plus__skx FUNCTION(_sk_plus__skx) _sk_plus__skx: .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0 - .byte 196,98,125,24,5,225,147,3,0 // vbroadcastss 0x393e1(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,245,157,3,0 // vbroadcastss 0x39df5(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1 .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1 @@ -418,7 +418,7 @@ HIDDEN _sk_xor__skx .globl _sk_xor__skx FUNCTION(_sk_xor__skx) _sk_xor__skx: - .byte 196,98,125,24,5,140,147,3,0 // vbroadcastss 0x3938c(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,160,157,3,0 // vbroadcastss 0x39da0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 @@ -452,7 +452,7 @@ _sk_darken_skx: .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9 .byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 - .byte 196,98,125,24,5,16,147,3,0 // vbroadcastss 0x39310(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,36,157,3,0 // vbroadcastss 0x39d24(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax @@ -477,7 +477,7 @@ _sk_lighten_skx: .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9 .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 - .byte 196,98,125,24,5,187,146,3,0 // vbroadcastss 0x392bb(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,207,156,3,0 // vbroadcastss 0x39ccf(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax @@ -505,7 +505,7 @@ _sk_difference_skx: .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2 .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 - .byte 196,98,125,24,5,90,146,3,0 // vbroadcastss 0x3925a(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,110,156,3,0 // vbroadcastss 0x39c6e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax @@ -527,7 +527,7 @@ _sk_exclusion_skx: .byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2 .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 - .byte 196,98,125,24,5,20,146,3,0 // vbroadcastss 0x39214(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,40,156,3,0 // vbroadcastss 0x39c28(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax @@ -539,7 +539,7 @@ FUNCTION(_sk_colorburn_skx) _sk_colorburn_skx: .byte 98,241,92,40,194,199,0 // vcmpeqps %ymm7,%ymm4,%k0 .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8 - .byte 196,98,125,24,13,241,145,3,0 // vbroadcastss 0x391f1(%rip),%ymm9 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,13,5,156,3,0 // vbroadcastss 0x39c05(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10 .byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11 .byte 197,36,88,228 // vaddps %ymm4,%ymm11,%ymm12 @@ -603,7 +603,7 @@ _sk_colordodge_skx: .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 98,209,92,40,194,192,0 // vcmpeqps %ymm8,%ymm4,%k0 .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9 - .byte 196,98,125,24,21,194,144,3,0 // vbroadcastss 0x390c2(%rip),%ymm10 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,21,214,154,3,0 // vbroadcastss 0x39ad6(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,44,92,223 // vsubps %ymm7,%ymm10,%ymm11 .byte 197,36,89,224 // vmulps %ymm0,%ymm11,%ymm12 .byte 98,241,124,40,194,195,0 // vcmpeqps %ymm3,%ymm0,%k0 @@ -660,7 +660,7 @@ HIDDEN _sk_hardlight_skx .globl _sk_hardlight_skx FUNCTION(_sk_hardlight_skx) _sk_hardlight_skx: - .byte 196,98,125,24,5,186,143,3,0 // vbroadcastss 0x38fba(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,206,153,3,0 // vbroadcastss 0x399ce(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 @@ -714,7 +714,7 @@ HIDDEN _sk_overlay_skx .globl _sk_overlay_skx FUNCTION(_sk_overlay_skx) _sk_overlay_skx: - .byte 196,98,125,24,5,214,142,3,0 // vbroadcastss 0x38ed6(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,234,152,3,0 // vbroadcastss 0x398ea(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 @@ -780,15 +780,15 @@ _sk_softlight_skx: .byte 196,65,52,88,217 // vaddps %ymm9,%ymm9,%ymm11 .byte 196,65,36,88,235 // vaddps %ymm11,%ymm11,%ymm13 .byte 197,4,92,243 // vsubps %ymm3,%ymm15,%ymm14 - .byte 196,98,125,24,29,180,141,3,0 // vbroadcastss 0x38db4(%rip),%ymm11 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,29,200,151,3,0 // vbroadcastss 0x397c8(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,65,36,92,225 // vsubps %ymm9,%ymm11,%ymm12 .byte 196,98,13,168,227 // vfmadd213ps %ymm3,%ymm14,%ymm12 .byte 197,156,89,212 // vmulps %ymm4,%ymm12,%ymm2 .byte 196,66,21,168,237 // vfmadd213ps %ymm13,%ymm13,%ymm13 - .byte 98,226,125,40,24,21,175,141,3,0 // vbroadcastss 0x38daf(%rip),%ymm18 # 3981c <_sk_srcover_bgra_8888_sse2_lowp+0x2c8> + .byte 98,226,125,40,24,21,195,151,3,0 // vbroadcastss 0x397c3(%rip),%ymm18 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8> .byte 98,161,52,40,88,202 // vaddps %ymm18,%ymm9,%ymm17 .byte 98,81,116,32,89,229 // vmulps %ymm13,%ymm17,%ymm12 - .byte 98,226,125,40,24,29,157,141,3,0 // vbroadcastss 0x38d9d(%rip),%ymm19 # 39820 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc> + .byte 98,226,125,40,24,29,177,151,3,0 // vbroadcastss 0x397b1(%rip),%ymm19 # 3a234 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc> .byte 98,50,53,40,184,227 // vfmadd231ps %ymm19,%ymm9,%ymm12 .byte 98,194,125,40,78,201 // vrsqrt14ps %ymm9,%ymm17 .byte 98,162,125,40,76,201 // vrcp14ps %ymm17,%ymm17 @@ -910,11 +910,11 @@ _sk_hue_skx: .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11 .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11 .byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12 - .byte 196,98,125,24,45,56,139,3,0 // vbroadcastss 0x38b38(%rip),%ymm13 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> - .byte 196,98,125,24,53,51,139,3,0 // vbroadcastss 0x38b33(%rip),%ymm14 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> + .byte 196,98,125,24,45,76,149,3,0 // vbroadcastss 0x3954c(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> + .byte 196,98,125,24,53,71,149,3,0 // vbroadcastss 0x39547(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> .byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15 .byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15 - .byte 98,226,125,40,24,5,35,139,3,0 // vbroadcastss 0x38b23(%rip),%ymm16 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> + .byte 98,226,125,40,24,5,55,149,3,0 // vbroadcastss 0x39537(%rip),%ymm16 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> .byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15 .byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11 .byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11 @@ -971,7 +971,7 @@ _sk_hue_skx: .byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11 .byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9 .byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9 - .byte 196,226,125,24,13,191,137,3,0 // vbroadcastss 0x389bf(%rip),%ymm1 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,13,211,147,3,0 // vbroadcastss 0x393d3(%rip),%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10 .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0 .byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11 @@ -1023,11 +1023,11 @@ _sk_saturation_skx: .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11 .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11 .byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12 - .byte 196,98,125,24,45,244,136,3,0 // vbroadcastss 0x388f4(%rip),%ymm13 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> - .byte 196,98,125,24,53,239,136,3,0 // vbroadcastss 0x388ef(%rip),%ymm14 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> + .byte 196,98,125,24,45,8,147,3,0 // vbroadcastss 0x39308(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> + .byte 196,98,125,24,53,3,147,3,0 // vbroadcastss 0x39303(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> .byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15 .byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15 - .byte 98,226,125,40,24,5,223,136,3,0 // vbroadcastss 0x388df(%rip),%ymm16 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> + .byte 98,226,125,40,24,5,243,146,3,0 // vbroadcastss 0x392f3(%rip),%ymm16 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> .byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15 .byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11 .byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11 @@ -1084,7 +1084,7 @@ _sk_saturation_skx: .byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11 .byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9 .byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9 - .byte 196,226,125,24,13,123,135,3,0 // vbroadcastss 0x3877b(%rip),%ymm1 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,13,143,145,3,0 // vbroadcastss 0x3918f(%rip),%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10 .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0 .byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11 @@ -1108,11 +1108,11 @@ _sk_color_skx: .byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8 .byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9 .byte 197,108,89,223 // vmulps %ymm7,%ymm2,%ymm11 - .byte 196,98,125,24,37,68,135,3,0 // vbroadcastss 0x38744(%rip),%ymm12 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> - .byte 196,98,125,24,45,63,135,3,0 // vbroadcastss 0x3873f(%rip),%ymm13 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> + .byte 196,98,125,24,37,88,145,3,0 // vbroadcastss 0x39158(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> + .byte 196,98,125,24,45,83,145,3,0 // vbroadcastss 0x39153(%rip),%ymm13 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> .byte 196,65,84,89,245 // vmulps %ymm13,%ymm5,%ymm14 .byte 196,66,93,184,244 // vfmadd231ps %ymm12,%ymm4,%ymm14 - .byte 196,98,125,24,61,48,135,3,0 // vbroadcastss 0x38730(%rip),%ymm15 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> + .byte 196,98,125,24,61,68,145,3,0 // vbroadcastss 0x39144(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> .byte 196,66,77,184,247 // vfmadd231ps %ymm15,%ymm6,%ymm14 .byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10 .byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10 @@ -1170,7 +1170,7 @@ _sk_color_skx: .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11 .byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9 .byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9 - .byte 196,98,125,24,29,193,133,3,0 // vbroadcastss 0x385c1(%rip),%ymm11 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,29,213,143,3,0 // vbroadcastss 0x38fd5(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12 .byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0 .byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11 @@ -1194,11 +1194,11 @@ _sk_luminosity_skx: .byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8 .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9 .byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11 - .byte 196,98,125,24,37,140,133,3,0 // vbroadcastss 0x3858c(%rip),%ymm12 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> - .byte 196,98,125,24,45,135,133,3,0 // vbroadcastss 0x38587(%rip),%ymm13 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> + .byte 196,98,125,24,37,160,143,3,0 // vbroadcastss 0x38fa0(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> + .byte 196,98,125,24,45,155,143,3,0 // vbroadcastss 0x38f9b(%rip),%ymm13 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> .byte 196,65,116,89,245 // vmulps %ymm13,%ymm1,%ymm14 .byte 196,66,125,184,244 // vfmadd231ps %ymm12,%ymm0,%ymm14 - .byte 196,98,125,24,61,120,133,3,0 // vbroadcastss 0x38578(%rip),%ymm15 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> + .byte 196,98,125,24,61,140,143,3,0 // vbroadcastss 0x38f8c(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> .byte 196,66,109,184,247 // vfmadd231ps %ymm15,%ymm2,%ymm14 .byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10 .byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10 @@ -1256,7 +1256,7 @@ _sk_luminosity_skx: .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11 .byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9 .byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9 - .byte 196,98,125,24,29,9,132,3,0 // vbroadcastss 0x38409(%rip),%ymm11 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,29,29,142,3,0 // vbroadcastss 0x38e1d(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12 .byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0 .byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11 @@ -1285,7 +1285,7 @@ _sk_srcover_rgba_8888_skx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,190,0,0,0 // jne 1519 <_sk_srcover_rgba_8888_skx+0xde> + .byte 15,133,235,0,0,0 // jne 1546 <_sk_srcover_rgba_8888_skx+0x10b> .byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7 .byte 184,17,17,17,17 // mov $0x11111111,%eax .byte 197,251,146,200 // kmovd %eax,%k1 @@ -1296,32 +1296,41 @@ _sk_srcover_rgba_8888_skx: .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 .byte 197,205,114,215,16 // vpsrld $0x10,%ymm7,%ymm6 .byte 98,241,127,169,111,246 // vmovdqu8 %ymm6,%ymm6{%k1}{z} + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6 .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7 .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7 - .byte 196,98,125,24,5,96,131,3,0 // vbroadcastss 0x38360(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> - .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 - .byte 196,98,125,24,13,127,131,3,0 // vbroadcastss 0x3837f(%rip),%ymm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 - .byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0 - .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1 - .byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1 - .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2 - .byte 196,194,77,184,208 // vfmadd231ps %ymm8,%ymm6,%ymm2 - .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3 - .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 - .byte 197,125,91,192 // vcvtps2dq %ymm0,%ymm8 - .byte 197,125,91,201 // vcvtps2dq %ymm1,%ymm9 - .byte 196,193,53,114,241,8 // vpslld $0x8,%ymm9,%ymm9 + .byte 196,98,125,24,13,111,141,3,0 // vbroadcastss 0x38d6f(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9 + .byte 196,98,125,24,21,142,141,3,0 // vbroadcastss 0x38d8e(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0 + .byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0 + .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1 + .byte 196,194,85,184,201 // vfmadd231ps %ymm9,%ymm5,%ymm1 + .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2 + .byte 196,194,77,184,209 // vfmadd231ps %ymm9,%ymm6,%ymm2 + .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3 + .byte 196,194,69,184,217 // vfmadd231ps %ymm9,%ymm7,%ymm3 + .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9 + .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9 + .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 + .byte 197,60,95,217 // vmaxps %ymm1,%ymm8,%ymm11 + .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11 + .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 + .byte 196,193,37,114,243,8 // vpslld $0x8,%ymm11,%ymm11 + .byte 196,65,37,235,201 // vpor %ymm9,%ymm11,%ymm9 + .byte 197,60,95,218 // vmaxps %ymm2,%ymm8,%ymm11 + .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11 + .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 + .byte 196,193,37,114,243,16 // vpslld $0x10,%ymm11,%ymm11 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8 + .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 + .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8 + .byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 - .byte 197,125,91,202 // vcvtps2dq %ymm2,%ymm9 - .byte 196,193,53,114,241,16 // vpslld $0x10,%ymm9,%ymm9 - .byte 197,125,91,211 // vcvtps2dq %ymm3,%ymm10 - .byte 196,193,45,114,242,24 // vpslld $0x18,%ymm10,%ymm10 - .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9 - .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,66 // jne 1551 <_sk_srcover_rgba_8888_skx+0x116> + .byte 117,66 // jne 157e <_sk_srcover_rgba_8888_skx+0x143> .byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -1330,26 +1339,26 @@ _sk_srcover_rgba_8888_skx: .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7 .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,47,255,255,255 // ja 1461 <_sk_srcover_rgba_8888_skx+0x26> + .byte 15,135,2,255,255,255 // ja 1461 <_sk_srcover_rgba_8888_skx+0x26> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,3,1,0,0 // lea 0x103(%rip),%r10 # 1640 <_sk_srcover_rgba_8888_skx+0x205> + .byte 76,141,21,6,1,0,0 // lea 0x106(%rip),%r10 # 1670 <_sk_srcover_rgba_8888_skx+0x235> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7 - .byte 233,16,255,255,255 // jmpq 1461 <_sk_srcover_rgba_8888_skx+0x26> + .byte 233,227,254,255,255 // jmpq 1461 <_sk_srcover_rgba_8888_skx+0x26> .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,7 // and $0x7,%r9b .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,179 // ja 1515 <_sk_srcover_rgba_8888_skx+0xda> + .byte 119,179 // ja 1542 <_sk_srcover_rgba_8888_skx+0x107> .byte 65,15,182,193 // movzbl %r9b,%eax - .byte 76,141,13,239,0,0,0 // lea 0xef(%rip),%r9 # 165c <_sk_srcover_rgba_8888_skx+0x221> + .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 168c <_sk_srcover_rgba_8888_skx+0x251> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4) - .byte 235,151 // jmp 1515 <_sk_srcover_rgba_8888_skx+0xda> + .byte 235,151 // jmp 1542 <_sk_srcover_rgba_8888_skx+0x107> .byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4 .byte 176,4 // mov $0x4,%al .byte 197,251,146,200 // kmovd %eax,%k1 @@ -1357,7 +1366,7 @@ _sk_srcover_rgba_8888_skx: .byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4 .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4 .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7 - .byte 233,186,254,255,255 // jmpq 1461 <_sk_srcover_rgba_8888_skx+0x26> + .byte 233,141,254,255,255 // jmpq 1461 <_sk_srcover_rgba_8888_skx+0x26> .byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4 .byte 176,64 // mov $0x40,%al .byte 197,251,146,200 // kmovd %eax,%k1 @@ -1370,11 +1379,11 @@ _sk_srcover_rgba_8888_skx: .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7 .byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4 .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7 - .byte 233,110,254,255,255 // jmpq 1461 <_sk_srcover_rgba_8888_skx+0x26> + .byte 233,65,254,255,255 // jmpq 1461 <_sk_srcover_rgba_8888_skx+0x26> .byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4) .byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8 .byte 98,18,126,8,53,4,152 // vpmovqd %xmm8,(%r8,%r11,4) - .byte 233,9,255,255,255 // jmpq 1515 <_sk_srcover_rgba_8888_skx+0xda> + .byte 233,9,255,255,255 // jmpq 1542 <_sk_srcover_rgba_8888_skx+0x107> .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4) .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 @@ -1382,37 +1391,34 @@ _sk_srcover_rgba_8888_skx: .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4) .byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4) - .byte 233,213,254,255,255 // jmpq 1515 <_sk_srcover_rgba_8888_skx+0xda> - .byte 6 // (bad) - .byte 255 // (bad) - .byte 255 // (bad) - .byte 255,81,255 // callq *-0x1(%rcx) - .byte 255 // (bad) - .byte 255 // (bad) - .byte 62,255 // ds (bad) + .byte 233,213,254,255,255 // jmpq 1542 <_sk_srcover_rgba_8888_skx+0x107> + .byte 15,31,0 // nopl (%rax) + .byte 3,255 // add %edi,%edi .byte 255 // (bad) - .byte 255,162,255,255,255,142 // jmpq *-0x71000001(%rdx) + .byte 255,78,255 // decl -0x1(%rsi) .byte 255 // (bad) .byte 255 // (bad) + .byte 59,255 // cmp %edi,%edi .byte 255 // (bad) - .byte 122,255 // jp 1655 <_sk_srcover_rgba_8888_skx+0x21a> + .byte 255,159,255,255,255,139 // lcall *-0x74000001(%rdi) .byte 255 // (bad) - .byte 255,103,255 // jmpq *-0x1(%rdi) .byte 255 // (bad) - .byte 255,26 // lcall *(%rdx) + .byte 255,119,255 // pushq -0x1(%rdi) .byte 255 // (bad) + .byte 255,100,255,255 // jmpq *-0x1(%rdi,%rdi,8) + .byte 255,23 // callq *(%rdi) .byte 255 // (bad) - .byte 255,159,255,255,255,151 // lcall *-0x68000001(%rdi) .byte 255 // (bad) + .byte 255,156,255,255,255,148,255 // lcall *-0x6b0001(%rdi,%rdi,8) .byte 255 // (bad) + .byte 255,214 // callq *%rsi .byte 255 // (bad) - .byte 217,255 // fcos .byte 255 // (bad) - .byte 255,204 // dec %esp + .byte 255,201 // dec %ecx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 190,255,255,255,176 // mov $0xb0ffffff,%esi + .byte 187,255,255,255,173 // mov $0xadffffff,%ebx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -1429,7 +1435,7 @@ _sk_srcover_bgra_8888_skx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,190,0,0,0 // jne 1756 <_sk_srcover_bgra_8888_skx+0xde> + .byte 15,133,235,0,0,0 // jne 17b3 <_sk_srcover_bgra_8888_skx+0x10b> .byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7 .byte 184,17,17,17,17 // mov $0x11111111,%eax .byte 197,251,146,200 // kmovd %eax,%k1 @@ -1440,32 +1446,41 @@ _sk_srcover_bgra_8888_skx: .byte 197,252,91,236 // vcvtdq2ps %ymm4,%ymm5 .byte 197,221,114,215,16 // vpsrld $0x10,%ymm7,%ymm4 .byte 98,241,127,169,111,228 // vmovdqu8 %ymm4,%ymm4{%k1}{z} + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7 .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7 - .byte 196,98,125,24,5,35,129,3,0 // vbroadcastss 0x38123(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> - .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 - .byte 196,98,125,24,13,66,129,3,0 // vbroadcastss 0x38142(%rip),%ymm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 - .byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0 - .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1 - .byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1 - .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2 - .byte 196,194,77,184,208 // vfmadd231ps %ymm8,%ymm6,%ymm2 - .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3 - .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 - .byte 197,125,91,194 // vcvtps2dq %ymm2,%ymm8 - .byte 197,125,91,201 // vcvtps2dq %ymm1,%ymm9 - .byte 196,193,53,114,241,8 // vpslld $0x8,%ymm9,%ymm9 + .byte 196,98,125,24,13,2,139,3,0 // vbroadcastss 0x38b02(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9 + .byte 196,98,125,24,21,33,139,3,0 // vbroadcastss 0x38b21(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0 + .byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0 + .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1 + .byte 196,194,85,184,201 // vfmadd231ps %ymm9,%ymm5,%ymm1 + .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2 + .byte 196,194,77,184,209 // vfmadd231ps %ymm9,%ymm6,%ymm2 + .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3 + .byte 196,194,69,184,217 // vfmadd231ps %ymm9,%ymm7,%ymm3 + .byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9 + .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9 + .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 + .byte 197,60,95,217 // vmaxps %ymm1,%ymm8,%ymm11 + .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11 + .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 + .byte 196,193,37,114,243,8 // vpslld $0x8,%ymm11,%ymm11 + .byte 196,65,37,235,201 // vpor %ymm9,%ymm11,%ymm9 + .byte 197,60,95,216 // vmaxps %ymm0,%ymm8,%ymm11 + .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11 + .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 + .byte 196,193,37,114,243,16 // vpslld $0x10,%ymm11,%ymm11 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8 + .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 + .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8 + .byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 - .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9 - .byte 196,193,53,114,241,16 // vpslld $0x10,%ymm9,%ymm9 - .byte 197,125,91,211 // vcvtps2dq %ymm3,%ymm10 - .byte 196,193,45,114,242,24 // vpslld $0x18,%ymm10,%ymm10 - .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9 - .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,66 // jne 178e <_sk_srcover_bgra_8888_skx+0x116> + .byte 117,66 // jne 17eb <_sk_srcover_bgra_8888_skx+0x143> .byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -1474,26 +1489,26 @@ _sk_srcover_bgra_8888_skx: .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7 .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,47,255,255,255 // ja 169e <_sk_srcover_bgra_8888_skx+0x26> + .byte 15,135,2,255,255,255 // ja 16ce <_sk_srcover_bgra_8888_skx+0x26> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,6,1,0,0 // lea 0x106(%rip),%r10 # 1880 <_sk_srcover_bgra_8888_skx+0x208> + .byte 76,141,21,5,1,0,0 // lea 0x105(%rip),%r10 # 18dc <_sk_srcover_bgra_8888_skx+0x234> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7 - .byte 233,16,255,255,255 // jmpq 169e <_sk_srcover_bgra_8888_skx+0x26> + .byte 233,227,254,255,255 // jmpq 16ce <_sk_srcover_bgra_8888_skx+0x26> .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,7 // and $0x7,%r9b .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,179 // ja 1752 <_sk_srcover_bgra_8888_skx+0xda> + .byte 119,179 // ja 17af <_sk_srcover_bgra_8888_skx+0x107> .byte 65,15,182,193 // movzbl %r9b,%eax - .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 189c <_sk_srcover_bgra_8888_skx+0x224> + .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 18f8 <_sk_srcover_bgra_8888_skx+0x250> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4) - .byte 235,151 // jmp 1752 <_sk_srcover_bgra_8888_skx+0xda> + .byte 235,151 // jmp 17af <_sk_srcover_bgra_8888_skx+0x107> .byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4 .byte 176,4 // mov $0x4,%al .byte 197,251,146,200 // kmovd %eax,%k1 @@ -1501,7 +1516,7 @@ _sk_srcover_bgra_8888_skx: .byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4 .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4 .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7 - .byte 233,186,254,255,255 // jmpq 169e <_sk_srcover_bgra_8888_skx+0x26> + .byte 233,141,254,255,255 // jmpq 16ce <_sk_srcover_bgra_8888_skx+0x26> .byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4 .byte 176,64 // mov $0x40,%al .byte 197,251,146,200 // kmovd %eax,%k1 @@ -1514,11 +1529,11 @@ _sk_srcover_bgra_8888_skx: .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7 .byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4 .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7 - .byte 233,110,254,255,255 // jmpq 169e <_sk_srcover_bgra_8888_skx+0x26> + .byte 233,65,254,255,255 // jmpq 16ce <_sk_srcover_bgra_8888_skx+0x26> .byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4) .byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8 .byte 98,18,126,8,53,4,152 // vpmovqd %xmm8,(%r8,%r11,4) - .byte 233,9,255,255,255 // jmpq 1752 <_sk_srcover_bgra_8888_skx+0xda> + .byte 233,9,255,255,255 // jmpq 17af <_sk_srcover_bgra_8888_skx+0x107> .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4) .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 @@ -1526,34 +1541,37 @@ _sk_srcover_bgra_8888_skx: .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4) .byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4) - .byte 233,213,254,255,255 // jmpq 1752 <_sk_srcover_bgra_8888_skx+0xda> - .byte 15,31,0 // nopl (%rax) - .byte 3,255 // add %edi,%edi + .byte 233,213,254,255,255 // jmpq 17af <_sk_srcover_bgra_8888_skx+0x107> + .byte 102,144 // xchg %ax,%ax + .byte 4,255 // add $0xff,%al .byte 255 // (bad) - .byte 255,78,255 // decl -0x1(%rsi) + .byte 255,79,255 // decl -0x1(%rdi) .byte 255 // (bad) .byte 255 // (bad) - .byte 59,255 // cmp %edi,%edi + .byte 60,255 // cmp $0xff,%al .byte 255 // (bad) - .byte 255,159,255,255,255,139 // lcall *-0x74000001(%rdi) + .byte 255,160,255,255,255,140 // jmpq *-0x73000001(%rax) .byte 255 // (bad) .byte 255 // (bad) - .byte 255,119,255 // pushq -0x1(%rdi) .byte 255 // (bad) - .byte 255,100,255,255 // jmpq *-0x1(%rdi,%rdi,8) - .byte 255,23 // callq *(%rdi) + .byte 120,255 // js 18f1 <_sk_srcover_bgra_8888_skx+0x249> .byte 255 // (bad) + .byte 255,101,255 // jmpq *-0x1(%rbp) .byte 255 // (bad) - .byte 255,156,255,255,255,148,255 // lcall *-0x6b0001(%rdi,%rdi,8) + .byte 255,24 // lcall *(%rax) .byte 255 // (bad) - .byte 255,214 // callq *%rsi .byte 255 // (bad) + .byte 255,157,255,255,255,149 // lcall *-0x6a000001(%rbp) .byte 255 // (bad) - .byte 255,201 // dec %ecx + .byte 255 // (bad) + .byte 255,215 // callq *%rdi .byte 255 // (bad) .byte 255 // (bad) + .byte 255,202 // dec %edx .byte 255 // (bad) - .byte 187,255,255,255,173 // mov $0xadffffff,%ebx + .byte 255 // (bad) + .byte 255 // (bad) + .byte 188,255,255,255,174 // mov $0xaeffffff,%esp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -1574,7 +1592,7 @@ HIDDEN _sk_clamp_1_skx .globl _sk_clamp_1_skx FUNCTION(_sk_clamp_1_skx) _sk_clamp_1_skx: - .byte 196,98,125,24,5,38,127,3,0 // vbroadcastss 0x37f26(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,222,136,3,0 // vbroadcastss 0x388de(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1 .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2 @@ -1586,7 +1604,7 @@ HIDDEN _sk_clamp_a_skx .globl _sk_clamp_a_skx FUNCTION(_sk_clamp_a_skx) _sk_clamp_a_skx: - .byte 98,241,100,56,93,29,4,127,3,0 // vminps 0x37f04(%rip){1to8},%ymm3,%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 98,241,100,56,93,29,188,136,3,0 // vminps 0x388bc(%rip){1to8},%ymm3,%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0 .byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1 .byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2 @@ -1597,7 +1615,7 @@ HIDDEN _sk_clamp_a_dst_skx .globl _sk_clamp_a_dst_skx FUNCTION(_sk_clamp_a_dst_skx) _sk_clamp_a_dst_skx: - .byte 98,241,68,56,93,61,234,126,3,0 // vminps 0x37eea(%rip){1to8},%ymm7,%ymm7 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 98,241,68,56,93,61,162,136,3,0 // vminps 0x388a2(%rip){1to8},%ymm7,%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4 .byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5 .byte 197,204,93,247 // vminps %ymm7,%ymm6,%ymm6 @@ -1629,7 +1647,7 @@ HIDDEN _sk_invert_skx .globl _sk_invert_skx FUNCTION(_sk_invert_skx) _sk_invert_skx: - .byte 196,98,125,24,5,170,126,3,0 // vbroadcastss 0x37eaa(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,98,136,3,0 // vbroadcastss 0x38862(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0 .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 @@ -1683,9 +1701,9 @@ HIDDEN _sk_unpremul_skx .globl _sk_unpremul_skx FUNCTION(_sk_unpremul_skx) _sk_unpremul_skx: - .byte 196,98,125,24,5,69,126,3,0 // vbroadcastss 0x37e45(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,253,135,3,0 // vbroadcastss 0x387fd(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8 - .byte 98,241,60,56,194,5,102,126,3,0,1 // vcmpltps 0x37e66(%rip){1to8},%ymm8,%k0 # 39834 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0> + .byte 98,241,60,56,194,5,30,136,3,0,1 // vcmpltps 0x3881e(%rip){1to8},%ymm8,%k0 # 3a248 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0> .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9 .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10 .byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8 @@ -1699,16 +1717,16 @@ HIDDEN _sk_from_srgb_skx .globl _sk_from_srgb_skx FUNCTION(_sk_from_srgb_skx) _sk_from_srgb_skx: - .byte 196,98,125,24,5,64,126,3,0 // vbroadcastss 0x37e40(%rip),%ymm8 # 39838 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4> + .byte 196,98,125,24,5,248,135,3,0 // vbroadcastss 0x387f8(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4> .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 .byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10 - .byte 196,98,125,24,29,50,126,3,0 // vbroadcastss 0x37e32(%rip),%ymm11 # 3983c <_sk_srcover_bgra_8888_sse2_lowp+0x2e8> - .byte 196,98,125,24,37,17,126,3,0 // vbroadcastss 0x37e11(%rip),%ymm12 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> + .byte 196,98,125,24,29,234,135,3,0 // vbroadcastss 0x387ea(%rip),%ymm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8> + .byte 196,98,125,24,37,201,135,3,0 // vbroadcastss 0x387c9(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> .byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13 .byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13 - .byte 196,98,125,24,53,26,126,3,0 // vbroadcastss 0x37e1a(%rip),%ymm14 # 39840 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec> + .byte 196,98,125,24,53,210,135,3,0 // vbroadcastss 0x387d2(%rip),%ymm14 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec> .byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13 - .byte 196,98,125,24,21,16,126,3,0 // vbroadcastss 0x37e10(%rip),%ymm10 # 39844 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0> + .byte 196,98,125,24,21,200,135,3,0 // vbroadcastss 0x387c8(%rip),%ymm10 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0> .byte 98,209,124,40,194,194,1 // vcmpltps %ymm10,%ymm0,%k0 .byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0 .byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0 @@ -1734,16 +1752,16 @@ HIDDEN _sk_from_srgb_dst_skx .globl _sk_from_srgb_dst_skx FUNCTION(_sk_from_srgb_dst_skx) _sk_from_srgb_dst_skx: - .byte 196,98,125,24,5,147,125,3,0 // vbroadcastss 0x37d93(%rip),%ymm8 # 39838 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4> + .byte 196,98,125,24,5,75,135,3,0 // vbroadcastss 0x3874b(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4> .byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9 .byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10 - .byte 196,98,125,24,29,133,125,3,0 // vbroadcastss 0x37d85(%rip),%ymm11 # 3983c <_sk_srcover_bgra_8888_sse2_lowp+0x2e8> - .byte 196,98,125,24,37,100,125,3,0 // vbroadcastss 0x37d64(%rip),%ymm12 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> + .byte 196,98,125,24,29,61,135,3,0 // vbroadcastss 0x3873d(%rip),%ymm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8> + .byte 196,98,125,24,37,28,135,3,0 // vbroadcastss 0x3871c(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> .byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13 .byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13 - .byte 196,98,125,24,53,109,125,3,0 // vbroadcastss 0x37d6d(%rip),%ymm14 # 39840 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec> + .byte 196,98,125,24,53,37,135,3,0 // vbroadcastss 0x38725(%rip),%ymm14 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec> .byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13 - .byte 196,98,125,24,21,99,125,3,0 // vbroadcastss 0x37d63(%rip),%ymm10 # 39844 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0> + .byte 196,98,125,24,21,27,135,3,0 // vbroadcastss 0x3871b(%rip),%ymm10 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0> .byte 98,209,92,40,194,194,1 // vcmpltps %ymm10,%ymm4,%k0 .byte 98,242,126,40,56,224 // vpmovm2d %k0,%ymm4 .byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4 @@ -1770,19 +1788,19 @@ HIDDEN _sk_to_srgb_skx FUNCTION(_sk_to_srgb_skx) _sk_to_srgb_skx: .byte 98,114,125,40,78,192 // vrsqrt14ps %ymm0,%ymm8 - .byte 196,98,125,24,13,240,124,3,0 // vbroadcastss 0x37cf0(%rip),%ymm9 # 39848 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4> + .byte 196,98,125,24,13,168,134,3,0 // vbroadcastss 0x386a8(%rip),%ymm9 # 3a25c <_sk_srcover_bgra_8888_sse2_lowp+0x2f4> .byte 196,65,124,89,209 // vmulps %ymm9,%ymm0,%ymm10 - .byte 196,98,125,24,29,230,124,3,0 // vbroadcastss 0x37ce6(%rip),%ymm11 # 3984c <_sk_srcover_bgra_8888_sse2_lowp+0x2f8> - .byte 196,98,125,24,37,225,124,3,0 // vbroadcastss 0x37ce1(%rip),%ymm12 # 39850 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc> + .byte 196,98,125,24,29,158,134,3,0 // vbroadcastss 0x3869e(%rip),%ymm11 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8> + .byte 196,98,125,24,37,153,134,3,0 // vbroadcastss 0x38699(%rip),%ymm12 # 3a264 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc> .byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13 .byte 196,66,61,168,235 // vfmadd213ps %ymm11,%ymm8,%ymm13 - .byte 196,98,125,24,53,210,124,3,0 // vbroadcastss 0x37cd2(%rip),%ymm14 # 39854 <_sk_srcover_bgra_8888_sse2_lowp+0x300> + .byte 196,98,125,24,53,138,134,3,0 // vbroadcastss 0x3868a(%rip),%ymm14 # 3a268 <_sk_srcover_bgra_8888_sse2_lowp+0x300> .byte 196,66,61,168,238 // vfmadd213ps %ymm14,%ymm8,%ymm13 - .byte 196,98,125,24,61,200,124,3,0 // vbroadcastss 0x37cc8(%rip),%ymm15 # 39858 <_sk_srcover_bgra_8888_sse2_lowp+0x304> + .byte 196,98,125,24,61,128,134,3,0 // vbroadcastss 0x38680(%rip),%ymm15 # 3a26c <_sk_srcover_bgra_8888_sse2_lowp+0x304> .byte 196,65,60,88,199 // vaddps %ymm15,%ymm8,%ymm8 .byte 98,82,125,40,76,192 // vrcp14ps %ymm8,%ymm8 .byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8 - .byte 196,98,125,24,45,179,124,3,0 // vbroadcastss 0x37cb3(%rip),%ymm13 # 3985c <_sk_srcover_bgra_8888_sse2_lowp+0x308> + .byte 196,98,125,24,45,107,134,3,0 // vbroadcastss 0x3866b(%rip),%ymm13 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x308> .byte 98,209,124,40,194,197,1 // vcmpltps %ymm13,%ymm0,%k0 .byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0 .byte 196,195,61,74,194,0 // vblendvps %ymm0,%ymm10,%ymm8,%ymm0 @@ -1820,7 +1838,7 @@ _sk_rgb_to_hsl_skx: .byte 197,116,93,194 // vminps %ymm2,%ymm1,%ymm8 .byte 196,65,124,93,208 // vminps %ymm8,%ymm0,%ymm10 .byte 98,193,52,40,92,194 // vsubps %ymm10,%ymm9,%ymm16 - .byte 196,98,125,24,5,164,123,3,0 // vbroadcastss 0x37ba4(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,92,133,3,0 // vbroadcastss 0x3855c(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 98,49,60,40,94,224 // vdivps %ymm16,%ymm8,%ymm12 .byte 98,209,52,40,194,194,0 // vcmpeqps %ymm10,%ymm9,%k0 .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8 @@ -1829,23 +1847,23 @@ _sk_rgb_to_hsl_skx: .byte 197,116,92,242 // vsubps %ymm2,%ymm1,%ymm14 .byte 98,241,116,40,194,194,1 // vcmpltps %ymm2,%ymm1,%k0 .byte 98,114,126,40,56,248 // vpmovm2d %k0,%ymm15 - .byte 196,98,125,24,29,198,123,3,0 // vbroadcastss 0x37bc6(%rip),%ymm11 # 39860 <_sk_srcover_bgra_8888_sse2_lowp+0x30c> + .byte 196,98,125,24,29,126,133,3,0 // vbroadcastss 0x3857e(%rip),%ymm11 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c> .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7 .byte 196,67,69,74,219,240 // vblendvps %ymm15,%ymm11,%ymm7,%ymm11 .byte 196,66,29,168,243 // vfmadd213ps %ymm11,%ymm12,%ymm14 .byte 98,241,52,40,194,193,0 // vcmpeqps %ymm1,%ymm9,%k0 .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11 .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2 - .byte 196,98,125,24,61,161,123,3,0 // vbroadcastss 0x37ba1(%rip),%ymm15 # 39864 <_sk_srcover_bgra_8888_sse2_lowp+0x310> + .byte 196,98,125,24,61,89,133,3,0 // vbroadcastss 0x38559(%rip),%ymm15 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310> .byte 196,194,29,168,215 // vfmadd213ps %ymm15,%ymm12,%ymm2 .byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0 - .byte 98,242,29,56,168,5,146,123,3,0 // vfmadd213ps 0x37b92(%rip){1to8},%ymm12,%ymm0 # 39868 <_sk_srcover_bgra_8888_sse2_lowp+0x314> + .byte 98,242,29,56,168,5,74,133,3,0 // vfmadd213ps 0x3854a(%rip){1to8},%ymm12,%ymm0 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314> .byte 196,227,125,74,194,176 // vblendvps %ymm11,%ymm2,%ymm0,%ymm0 .byte 196,195,125,74,198,208 // vblendvps %ymm13,%ymm14,%ymm0,%ymm0 .byte 196,227,125,74,199,128 // vblendvps %ymm8,%ymm7,%ymm0,%ymm0 - .byte 98,241,124,56,89,5,122,123,3,0 // vmulps 0x37b7a(%rip){1to8},%ymm0,%ymm0 # 3986c <_sk_srcover_bgra_8888_sse2_lowp+0x318> + .byte 98,241,124,56,89,5,50,133,3,0 // vmulps 0x38532(%rip){1to8},%ymm0,%ymm0 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318> .byte 196,193,52,88,202 // vaddps %ymm10,%ymm9,%ymm1 - .byte 196,98,125,24,29,0,123,3,0 // vbroadcastss 0x37b00(%rip),%ymm11 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,29,184,132,3,0 // vbroadcastss 0x384b8(%rip),%ymm11 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2 .byte 98,241,36,40,194,194,1 // vcmpltps %ymm2,%ymm11,%k0 .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11 @@ -1864,7 +1882,7 @@ FUNCTION(_sk_hsl_to_rgb_skx) _sk_hsl_to_rgb_skx: .byte 98,225,124,40,40,215 // vmovaps %ymm7,%ymm18 .byte 98,225,124,40,40,230 // vmovaps %ymm6,%ymm20 - .byte 98,226,125,40,24,5,178,122,3,0 // vbroadcastss 0x37ab2(%rip),%ymm16 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 98,226,125,40,24,5,106,132,3,0 // vbroadcastss 0x3846a(%rip),%ymm16 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 98,241,124,32,194,194,2 // vcmpleps %ymm2,%ymm16,%k0 .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8 .byte 197,116,89,202 // vmulps %ymm2,%ymm1,%ymm9 @@ -1872,27 +1890,27 @@ _sk_hsl_to_rgb_skx: .byte 196,67,53,74,194,128 // vblendvps %ymm8,%ymm10,%ymm9,%ymm8 .byte 197,60,88,218 // vaddps %ymm2,%ymm8,%ymm11 .byte 196,65,124,40,203 // vmovaps %ymm11,%ymm9 - .byte 98,114,109,56,186,13,231,122,3,0 // vfmsub231ps 0x37ae7(%rip){1to8},%ymm2,%ymm9 # 39864 <_sk_srcover_bgra_8888_sse2_lowp+0x310> + .byte 98,114,109,56,186,13,159,132,3,0 // vfmsub231ps 0x3849f(%rip){1to8},%ymm2,%ymm9 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310> .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 98,209,116,40,194,192,0 // vcmpeqps %ymm8,%ymm1,%k0 .byte 98,242,126,40,56,248 // vpmovm2d %k0,%ymm7 - .byte 98,241,124,56,88,13,215,122,3,0 // vaddps 0x37ad7(%rip){1to8},%ymm0,%ymm1 # 39870 <_sk_srcover_bgra_8888_sse2_lowp+0x31c> + .byte 98,241,124,56,88,13,143,132,3,0 // vaddps 0x3848f(%rip){1to8},%ymm0,%ymm1 # 3a284 <_sk_srcover_bgra_8888_sse2_lowp+0x31c> .byte 196,99,125,8,193,1 // vroundps $0x1,%ymm1,%ymm8 .byte 196,193,116,92,200 // vsubps %ymm8,%ymm1,%ymm1 - .byte 98,226,125,40,24,29,198,122,3,0 // vbroadcastss 0x37ac6(%rip),%ymm19 # 39874 <_sk_srcover_bgra_8888_sse2_lowp+0x320> + .byte 98,226,125,40,24,29,126,132,3,0 // vbroadcastss 0x3847e(%rip),%ymm19 # 3a288 <_sk_srcover_bgra_8888_sse2_lowp+0x320> .byte 98,241,100,32,194,193,2 // vcmpleps %ymm1,%ymm19,%k0 .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8 .byte 196,65,36,92,241 // vsubps %ymm9,%ymm11,%ymm14 - .byte 196,98,125,24,61,151,122,3,0 // vbroadcastss 0x37a97(%rip),%ymm15 # 39860 <_sk_srcover_bgra_8888_sse2_lowp+0x30c> + .byte 196,98,125,24,61,79,132,3,0 // vbroadcastss 0x3844f(%rip),%ymm15 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c> .byte 196,65,116,89,231 // vmulps %ymm15,%ymm1,%ymm12 - .byte 98,226,125,40,24,13,144,122,3,0 // vbroadcastss 0x37a90(%rip),%ymm17 # 39868 <_sk_srcover_bgra_8888_sse2_lowp+0x314> + .byte 98,226,125,40,24,13,72,132,3,0 // vbroadcastss 0x38448(%rip),%ymm17 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314> .byte 98,81,116,32,92,212 // vsubps %ymm12,%ymm17,%ymm10 .byte 196,66,13,168,209 // vfmadd213ps %ymm9,%ymm14,%ymm10 .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8 .byte 98,241,124,32,194,193,2 // vcmpleps %ymm1,%ymm16,%k0 .byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10 .byte 196,67,37,74,192,160 // vblendvps %ymm10,%ymm8,%ymm11,%ymm8 - .byte 196,98,125,24,21,103,122,3,0 // vbroadcastss 0x37a67(%rip),%ymm10 # 3986c <_sk_srcover_bgra_8888_sse2_lowp+0x318> + .byte 196,98,125,24,21,31,132,3,0 // vbroadcastss 0x3841f(%rip),%ymm10 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318> .byte 98,241,44,40,194,193,2 // vcmpleps %ymm1,%ymm10,%k0 .byte 98,242,126,40,56,200 // vpmovm2d %k0,%ymm1 .byte 196,66,13,168,225 // vfmadd213ps %ymm9,%ymm14,%ymm12 @@ -1914,7 +1932,7 @@ _sk_hsl_to_rgb_skx: .byte 196,66,13,168,233 // vfmadd213ps %ymm9,%ymm14,%ymm13 .byte 196,195,21,74,200,16 // vblendvps %ymm1,%ymm8,%ymm13,%ymm1 .byte 196,227,117,74,202,112 // vblendvps %ymm7,%ymm2,%ymm1,%ymm1 - .byte 98,241,124,56,88,5,237,121,3,0 // vaddps 0x379ed(%rip){1to8},%ymm0,%ymm0 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324> + .byte 98,241,124,56,88,5,165,131,3,0 // vaddps 0x383a5(%rip){1to8},%ymm0,%ymm0 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324> .byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8 .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0 .byte 98,241,100,32,194,192,2 // vcmpleps %ymm0,%ymm19,%k0 @@ -1961,12 +1979,12 @@ _sk_scale_u8_skx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,54 // jne 1f67 <_sk_scale_u8_skx+0x4e> + .byte 117,54 // jne 1fc3 <_sk_scale_u8_skx+0x4e> .byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8 - .byte 197,57,219,5,145,129,3,0 // vpand 0x38191(%rip),%xmm8,%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,57,219,5,85,139,3,0 // vpand 0x38b55(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 98,113,60,56,89,5,41,121,3,0 // vmulps 0x37929(%rip){1to8},%ymm8,%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 98,113,60,56,89,5,225,130,3,0 // vmulps 0x382e1(%rip){1to8},%ymm8,%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2 @@ -1978,15 +1996,15 @@ _sk_scale_u8_skx: .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,186 // ja 1f37 <_sk_scale_u8_skx+0x1e> + .byte 119,186 // ja 1f93 <_sk_scale_u8_skx+0x1e> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,140,0,0,0 // lea 0x8c(%rip),%r10 # 2014 <_sk_scale_u8_skx+0xfb> + .byte 76,141,21,140,0,0,0 // lea 0x8c(%rip),%r10 # 2070 <_sk_scale_u8_skx+0xfb> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 - .byte 235,155 // jmp 1f37 <_sk_scale_u8_skx+0x1e> + .byte 235,155 // jmp 1f93 <_sk_scale_u8_skx+0x1e> .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8 @@ -1994,7 +2012,7 @@ _sk_scale_u8_skx: .byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9 .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9 .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8 - .byte 233,110,255,255,255 // jmpq 1f37 <_sk_scale_u8_skx+0x1e> + .byte 233,110,255,255,255 // jmpq 1f93 <_sk_scale_u8_skx+0x1e> .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8 @@ -2007,9 +2025,9 @@ _sk_scale_u8_skx: .byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9 .byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9 .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8 - .byte 233,37,255,255,255 // jmpq 1f37 <_sk_scale_u8_skx+0x1e> + .byte 233,37,255,255,255 // jmpq 1f93 <_sk_scale_u8_skx+0x1e> .byte 102,144 // xchg %ax,%ax - .byte 125,255 // jge 2015 <_sk_scale_u8_skx+0xfc> + .byte 125,255 // jge 2071 <_sk_scale_u8_skx+0xfc> .byte 255 // (bad) .byte 255,152,255,255,255,136 // lcall *-0x77000001(%rax) .byte 255 // (bad) @@ -2040,18 +2058,18 @@ _sk_scale_565_skx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,145,0,0,0 // jne 20e0 <_sk_scale_565_skx+0xb0> + .byte 15,133,145,0,0,0 // jne 213c <_sk_scale_565_skx+0xb0> .byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8 .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8 - .byte 98,113,61,56,219,13,28,120,3,0 // vpandd 0x3781c(%rip){1to8},%ymm8,%ymm9 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> + .byte 98,113,61,56,219,13,212,129,3,0 // vpandd 0x381d4(%rip){1to8},%ymm8,%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9 - .byte 98,113,52,56,89,13,17,120,3,0 // vmulps 0x37811(%rip){1to8},%ymm9,%ymm9 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330> - .byte 98,113,61,56,219,21,11,120,3,0 // vpandd 0x3780b(%rip){1to8},%ymm8,%ymm10 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334> + .byte 98,113,52,56,89,13,201,129,3,0 // vmulps 0x381c9(%rip){1to8},%ymm9,%ymm9 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330> + .byte 98,113,61,56,219,21,195,129,3,0 // vpandd 0x381c3(%rip){1to8},%ymm8,%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334> .byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10 - .byte 98,113,44,56,89,21,0,120,3,0 // vmulps 0x37800(%rip){1to8},%ymm10,%ymm10 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338> - .byte 98,113,61,56,219,5,250,119,3,0 // vpandd 0x377fa(%rip){1to8},%ymm8,%ymm8 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> + .byte 98,113,44,56,89,21,184,129,3,0 // vmulps 0x381b8(%rip){1to8},%ymm10,%ymm10 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338> + .byte 98,113,61,56,219,5,178,129,3,0 // vpandd 0x381b2(%rip){1to8},%ymm8,%ymm8 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 98,113,60,56,89,5,239,119,3,0 // vmulps 0x377ef(%rip){1to8},%ymm8,%ymm8 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340> + .byte 98,113,60,56,89,5,167,129,3,0 // vmulps 0x381a7(%rip){1to8},%ymm8,%ymm8 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340> .byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0 .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11 .byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12 @@ -2070,22 +2088,22 @@ _sk_scale_565_skx: .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,91,255,255,255 // ja 2055 <_sk_scale_565_skx+0x25> + .byte 15,135,91,255,255,255 // ja 20b1 <_sk_scale_565_skx+0x25> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 2188 <_sk_scale_565_skx+0x158> + .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 21e4 <_sk_scale_565_skx+0x158> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 - .byte 233,57,255,255,255 // jmpq 2055 <_sk_scale_565_skx+0x25> + .byte 233,57,255,255,255 // jmpq 20b1 <_sk_scale_565_skx+0x25> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8 .byte 196,2,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm9 .byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9 .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9 .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8 - .byte 233,15,255,255,255 // jmpq 2055 <_sk_scale_565_skx+0x25> + .byte 233,15,255,255,255 // jmpq 20b1 <_sk_scale_565_skx+0x25> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8 .byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8 @@ -2095,7 +2113,7 @@ _sk_scale_565_skx: .byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9 .byte 196,65,121,112,201,132 // vpshufd $0x84,%xmm9,%xmm9 .byte 196,65,49,109,192 // vpunpckhqdq %xmm8,%xmm9,%xmm8 - .byte 233,208,254,255,255 // jmpq 2055 <_sk_scale_565_skx+0x25> + .byte 233,208,254,255,255 // jmpq 20b1 <_sk_scale_565_skx+0x25> .byte 15,31,0 // nopl (%rax) .byte 134,255 // xchg %bh,%bh .byte 255 // (bad) @@ -2145,12 +2163,12 @@ _sk_lerp_u8_skx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,74 // jne 2235 <_sk_lerp_u8_skx+0x62> + .byte 117,74 // jne 2291 <_sk_lerp_u8_skx+0x62> .byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8 - .byte 197,57,219,5,215,126,3,0 // vpand 0x37ed7(%rip),%xmm8,%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,57,219,5,155,136,3,0 // vpand 0x3889b(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 98,113,60,56,89,5,111,118,3,0 // vmulps 0x3766f(%rip){1to8},%ymm8,%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 98,113,60,56,89,5,39,128,3,0 // vmulps 0x38027(%rip){1to8},%ymm8,%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0 .byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0 .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1 @@ -2166,15 +2184,15 @@ _sk_lerp_u8_skx: .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,166 // ja 21f1 <_sk_lerp_u8_skx+0x1e> + .byte 119,166 // ja 224d <_sk_lerp_u8_skx+0x1e> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,138,0,0,0 // lea 0x8a(%rip),%r10 # 22e0 <_sk_lerp_u8_skx+0x10d> + .byte 76,141,21,138,0,0,0 // lea 0x8a(%rip),%r10 # 233c <_sk_lerp_u8_skx+0x10d> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 - .byte 235,135 // jmp 21f1 <_sk_lerp_u8_skx+0x1e> + .byte 235,135 // jmp 224d <_sk_lerp_u8_skx+0x1e> .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8 @@ -2182,7 +2200,7 @@ _sk_lerp_u8_skx: .byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9 .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9 .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8 - .byte 233,90,255,255,255 // jmpq 21f1 <_sk_lerp_u8_skx+0x1e> + .byte 233,90,255,255,255 // jmpq 224d <_sk_lerp_u8_skx+0x1e> .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8 @@ -2195,8 +2213,8 @@ _sk_lerp_u8_skx: .byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9 .byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9 .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8 - .byte 233,17,255,255,255 // jmpq 21f1 <_sk_lerp_u8_skx+0x1e> - .byte 127,255 // jg 22e1 <_sk_lerp_u8_skx+0x10e> + .byte 233,17,255,255,255 // jmpq 224d <_sk_lerp_u8_skx+0x1e> + .byte 127,255 // jg 233d <_sk_lerp_u8_skx+0x10e> .byte 255 // (bad) .byte 255,154,255,255,255,138 // lcall *-0x75000001(%rdx) .byte 255 // (bad) @@ -2227,18 +2245,18 @@ _sk_lerp_565_skx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,165,0,0,0 // jne 23c0 <_sk_lerp_565_skx+0xc4> + .byte 15,133,165,0,0,0 // jne 241c <_sk_lerp_565_skx+0xc4> .byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8 .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8 - .byte 98,113,61,56,219,13,80,117,3,0 // vpandd 0x37550(%rip){1to8},%ymm8,%ymm9 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> + .byte 98,113,61,56,219,13,8,127,3,0 // vpandd 0x37f08(%rip){1to8},%ymm8,%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9 - .byte 98,113,52,56,89,13,69,117,3,0 // vmulps 0x37545(%rip){1to8},%ymm9,%ymm9 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330> - .byte 98,113,61,56,219,21,63,117,3,0 // vpandd 0x3753f(%rip){1to8},%ymm8,%ymm10 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334> + .byte 98,113,52,56,89,13,253,126,3,0 // vmulps 0x37efd(%rip){1to8},%ymm9,%ymm9 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330> + .byte 98,113,61,56,219,21,247,126,3,0 // vpandd 0x37ef7(%rip){1to8},%ymm8,%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334> .byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10 - .byte 98,113,44,56,89,21,52,117,3,0 // vmulps 0x37534(%rip){1to8},%ymm10,%ymm10 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338> - .byte 98,113,61,56,219,5,46,117,3,0 // vpandd 0x3752e(%rip){1to8},%ymm8,%ymm8 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> + .byte 98,113,44,56,89,21,236,126,3,0 // vmulps 0x37eec(%rip){1to8},%ymm10,%ymm10 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338> + .byte 98,113,61,56,219,5,230,126,3,0 // vpandd 0x37ee6(%rip){1to8},%ymm8,%ymm8 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 98,113,60,56,89,5,35,117,3,0 // vmulps 0x37523(%rip){1to8},%ymm8,%ymm8 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340> + .byte 98,113,60,56,89,5,219,126,3,0 // vmulps 0x37edb(%rip){1to8},%ymm8,%ymm8 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340> .byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0 .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11 .byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12 @@ -2261,22 +2279,22 @@ _sk_lerp_565_skx: .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,71,255,255,255 // ja 2321 <_sk_lerp_565_skx+0x25> + .byte 15,135,71,255,255,255 // ja 237d <_sk_lerp_565_skx+0x25> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 2468 <_sk_lerp_565_skx+0x16c> + .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 24c4 <_sk_lerp_565_skx+0x16c> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 - .byte 233,37,255,255,255 // jmpq 2321 <_sk_lerp_565_skx+0x25> + .byte 233,37,255,255,255 // jmpq 237d <_sk_lerp_565_skx+0x25> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8 .byte 196,2,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm9 .byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9 .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9 .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8 - .byte 233,251,254,255,255 // jmpq 2321 <_sk_lerp_565_skx+0x25> + .byte 233,251,254,255,255 // jmpq 237d <_sk_lerp_565_skx+0x25> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8 .byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8 @@ -2286,7 +2304,7 @@ _sk_lerp_565_skx: .byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9 .byte 196,65,121,112,201,132 // vpshufd $0x84,%xmm9,%xmm9 .byte 196,65,49,109,192 // vpunpckhqdq %xmm8,%xmm9,%xmm8 - .byte 233,188,254,255,255 // jmpq 2321 <_sk_lerp_565_skx+0x25> + .byte 233,188,254,255,255 // jmpq 237d <_sk_lerp_565_skx+0x25> .byte 15,31,0 // nopl (%rax) .byte 134,255 // xchg %bh,%bh .byte 255 // (bad) @@ -2315,7 +2333,7 @@ _sk_load_tables_skx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,0 // mov (%rax),%r8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,124 // jne 250a <_sk_load_tables_skx+0x86> + .byte 117,124 // jne 2566 <_sk_load_tables_skx+0x86> .byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3 .byte 65,184,17,17,17,17 // mov $0x11111111,%r8d .byte 196,193,123,146,200 // kmovd %r8d,%k1 @@ -2338,7 +2356,7 @@ _sk_load_tables_skx: .byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2 .byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 - .byte 98,241,100,56,89,29,118,115,3,0 // vmulps 0x37376(%rip){1to8},%ymm3,%ymm3 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 98,241,100,56,89,29,46,125,3,0 // vmulps 0x37d2e(%rip){1to8},%ymm3,%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d @@ -2346,14 +2364,14 @@ _sk_load_tables_skx: .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3 .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,113,255,255,255 // ja 2494 <_sk_load_tables_skx+0x10> + .byte 15,135,113,255,255,255 // ja 24f0 <_sk_load_tables_skx+0x10> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 25bc <_sk_load_tables_skx+0x138> + .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 2618 <_sk_load_tables_skx+0x138> .byte 79,99,12,138 // movslq (%r10,%r9,4),%r9 .byte 77,1,209 // add %r10,%r9 .byte 65,255,225 // jmpq *%r9 .byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3 - .byte 233,81,255,255,255 // jmpq 2494 <_sk_load_tables_skx+0x10> + .byte 233,81,255,255,255 // jmpq 24f0 <_sk_load_tables_skx+0x10> .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0 .byte 65,177,4 // mov $0x4,%r9b .byte 196,193,123,146,201 // kmovd %r9d,%k1 @@ -2361,7 +2379,7 @@ _sk_load_tables_skx: .byte 196,194,121,53,4,144 // vpmovzxdq (%r8,%rdx,4),%xmm0 .byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0 .byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3 - .byte 233,38,255,255,255 // jmpq 2494 <_sk_load_tables_skx+0x10> + .byte 233,38,255,255,255 // jmpq 24f0 <_sk_load_tables_skx+0x10> .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0 .byte 65,177,64 // mov $0x40,%r9b .byte 196,193,123,146,201 // kmovd %r9d,%k1 @@ -2374,8 +2392,8 @@ _sk_load_tables_skx: .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3 .byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0 .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3 - .byte 233,216,254,255,255 // jmpq 2494 <_sk_load_tables_skx+0x10> - .byte 124,255 // jl 25bd <_sk_load_tables_skx+0x139> + .byte 233,216,254,255,255 // jmpq 24f0 <_sk_load_tables_skx+0x10> + .byte 124,255 // jl 2619 <_sk_load_tables_skx+0x139> .byte 255 // (bad) .byte 255,156,255,255,255,135,255 // lcall *-0x780001(%rdi,%rdi,8) .byte 255 // (bad) @@ -2402,7 +2420,7 @@ _sk_load_tables_u16_be_skx: .byte 76,139,0 // mov (%rax),%r8 .byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,210,0,0,0 // jne 26c0 <_sk_load_tables_u16_be_skx+0xe8> + .byte 15,133,210,0,0,0 // jne 271c <_sk_load_tables_u16_be_skx+0xe8> .byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8 .byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2 .byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3 @@ -2417,7 +2435,7 @@ _sk_load_tables_u16_be_skx: .byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11 .byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1 .byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8 - .byte 197,121,111,21,149,122,3,0 // vmovdqa 0x37a95(%rip),%xmm10 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,121,111,21,89,132,3,0 // vmovdqa 0x38459(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,193,113,219,194 // vpand %xmm10,%xmm1,%xmm0 .byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1 .byte 76,139,64,8 // mov 0x8(%rax),%r8 @@ -2443,35 +2461,35 @@ _sk_load_tables_u16_be_skx: .byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3 .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 - .byte 98,241,100,56,89,29,220,113,3,0 // vmulps 0x371dc(%rip){1to8},%ymm3,%ymm3 # 39898 <_sk_srcover_bgra_8888_sse2_lowp+0x344> + .byte 98,241,100,56,89,29,148,123,3,0 // vmulps 0x37b94(%rip){1to8},%ymm3,%ymm3 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,85 // je 2726 <_sk_load_tables_u16_be_skx+0x14e> + .byte 116,85 // je 2782 <_sk_load_tables_u16_be_skx+0x14e> .byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,72 // jb 2726 <_sk_load_tables_u16_be_skx+0x14e> + .byte 114,72 // jb 2782 <_sk_load_tables_u16_be_skx+0x14e> .byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 116,72 // je 2733 <_sk_load_tables_u16_be_skx+0x15b> + .byte 116,72 // je 278f <_sk_load_tables_u16_be_skx+0x15b> .byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,59 // jb 2733 <_sk_load_tables_u16_be_skx+0x15b> + .byte 114,59 // jb 278f <_sk_load_tables_u16_be_skx+0x15b> .byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 15,132,0,255,255,255 // je 2609 <_sk_load_tables_u16_be_skx+0x31> + .byte 15,132,0,255,255,255 // je 2665 <_sk_load_tables_u16_be_skx+0x31> .byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 15,130,239,254,255,255 // jb 2609 <_sk_load_tables_u16_be_skx+0x31> + .byte 15,130,239,254,255,255 // jb 2665 <_sk_load_tables_u16_be_skx+0x31> .byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9 - .byte 233,227,254,255,255 // jmpq 2609 <_sk_load_tables_u16_be_skx+0x31> + .byte 233,227,254,255,255 // jmpq 2665 <_sk_load_tables_u16_be_skx+0x31> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2 - .byte 233,214,254,255,255 // jmpq 2609 <_sk_load_tables_u16_be_skx+0x31> + .byte 233,214,254,255,255 // jmpq 2665 <_sk_load_tables_u16_be_skx+0x31> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 - .byte 233,205,254,255,255 // jmpq 2609 <_sk_load_tables_u16_be_skx+0x31> + .byte 233,205,254,255,255 // jmpq 2665 <_sk_load_tables_u16_be_skx+0x31> HIDDEN _sk_load_tables_rgb_u16_be_skx .globl _sk_load_tables_rgb_u16_be_skx @@ -2481,7 +2499,7 @@ _sk_load_tables_rgb_u16_be_skx: .byte 76,139,0 // mov (%rax),%r8 .byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,203,0,0,0 // jne 2819 <_sk_load_tables_rgb_u16_be_skx+0xdd> + .byte 15,133,203,0,0,0 // jne 2875 <_sk_load_tables_rgb_u16_be_skx+0xdd> .byte 196,1,121,16,28,72 // vmovupd (%r8,%r9,2),%xmm11 .byte 196,129,121,16,92,72,12 // vmovupd 0xc(%r8,%r9,2),%xmm3 .byte 196,129,121,16,84,72,24 // vmovupd 0x18(%r8,%r9,2),%xmm2 @@ -2500,7 +2518,7 @@ _sk_load_tables_rgb_u16_be_skx: .byte 197,249,105,193 // vpunpckhwd %xmm1,%xmm0,%xmm0 .byte 197,105,108,200 // vpunpcklqdq %xmm0,%xmm2,%xmm9 .byte 197,185,108,195 // vpunpcklqdq %xmm3,%xmm8,%xmm0 - .byte 197,121,111,21,30,121,3,0 // vmovdqa 0x3791e(%rip),%xmm10 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,121,111,21,226,130,3,0 // vmovdqa 0x382e2(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,193,121,219,194 // vpand %xmm10,%xmm0,%xmm0 .byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1 .byte 76,139,64,8 // mov 0x8(%rax),%r8 @@ -2521,111 +2539,117 @@ _sk_load_tables_rgb_u16_be_skx: .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3 .byte 196,226,29,146,20,152 // vgatherdps %ymm12,(%rax,%ymm3,4),%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,237,111,3,0 // vbroadcastss 0x36fed(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,165,121,3,0 // vbroadcastss 0x379a5(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 255,224 // jmpq *%rax .byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0 .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9 .byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,31 // jne 2851 <_sk_load_tables_rgb_u16_be_skx+0x115> + .byte 117,31 // jne 28ad <_sk_load_tables_rgb_u16_be_skx+0x115> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3 .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 - .byte 233,47,255,255,255 // jmpq 2780 <_sk_load_tables_rgb_u16_be_skx+0x44> + .byte 233,47,255,255,255 // jmpq 27dc <_sk_load_tables_rgb_u16_be_skx+0x44> .byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0 .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9 .byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,48 // jb 289b <_sk_load_tables_rgb_u16_be_skx+0x15f> + .byte 114,48 // jb 28f7 <_sk_load_tables_rgb_u16_be_skx+0x15f> .byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0 .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9 .byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 117,48 // jne 28b5 <_sk_load_tables_rgb_u16_be_skx+0x179> + .byte 117,48 // jne 2911 <_sk_load_tables_rgb_u16_be_skx+0x179> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 - .byte 233,229,254,255,255 // jmpq 2780 <_sk_load_tables_rgb_u16_be_skx+0x44> + .byte 233,229,254,255,255 // jmpq 27dc <_sk_load_tables_rgb_u16_be_skx+0x44> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3 - .byte 233,203,254,255,255 // jmpq 2780 <_sk_load_tables_rgb_u16_be_skx+0x44> + .byte 233,203,254,255,255 // jmpq 27dc <_sk_load_tables_rgb_u16_be_skx+0x44> .byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0 .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9 .byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,39 // jb 28f6 <_sk_load_tables_rgb_u16_be_skx+0x1ba> + .byte 114,39 // jb 2952 <_sk_load_tables_rgb_u16_be_skx+0x1ba> .byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0 .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9 .byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 117,30 // jne 2907 <_sk_load_tables_rgb_u16_be_skx+0x1cb> + .byte 117,30 // jne 2963 <_sk_load_tables_rgb_u16_be_skx+0x1cb> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 - .byte 233,138,254,255,255 // jmpq 2780 <_sk_load_tables_rgb_u16_be_skx+0x44> + .byte 233,138,254,255,255 // jmpq 27dc <_sk_load_tables_rgb_u16_be_skx+0x44> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 - .byte 233,121,254,255,255 // jmpq 2780 <_sk_load_tables_rgb_u16_be_skx+0x44> + .byte 233,121,254,255,255 // jmpq 27dc <_sk_load_tables_rgb_u16_be_skx+0x44> .byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0 .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9 .byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 114,25 // jb 293a <_sk_load_tables_rgb_u16_be_skx+0x1fe> + .byte 114,25 // jb 2996 <_sk_load_tables_rgb_u16_be_skx+0x1fe> .byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0 .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9 .byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0 - .byte 233,70,254,255,255 // jmpq 2780 <_sk_load_tables_rgb_u16_be_skx+0x44> + .byte 233,70,254,255,255 // jmpq 27dc <_sk_load_tables_rgb_u16_be_skx+0x44> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 - .byte 233,61,254,255,255 // jmpq 2780 <_sk_load_tables_rgb_u16_be_skx+0x44> + .byte 233,61,254,255,255 // jmpq 27dc <_sk_load_tables_rgb_u16_be_skx+0x44> HIDDEN _sk_byte_tables_skx .globl _sk_byte_tables_skx FUNCTION(_sk_byte_tables_skx) _sk_byte_tables_skx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,98,125,24,5,226,110,3,0 // vbroadcastss 0x36ee2(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 - .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9 - .byte 196,65,249,126,200 // vmovq %xmm9,%r8 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9 + .byte 196,98,125,24,29,101,120,3,0 // vbroadcastss 0x37865(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,52,93,211 // vminps %ymm11,%ymm9,%ymm10 + .byte 196,98,125,24,13,131,120,3,0 // vbroadcastss 0x37883(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,65,44,89,209 // vmulps %ymm9,%ymm10,%ymm10 + .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 + .byte 196,65,249,126,208 // vmovq %xmm10,%r8 .byte 69,137,193 // mov %r8d,%r9d .byte 76,139,16 // mov (%rax),%r10 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d .byte 196,193,121,110,193 // vmovd %r9d,%xmm0 - .byte 196,67,249,22,201,1 // vpextrq $0x1,%xmm9,%r9 + .byte 196,67,249,22,209,1 // vpextrq $0x1,%xmm10,%r9 .byte 73,193,232,32 // shr $0x20,%r8 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d - .byte 196,67,121,32,208,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm10 + .byte 196,67,121,32,224,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm12 .byte 69,137,200 // mov %r9d,%r8d .byte 73,193,233,32 // shr $0x20,%r9 - .byte 196,99,125,57,200,1 // vextracti128 $0x1,%ymm9,%xmm0 + .byte 196,99,125,57,208,1 // vextracti128 $0x1,%ymm10,%xmm0 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d - .byte 196,67,41,32,200,2 // vpinsrb $0x2,%r8d,%xmm10,%xmm9 + .byte 196,67,25,32,208,2 // vpinsrb $0x2,%r8d,%xmm12,%xmm10 .byte 196,193,249,126,192 // vmovq %xmm0,%r8 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d - .byte 196,67,49,32,201,3 // vpinsrb $0x3,%r9d,%xmm9,%xmm9 + .byte 196,67,41,32,209,3 // vpinsrb $0x3,%r9d,%xmm10,%xmm10 .byte 69,137,193 // mov %r8d,%r9d .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d - .byte 196,67,49,32,201,4 // vpinsrb $0x4,%r9d,%xmm9,%xmm9 + .byte 196,67,41,32,209,4 // vpinsrb $0x4,%r9d,%xmm10,%xmm10 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 73,193,232,32 // shr $0x20,%r8 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d - .byte 196,195,49,32,192,5 // vpinsrb $0x5,%r8d,%xmm9,%xmm0 + .byte 196,195,41,32,192,5 // vpinsrb $0x5,%r8d,%xmm10,%xmm0 .byte 69,137,200 // mov %r9d,%r8d .byte 73,193,233,32 // shr $0x20,%r9 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d .byte 196,195,121,32,192,6 // vpinsrb $0x6,%r8d,%xmm0,%xmm0 .byte 76,139,64,8 // mov 0x8(%rax),%r8 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d - .byte 196,67,121,32,201,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm9 - .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 - .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1 + .byte 196,67,121,32,209,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm10 + .byte 197,188,95,193 // vmaxps %ymm1,%ymm8,%ymm0 + .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0 + .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 + .byte 197,253,91,200 // vcvtps2dq %ymm0,%ymm1 .byte 196,193,249,126,201 // vmovq %xmm1,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d @@ -2656,7 +2680,9 @@ _sk_byte_tables_skx: .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d .byte 196,195,121,32,200,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm1 .byte 76,139,64,16 // mov 0x10(%rax),%r8 - .byte 196,193,108,89,192 // vmulps %ymm8,%ymm2,%ymm0 + .byte 197,188,95,194 // vmaxps %ymm2,%ymm8,%ymm0 + .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0 + .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 .byte 197,253,91,208 // vcvtps2dq %ymm0,%ymm2 .byte 196,193,249,126,209 // vmovq %xmm2,%r9 .byte 69,137,202 // mov %r9d,%r10d @@ -2686,46 +2712,48 @@ _sk_byte_tables_skx: .byte 196,195,121,32,193,6 // vpinsrb $0x6,%r9d,%xmm0,%xmm0 .byte 73,193,234,32 // shr $0x20,%r10 .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d - .byte 196,67,121,32,208,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm10 + .byte 196,195,121,32,208,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm2 .byte 76,139,72,24 // mov 0x18(%rax),%r9 - .byte 196,193,100,89,192 // vmulps %ymm8,%ymm3,%ymm0 - .byte 197,253,91,208 // vcvtps2dq %ymm0,%ymm2 - .byte 196,193,249,126,208 // vmovq %xmm2,%r8 + .byte 197,188,95,195 // vmaxps %ymm3,%ymm8,%ymm0 + .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0 + .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 + .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 + .byte 196,193,249,126,192 // vmovq %xmm0,%r8 .byte 68,137,192 // mov %r8d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax - .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10 + .byte 197,249,110,216 // vmovd %eax,%xmm3 + .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 .byte 73,193,232,32 // shr $0x20,%r8 .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax - .byte 196,227,121,32,192,1 // vpinsrb $0x1,%eax,%xmm0,%xmm0 + .byte 196,227,97,32,216,1 // vpinsrb $0x1,%eax,%xmm3,%xmm3 .byte 68,137,208 // mov %r10d,%eax .byte 73,193,234,32 // shr $0x20,%r10 - .byte 196,227,125,57,210,1 // vextracti128 $0x1,%ymm2,%xmm2 + .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax - .byte 196,227,121,32,192,2 // vpinsrb $0x2,%eax,%xmm0,%xmm0 - .byte 196,193,249,126,208 // vmovq %xmm2,%r8 + .byte 196,227,97,32,216,2 // vpinsrb $0x2,%eax,%xmm3,%xmm3 + .byte 196,193,249,126,192 // vmovq %xmm0,%r8 .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax - .byte 196,227,121,32,192,3 // vpinsrb $0x3,%eax,%xmm0,%xmm0 + .byte 196,227,97,32,216,3 // vpinsrb $0x3,%eax,%xmm3,%xmm3 .byte 68,137,192 // mov %r8d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax - .byte 196,227,121,32,192,4 // vpinsrb $0x4,%eax,%xmm0,%xmm0 - .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10 + .byte 196,227,97,32,216,4 // vpinsrb $0x4,%eax,%xmm3,%xmm3 + .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 .byte 73,193,232,32 // shr $0x20,%r8 .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax - .byte 196,227,121,32,192,5 // vpinsrb $0x5,%eax,%xmm0,%xmm0 + .byte 196,227,97,32,192,5 // vpinsrb $0x5,%eax,%xmm3,%xmm0 .byte 68,137,208 // mov %r10d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 196,227,121,32,216,6 // vpinsrb $0x6,%eax,%xmm0,%xmm3 .byte 73,193,234,32 // shr $0x20,%r10 .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax - .byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0 + .byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,98,125,24,5,180,108,3,0 // vbroadcastss 0x36cb4(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,5,57,118,3,0 // vbroadcastss 0x37639(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 - .byte 196,194,125,49,210 // vpmovzxbd %xmm10,%ymm2 + .byte 196,226,125,49,210 // vpmovzxbd %xmm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 196,227,97,32,216,7 // vpinsrb $0x7,%eax,%xmm3,%xmm3 @@ -2744,41 +2772,47 @@ _sk_byte_tables_rgb_skx: .byte 65,131,192,255 // add $0xffffffff,%r8d .byte 98,82,125,40,124,192 // vpbroadcastd %r8d,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 - .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9 - .byte 196,65,249,126,200 // vmovq %xmm9,%r8 + .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 + .byte 197,52,95,208 // vmaxps %ymm0,%ymm9,%ymm10 + .byte 196,98,125,24,29,97,117,3,0 // vbroadcastss 0x37561(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,44,93,211 // vminps %ymm11,%ymm10,%ymm10 + .byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10 + .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 + .byte 196,65,249,126,208 // vmovq %xmm10,%r8 .byte 69,137,193 // mov %r8d,%r9d .byte 76,139,16 // mov (%rax),%r10 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d .byte 196,193,121,110,193 // vmovd %r9d,%xmm0 - .byte 196,67,249,22,201,1 // vpextrq $0x1,%xmm9,%r9 + .byte 196,67,249,22,209,1 // vpextrq $0x1,%xmm10,%r9 .byte 73,193,232,32 // shr $0x20,%r8 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d - .byte 196,67,121,32,208,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm10 + .byte 196,67,121,32,224,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm12 .byte 69,137,200 // mov %r9d,%r8d .byte 73,193,233,32 // shr $0x20,%r9 - .byte 196,99,125,57,200,1 // vextracti128 $0x1,%ymm9,%xmm0 + .byte 196,99,125,57,208,1 // vextracti128 $0x1,%ymm10,%xmm0 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d - .byte 196,67,41,32,200,2 // vpinsrb $0x2,%r8d,%xmm10,%xmm9 + .byte 196,67,25,32,208,2 // vpinsrb $0x2,%r8d,%xmm12,%xmm10 .byte 196,193,249,126,192 // vmovq %xmm0,%r8 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d - .byte 196,67,49,32,201,3 // vpinsrb $0x3,%r9d,%xmm9,%xmm9 + .byte 196,67,41,32,209,3 // vpinsrb $0x3,%r9d,%xmm10,%xmm10 .byte 69,137,193 // mov %r8d,%r9d .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d - .byte 196,67,49,32,201,4 // vpinsrb $0x4,%r9d,%xmm9,%xmm9 + .byte 196,67,41,32,209,4 // vpinsrb $0x4,%r9d,%xmm10,%xmm10 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 73,193,232,32 // shr $0x20,%r8 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d - .byte 196,195,49,32,192,5 // vpinsrb $0x5,%r8d,%xmm9,%xmm0 + .byte 196,195,41,32,192,5 // vpinsrb $0x5,%r8d,%xmm10,%xmm0 .byte 69,137,200 // mov %r9d,%r8d .byte 73,193,233,32 // shr $0x20,%r9 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d .byte 196,195,121,32,192,6 // vpinsrb $0x6,%r8d,%xmm0,%xmm0 .byte 76,139,64,8 // mov 0x8(%rax),%r8 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d - .byte 196,67,121,32,201,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm9 - .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 - .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1 + .byte 196,67,121,32,209,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm10 + .byte 197,180,95,193 // vmaxps %ymm1,%ymm9,%ymm0 + .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0 + .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 + .byte 197,253,91,200 // vcvtps2dq %ymm0,%ymm1 .byte 196,193,249,126,201 // vmovq %xmm1,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d @@ -2807,43 +2841,45 @@ _sk_byte_tables_rgb_skx: .byte 196,195,121,32,193,6 // vpinsrb $0x6,%r9d,%xmm0,%xmm0 .byte 73,193,234,32 // shr $0x20,%r10 .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d - .byte 196,67,121,32,208,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm10 + .byte 196,195,121,32,200,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm1 .byte 76,139,72,16 // mov 0x10(%rax),%r9 - .byte 197,188,89,194 // vmulps %ymm2,%ymm8,%ymm0 - .byte 197,253,91,200 // vcvtps2dq %ymm0,%ymm1 - .byte 196,193,249,126,200 // vmovq %xmm1,%r8 + .byte 197,180,95,194 // vmaxps %ymm2,%ymm9,%ymm0 + .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0 + .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 + .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 + .byte 196,193,249,126,192 // vmovq %xmm0,%r8 .byte 68,137,192 // mov %r8d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax - .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10 + .byte 197,249,110,208 // vmovd %eax,%xmm2 + .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 .byte 73,193,232,32 // shr $0x20,%r8 .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax - .byte 196,227,121,32,192,1 // vpinsrb $0x1,%eax,%xmm0,%xmm0 + .byte 196,227,105,32,208,1 // vpinsrb $0x1,%eax,%xmm2,%xmm2 .byte 68,137,208 // mov %r10d,%eax .byte 73,193,234,32 // shr $0x20,%r10 - .byte 196,227,125,57,201,1 // vextracti128 $0x1,%ymm1,%xmm1 + .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax - .byte 196,227,121,32,192,2 // vpinsrb $0x2,%eax,%xmm0,%xmm0 - .byte 196,193,249,126,200 // vmovq %xmm1,%r8 + .byte 196,227,105,32,208,2 // vpinsrb $0x2,%eax,%xmm2,%xmm2 + .byte 196,193,249,126,192 // vmovq %xmm0,%r8 .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax - .byte 196,227,121,32,192,3 // vpinsrb $0x3,%eax,%xmm0,%xmm0 + .byte 196,227,105,32,208,3 // vpinsrb $0x3,%eax,%xmm2,%xmm2 .byte 68,137,192 // mov %r8d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax - .byte 196,227,121,32,192,4 // vpinsrb $0x4,%eax,%xmm0,%xmm0 - .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10 + .byte 196,227,105,32,208,4 // vpinsrb $0x4,%eax,%xmm2,%xmm2 + .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 .byte 73,193,232,32 // shr $0x20,%r8 .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax - .byte 196,227,121,32,192,5 // vpinsrb $0x5,%eax,%xmm0,%xmm0 + .byte 196,227,105,32,192,5 // vpinsrb $0x5,%eax,%xmm2,%xmm0 .byte 68,137,208 // mov %r10d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 196,227,121,32,208,6 // vpinsrb $0x6,%eax,%xmm0,%xmm2 .byte 73,193,234,32 // shr $0x20,%r10 .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax - .byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0 + .byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,98,125,24,5,139,106,3,0 // vbroadcastss 0x36a8b(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,5,229,115,3,0 // vbroadcastss 0x373e5(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 - .byte 196,194,125,49,202 // vpmovzxbd %xmm10,%ymm1 + .byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 .byte 196,227,105,32,208,7 // vpinsrb $0x7,%eax,%xmm2,%xmm2 @@ -2862,13 +2898,16 @@ _sk_table_r_skx: .byte 139,64,8 // mov 0x8(%rax),%eax .byte 131,192,255 // add $0xffffffff,%eax .byte 98,114,125,40,124,192 // vpbroadcastd %eax,%ymm8 - .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 - .byte 197,125,91,192 // vcvtps2dq %ymm0,%ymm8 + .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9 + .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8 + .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0 + .byte 98,241,124,56,93,5,25,115,3,0 // vminps 0x37319(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 + .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9 - .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 - .byte 196,130,53,146,4,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm0 + .byte 196,66,53,146,4,128 // vgatherdps %ymm9,(%r8,%ymm0,4),%ymm8 .byte 72,173 // lods %ds:(%rsi),%rax + .byte 197,124,41,192 // vmovaps %ymm8,%ymm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_table_g_skx @@ -2880,13 +2919,16 @@ _sk_table_g_skx: .byte 139,64,8 // mov 0x8(%rax),%eax .byte 131,192,255 // add $0xffffffff,%eax .byte 98,114,125,40,124,192 // vpbroadcastd %eax,%ymm8 - .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 - .byte 197,125,91,193 // vcvtps2dq %ymm1,%ymm8 + .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9 + .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8 + .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1 + .byte 98,241,116,56,93,13,212,114,3,0 // vminps 0x372d4(%rip){1to8},%ymm1,%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1 + .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1 .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9 - .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 - .byte 196,130,53,146,12,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm1 + .byte 196,66,53,146,4,136 // vgatherdps %ymm9,(%r8,%ymm1,4),%ymm8 .byte 72,173 // lods %ds:(%rsi),%rax + .byte 197,124,41,193 // vmovaps %ymm8,%ymm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_table_b_skx @@ -2898,13 +2940,16 @@ _sk_table_b_skx: .byte 139,64,8 // mov 0x8(%rax),%eax .byte 131,192,255 // add $0xffffffff,%eax .byte 98,114,125,40,124,192 // vpbroadcastd %eax,%ymm8 - .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2 - .byte 197,125,91,194 // vcvtps2dq %ymm2,%ymm8 + .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9 + .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8 + .byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2 + .byte 98,241,108,56,93,21,143,114,3,0 // vminps 0x3728f(%rip){1to8},%ymm2,%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2 + .byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2 .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9 - .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 - .byte 196,130,53,146,20,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm2 + .byte 196,66,53,146,4,144 // vgatherdps %ymm9,(%r8,%ymm2,4),%ymm8 .byte 72,173 // lods %ds:(%rsi),%rax + .byte 197,124,41,194 // vmovaps %ymm8,%ymm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_table_a_skx @@ -2916,13 +2961,16 @@ _sk_table_a_skx: .byte 139,64,8 // mov 0x8(%rax),%eax .byte 131,192,255 // add $0xffffffff,%eax .byte 98,114,125,40,124,192 // vpbroadcastd %eax,%ymm8 - .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3 - .byte 197,125,91,195 // vcvtps2dq %ymm3,%ymm8 + .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9 + .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8 + .byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3 + .byte 98,241,100,56,93,29,74,114,3,0 // vminps 0x3724a(%rip){1to8},%ymm3,%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3 + .byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3 .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9 - .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3 - .byte 196,130,53,146,28,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm3 + .byte 196,66,53,146,4,152 // vgatherdps %ymm9,(%r8,%ymm3,4),%ymm8 .byte 72,173 // lods %ds:(%rsi),%rax + .byte 197,124,41,195 // vmovaps %ymm8,%ymm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_parametric_r_skx @@ -2941,33 +2989,33 @@ _sk_parametric_r_skx: .byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0 .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12 .byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13 - .byte 196,98,125,24,53,109,105,3,0 // vbroadcastss 0x3696d(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348> - .byte 98,114,21,56,168,53,107,105,3,0 // vfmadd213ps 0x3696b(%rip){1to8},%ymm13,%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350> - .byte 98,113,44,56,84,21,93,105,3,0 // vandps 0x3695d(%rip){1to8},%ymm10,%ymm10 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> - .byte 98,113,44,56,86,21,179,104,3,0 // vorps 0x368b3(%rip){1to8},%ymm10,%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> - .byte 98,114,45,56,188,53,81,105,3,0 // vfnmadd231ps 0x36951(%rip){1to8},%ymm10,%ymm14 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354> - .byte 98,113,44,56,88,21,75,105,3,0 // vaddps 0x3694b(%rip){1to8},%ymm10,%ymm10 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358> - .byte 196,98,125,24,45,70,105,3,0 // vbroadcastss 0x36946(%rip),%ymm13 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> + .byte 196,98,125,24,53,119,114,3,0 // vbroadcastss 0x37277(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348> + .byte 98,114,21,56,168,53,117,114,3,0 // vfmadd213ps 0x37275(%rip){1to8},%ymm13,%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350> + .byte 98,113,44,56,84,21,103,114,3,0 // vandps 0x37267(%rip){1to8},%ymm10,%ymm10 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> + .byte 98,113,44,56,86,21,189,113,3,0 // vorps 0x371bd(%rip){1to8},%ymm10,%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 98,114,45,56,188,53,91,114,3,0 // vfnmadd231ps 0x3725b(%rip){1to8},%ymm10,%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354> + .byte 98,113,44,56,88,21,85,114,3,0 // vaddps 0x37255(%rip){1to8},%ymm10,%ymm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358> + .byte 196,98,125,24,45,80,114,3,0 // vbroadcastss 0x37250(%rip),%ymm13 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10 .byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10 .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0 .byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10 .byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10 - .byte 98,241,124,56,88,5,38,105,3,0 // vaddps 0x36926(%rip){1to8},%ymm0,%ymm0 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360> - .byte 98,242,45,56,188,5,32,105,3,0 // vfnmadd231ps 0x36920(%rip){1to8},%ymm10,%ymm0 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364> - .byte 196,98,125,24,45,27,105,3,0 // vbroadcastss 0x3691b(%rip),%ymm13 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368> + .byte 98,241,124,56,88,5,48,114,3,0 // vaddps 0x37230(%rip){1to8},%ymm0,%ymm0 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360> + .byte 98,242,45,56,188,5,42,114,3,0 // vfnmadd231ps 0x3722a(%rip){1to8},%ymm10,%ymm0 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364> + .byte 196,98,125,24,45,37,114,3,0 // vbroadcastss 0x37225(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368> .byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10 - .byte 196,98,125,24,45,17,105,3,0 // vbroadcastss 0x36911(%rip),%ymm13 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> + .byte 196,98,125,24,45,27,114,3,0 // vbroadcastss 0x3721b(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10 .byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0 - .byte 98,241,124,56,89,5,1,105,3,0 // vmulps 0x36901(%rip){1to8},%ymm0,%ymm0 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370> + .byte 98,241,124,56,89,5,11,114,3,0 // vmulps 0x3720b(%rip){1to8},%ymm0,%ymm0 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370> .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 .byte 196,195,125,74,195,192 // vblendvps %ymm12,%ymm11,%ymm0,%ymm0 .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10 .byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0 .byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0 .byte 196,193,124,95,195 // vmaxps %ymm11,%ymm0,%ymm0 - .byte 98,241,124,56,93,5,23,104,3,0 // vminps 0x36817(%rip){1to8},%ymm0,%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 98,241,124,56,93,5,33,113,3,0 // vminps 0x37121(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -2987,33 +3035,33 @@ _sk_parametric_g_skx: .byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0 .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12 .byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13 - .byte 196,98,125,24,53,92,104,3,0 // vbroadcastss 0x3685c(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348> - .byte 98,114,21,56,168,53,90,104,3,0 // vfmadd213ps 0x3685a(%rip){1to8},%ymm13,%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350> - .byte 98,113,44,56,84,21,76,104,3,0 // vandps 0x3684c(%rip){1to8},%ymm10,%ymm10 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> - .byte 98,113,44,56,86,21,162,103,3,0 // vorps 0x367a2(%rip){1to8},%ymm10,%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> - .byte 98,114,45,56,188,53,64,104,3,0 // vfnmadd231ps 0x36840(%rip){1to8},%ymm10,%ymm14 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354> - .byte 98,113,44,56,88,21,58,104,3,0 // vaddps 0x3683a(%rip){1to8},%ymm10,%ymm10 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358> - .byte 196,98,125,24,45,53,104,3,0 // vbroadcastss 0x36835(%rip),%ymm13 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> + .byte 196,98,125,24,53,102,113,3,0 // vbroadcastss 0x37166(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348> + .byte 98,114,21,56,168,53,100,113,3,0 // vfmadd213ps 0x37164(%rip){1to8},%ymm13,%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350> + .byte 98,113,44,56,84,21,86,113,3,0 // vandps 0x37156(%rip){1to8},%ymm10,%ymm10 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> + .byte 98,113,44,56,86,21,172,112,3,0 // vorps 0x370ac(%rip){1to8},%ymm10,%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 98,114,45,56,188,53,74,113,3,0 // vfnmadd231ps 0x3714a(%rip){1to8},%ymm10,%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354> + .byte 98,113,44,56,88,21,68,113,3,0 // vaddps 0x37144(%rip){1to8},%ymm10,%ymm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358> + .byte 196,98,125,24,45,63,113,3,0 // vbroadcastss 0x3713f(%rip),%ymm13 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10 .byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10 .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1 .byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10 .byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10 - .byte 98,241,116,56,88,13,21,104,3,0 // vaddps 0x36815(%rip){1to8},%ymm1,%ymm1 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360> - .byte 98,242,45,56,188,13,15,104,3,0 // vfnmadd231ps 0x3680f(%rip){1to8},%ymm10,%ymm1 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364> - .byte 196,98,125,24,45,10,104,3,0 // vbroadcastss 0x3680a(%rip),%ymm13 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368> + .byte 98,241,116,56,88,13,31,113,3,0 // vaddps 0x3711f(%rip){1to8},%ymm1,%ymm1 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360> + .byte 98,242,45,56,188,13,25,113,3,0 // vfnmadd231ps 0x37119(%rip){1to8},%ymm10,%ymm1 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364> + .byte 196,98,125,24,45,20,113,3,0 // vbroadcastss 0x37114(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368> .byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10 - .byte 196,98,125,24,45,0,104,3,0 // vbroadcastss 0x36800(%rip),%ymm13 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> + .byte 196,98,125,24,45,10,113,3,0 // vbroadcastss 0x3710a(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10 .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1 - .byte 98,241,116,56,89,13,240,103,3,0 // vmulps 0x367f0(%rip){1to8},%ymm1,%ymm1 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370> + .byte 98,241,116,56,89,13,250,112,3,0 // vmulps 0x370fa(%rip){1to8},%ymm1,%ymm1 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370> .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1 .byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1 .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10 .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1 .byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1 .byte 196,193,116,95,203 // vmaxps %ymm11,%ymm1,%ymm1 - .byte 98,241,116,56,93,13,6,103,3,0 // vminps 0x36706(%rip){1to8},%ymm1,%ymm1 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 98,241,116,56,93,13,16,112,3,0 // vminps 0x37010(%rip){1to8},%ymm1,%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -3033,33 +3081,33 @@ _sk_parametric_b_skx: .byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0 .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12 .byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13 - .byte 196,98,125,24,53,75,103,3,0 // vbroadcastss 0x3674b(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348> - .byte 98,114,21,56,168,53,73,103,3,0 // vfmadd213ps 0x36749(%rip){1to8},%ymm13,%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350> - .byte 98,113,44,56,84,21,59,103,3,0 // vandps 0x3673b(%rip){1to8},%ymm10,%ymm10 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> - .byte 98,113,44,56,86,21,145,102,3,0 // vorps 0x36691(%rip){1to8},%ymm10,%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> - .byte 98,114,45,56,188,53,47,103,3,0 // vfnmadd231ps 0x3672f(%rip){1to8},%ymm10,%ymm14 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354> - .byte 98,113,44,56,88,21,41,103,3,0 // vaddps 0x36729(%rip){1to8},%ymm10,%ymm10 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358> - .byte 196,98,125,24,45,36,103,3,0 // vbroadcastss 0x36724(%rip),%ymm13 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> + .byte 196,98,125,24,53,85,112,3,0 // vbroadcastss 0x37055(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348> + .byte 98,114,21,56,168,53,83,112,3,0 // vfmadd213ps 0x37053(%rip){1to8},%ymm13,%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350> + .byte 98,113,44,56,84,21,69,112,3,0 // vandps 0x37045(%rip){1to8},%ymm10,%ymm10 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> + .byte 98,113,44,56,86,21,155,111,3,0 // vorps 0x36f9b(%rip){1to8},%ymm10,%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 98,114,45,56,188,53,57,112,3,0 // vfnmadd231ps 0x37039(%rip){1to8},%ymm10,%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354> + .byte 98,113,44,56,88,21,51,112,3,0 // vaddps 0x37033(%rip){1to8},%ymm10,%ymm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358> + .byte 196,98,125,24,45,46,112,3,0 // vbroadcastss 0x3702e(%rip),%ymm13 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10 .byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10 .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2 .byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10 .byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10 - .byte 98,241,108,56,88,21,4,103,3,0 // vaddps 0x36704(%rip){1to8},%ymm2,%ymm2 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360> - .byte 98,242,45,56,188,21,254,102,3,0 // vfnmadd231ps 0x366fe(%rip){1to8},%ymm10,%ymm2 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364> - .byte 196,98,125,24,45,249,102,3,0 // vbroadcastss 0x366f9(%rip),%ymm13 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368> + .byte 98,241,108,56,88,21,14,112,3,0 // vaddps 0x3700e(%rip){1to8},%ymm2,%ymm2 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360> + .byte 98,242,45,56,188,21,8,112,3,0 // vfnmadd231ps 0x37008(%rip){1to8},%ymm10,%ymm2 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364> + .byte 196,98,125,24,45,3,112,3,0 // vbroadcastss 0x37003(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368> .byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10 - .byte 196,98,125,24,45,239,102,3,0 // vbroadcastss 0x366ef(%rip),%ymm13 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> + .byte 196,98,125,24,45,249,111,3,0 // vbroadcastss 0x36ff9(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10 .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2 - .byte 98,241,108,56,89,21,223,102,3,0 // vmulps 0x366df(%rip){1to8},%ymm2,%ymm2 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370> + .byte 98,241,108,56,89,21,233,111,3,0 // vmulps 0x36fe9(%rip){1to8},%ymm2,%ymm2 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370> .byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2 .byte 196,195,109,74,211,192 // vblendvps %ymm12,%ymm11,%ymm2,%ymm2 .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10 .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2 .byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2 .byte 196,193,108,95,211 // vmaxps %ymm11,%ymm2,%ymm2 - .byte 98,241,108,56,93,21,245,101,3,0 // vminps 0x365f5(%rip){1to8},%ymm2,%ymm2 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 98,241,108,56,93,21,255,110,3,0 // vminps 0x36eff(%rip){1to8},%ymm2,%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -3079,33 +3127,33 @@ _sk_parametric_a_skx: .byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0 .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12 .byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13 - .byte 196,98,125,24,53,58,102,3,0 // vbroadcastss 0x3663a(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348> - .byte 98,114,21,56,168,53,56,102,3,0 // vfmadd213ps 0x36638(%rip){1to8},%ymm13,%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350> - .byte 98,113,44,56,84,21,42,102,3,0 // vandps 0x3662a(%rip){1to8},%ymm10,%ymm10 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> - .byte 98,113,44,56,86,21,128,101,3,0 // vorps 0x36580(%rip){1to8},%ymm10,%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> - .byte 98,114,45,56,188,53,30,102,3,0 // vfnmadd231ps 0x3661e(%rip){1to8},%ymm10,%ymm14 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354> - .byte 98,113,44,56,88,21,24,102,3,0 // vaddps 0x36618(%rip){1to8},%ymm10,%ymm10 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358> - .byte 196,98,125,24,45,19,102,3,0 // vbroadcastss 0x36613(%rip),%ymm13 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> + .byte 196,98,125,24,53,68,111,3,0 // vbroadcastss 0x36f44(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348> + .byte 98,114,21,56,168,53,66,111,3,0 // vfmadd213ps 0x36f42(%rip){1to8},%ymm13,%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350> + .byte 98,113,44,56,84,21,52,111,3,0 // vandps 0x36f34(%rip){1to8},%ymm10,%ymm10 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> + .byte 98,113,44,56,86,21,138,110,3,0 // vorps 0x36e8a(%rip){1to8},%ymm10,%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 98,114,45,56,188,53,40,111,3,0 // vfnmadd231ps 0x36f28(%rip){1to8},%ymm10,%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354> + .byte 98,113,44,56,88,21,34,111,3,0 // vaddps 0x36f22(%rip){1to8},%ymm10,%ymm10 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358> + .byte 196,98,125,24,45,29,111,3,0 // vbroadcastss 0x36f1d(%rip),%ymm13 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10 .byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10 .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3 .byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10 .byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10 - .byte 98,241,100,56,88,29,243,101,3,0 // vaddps 0x365f3(%rip){1to8},%ymm3,%ymm3 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360> - .byte 98,242,45,56,188,29,237,101,3,0 // vfnmadd231ps 0x365ed(%rip){1to8},%ymm10,%ymm3 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364> - .byte 196,98,125,24,45,232,101,3,0 // vbroadcastss 0x365e8(%rip),%ymm13 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368> + .byte 98,241,100,56,88,29,253,110,3,0 // vaddps 0x36efd(%rip){1to8},%ymm3,%ymm3 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360> + .byte 98,242,45,56,188,29,247,110,3,0 // vfnmadd231ps 0x36ef7(%rip){1to8},%ymm10,%ymm3 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364> + .byte 196,98,125,24,45,242,110,3,0 // vbroadcastss 0x36ef2(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368> .byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10 - .byte 196,98,125,24,45,222,101,3,0 // vbroadcastss 0x365de(%rip),%ymm13 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> + .byte 196,98,125,24,45,232,110,3,0 // vbroadcastss 0x36ee8(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10 .byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3 - .byte 98,241,100,56,89,29,206,101,3,0 // vmulps 0x365ce(%rip){1to8},%ymm3,%ymm3 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370> + .byte 98,241,100,56,89,29,216,110,3,0 // vmulps 0x36ed8(%rip){1to8},%ymm3,%ymm3 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370> .byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3 .byte 196,195,101,74,219,192 // vblendvps %ymm12,%ymm11,%ymm3,%ymm3 .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10 .byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3 .byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3 .byte 196,193,100,95,219 // vmaxps %ymm11,%ymm3,%ymm3 - .byte 98,241,100,56,93,29,228,100,3,0 // vminps 0x364e4(%rip){1to8},%ymm3,%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 98,241,100,56,93,29,238,109,3,0 // vminps 0x36dee(%rip){1to8},%ymm3,%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -3119,34 +3167,34 @@ _sk_gamma_skx: .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7 .byte 98,241,124,40,194,199,0 // vcmpeqps %ymm7,%ymm0,%k0 .byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10 - .byte 196,98,125,24,29,82,101,3,0 // vbroadcastss 0x36552(%rip),%ymm11 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348> - .byte 196,98,125,24,37,77,101,3,0 // vbroadcastss 0x3654d(%rip),%ymm12 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> + .byte 196,98,125,24,29,92,110,3,0 // vbroadcastss 0x36e5c(%rip),%ymm11 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348> + .byte 196,98,125,24,37,87,110,3,0 // vbroadcastss 0x36e57(%rip),%ymm12 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> .byte 196,193,124,84,196 // vandps %ymm12,%ymm0,%ymm0 - .byte 196,98,125,24,45,159,100,3,0 // vbroadcastss 0x3649f(%rip),%ymm13 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,45,169,109,3,0 // vbroadcastss 0x36da9(%rip),%ymm13 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,193,124,86,197 // vorps %ymm13,%ymm0,%ymm0 - .byte 196,98,125,24,53,53,101,3,0 // vbroadcastss 0x36535(%rip),%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350> + .byte 196,98,125,24,53,63,110,3,0 // vbroadcastss 0x36e3f(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350> .byte 196,66,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm10 - .byte 196,98,125,24,61,43,101,3,0 // vbroadcastss 0x3652b(%rip),%ymm15 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354> + .byte 196,98,125,24,61,53,110,3,0 // vbroadcastss 0x36e35(%rip),%ymm15 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354> .byte 196,66,125,188,215 // vfnmadd231ps %ymm15,%ymm0,%ymm10 - .byte 98,226,125,40,24,5,32,101,3,0 // vbroadcastss 0x36520(%rip),%ymm16 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358> + .byte 98,226,125,40,24,5,42,110,3,0 // vbroadcastss 0x36e2a(%rip),%ymm16 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358> .byte 98,177,124,40,88,192 // vaddps %ymm16,%ymm0,%ymm0 - .byte 98,226,125,40,24,13,20,101,3,0 // vbroadcastss 0x36514(%rip),%ymm17 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> + .byte 98,226,125,40,24,13,30,110,3,0 // vbroadcastss 0x36e1e(%rip),%ymm17 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> .byte 98,241,116,32,94,192 // vdivps %ymm0,%ymm17,%ymm0 .byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0 .byte 98,177,124,40,89,194 // vmulps %ymm18,%ymm0,%ymm0 .byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10 .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9 .byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10 - .byte 98,226,125,40,24,29,237,100,3,0 // vbroadcastss 0x364ed(%rip),%ymm19 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360> + .byte 98,226,125,40,24,29,247,109,3,0 // vbroadcastss 0x36df7(%rip),%ymm19 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360> .byte 98,177,124,40,88,195 // vaddps %ymm19,%ymm0,%ymm0 - .byte 98,226,125,40,24,37,225,100,3,0 // vbroadcastss 0x364e1(%rip),%ymm20 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364> + .byte 98,226,125,40,24,37,235,109,3,0 // vbroadcastss 0x36deb(%rip),%ymm20 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364> .byte 98,178,45,40,188,196 // vfnmadd231ps %ymm20,%ymm10,%ymm0 - .byte 98,226,125,40,24,45,213,100,3,0 // vbroadcastss 0x364d5(%rip),%ymm21 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368> + .byte 98,226,125,40,24,45,223,109,3,0 // vbroadcastss 0x36ddf(%rip),%ymm21 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368> .byte 98,81,84,32,92,210 // vsubps %ymm10,%ymm21,%ymm10 - .byte 98,226,125,40,24,53,201,100,3,0 // vbroadcastss 0x364c9(%rip),%ymm22 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> + .byte 98,226,125,40,24,53,211,109,3,0 // vbroadcastss 0x36dd3(%rip),%ymm22 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> .byte 98,81,76,32,94,210 // vdivps %ymm10,%ymm22,%ymm10 .byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0 - .byte 196,98,125,24,21,185,100,3,0 // vbroadcastss 0x364b9(%rip),%ymm10 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370> + .byte 196,98,125,24,21,195,109,3,0 // vbroadcastss 0x36dc3(%rip),%ymm10 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370> .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0 .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 .byte 196,227,125,74,199,144 // vblendvps %ymm9,%ymm7,%ymm0,%ymm0 @@ -3206,34 +3254,34 @@ _sk_gamma_dst_skx: .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7 .byte 98,241,92,40,194,199,0 // vcmpeqps %ymm7,%ymm4,%k0 .byte 197,124,91,212 // vcvtdq2ps %ymm4,%ymm10 - .byte 196,98,125,24,29,104,99,3,0 // vbroadcastss 0x36368(%rip),%ymm11 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348> - .byte 196,98,125,24,37,99,99,3,0 // vbroadcastss 0x36363(%rip),%ymm12 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> + .byte 196,98,125,24,29,114,108,3,0 // vbroadcastss 0x36c72(%rip),%ymm11 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348> + .byte 196,98,125,24,37,109,108,3,0 // vbroadcastss 0x36c6d(%rip),%ymm12 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> .byte 196,193,92,84,228 // vandps %ymm12,%ymm4,%ymm4 - .byte 196,98,125,24,45,181,98,3,0 // vbroadcastss 0x362b5(%rip),%ymm13 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,45,191,107,3,0 // vbroadcastss 0x36bbf(%rip),%ymm13 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,193,92,86,229 // vorps %ymm13,%ymm4,%ymm4 - .byte 196,98,125,24,53,75,99,3,0 // vbroadcastss 0x3634b(%rip),%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350> + .byte 196,98,125,24,53,85,108,3,0 // vbroadcastss 0x36c55(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350> .byte 196,66,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm10 - .byte 196,98,125,24,61,65,99,3,0 // vbroadcastss 0x36341(%rip),%ymm15 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354> + .byte 196,98,125,24,61,75,108,3,0 // vbroadcastss 0x36c4b(%rip),%ymm15 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354> .byte 196,66,93,188,215 // vfnmadd231ps %ymm15,%ymm4,%ymm10 - .byte 98,226,125,40,24,5,54,99,3,0 // vbroadcastss 0x36336(%rip),%ymm16 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358> + .byte 98,226,125,40,24,5,64,108,3,0 // vbroadcastss 0x36c40(%rip),%ymm16 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358> .byte 98,177,92,40,88,224 // vaddps %ymm16,%ymm4,%ymm4 - .byte 98,226,125,40,24,13,42,99,3,0 // vbroadcastss 0x3632a(%rip),%ymm17 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> + .byte 98,226,125,40,24,13,52,108,3,0 // vbroadcastss 0x36c34(%rip),%ymm17 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> .byte 98,241,116,32,94,228 // vdivps %ymm4,%ymm17,%ymm4 .byte 197,172,92,228 // vsubps %ymm4,%ymm10,%ymm4 .byte 98,177,92,40,89,226 // vmulps %ymm18,%ymm4,%ymm4 .byte 196,99,125,8,212,1 // vroundps $0x1,%ymm4,%ymm10 .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9 .byte 196,65,92,92,210 // vsubps %ymm10,%ymm4,%ymm10 - .byte 98,226,125,40,24,29,3,99,3,0 // vbroadcastss 0x36303(%rip),%ymm19 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360> + .byte 98,226,125,40,24,29,13,108,3,0 // vbroadcastss 0x36c0d(%rip),%ymm19 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360> .byte 98,177,92,40,88,227 // vaddps %ymm19,%ymm4,%ymm4 - .byte 98,226,125,40,24,37,247,98,3,0 // vbroadcastss 0x362f7(%rip),%ymm20 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364> + .byte 98,226,125,40,24,37,1,108,3,0 // vbroadcastss 0x36c01(%rip),%ymm20 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364> .byte 98,178,45,40,188,228 // vfnmadd231ps %ymm20,%ymm10,%ymm4 - .byte 98,226,125,40,24,45,235,98,3,0 // vbroadcastss 0x362eb(%rip),%ymm21 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368> + .byte 98,226,125,40,24,45,245,107,3,0 // vbroadcastss 0x36bf5(%rip),%ymm21 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368> .byte 98,81,84,32,92,210 // vsubps %ymm10,%ymm21,%ymm10 - .byte 98,226,125,40,24,53,223,98,3,0 // vbroadcastss 0x362df(%rip),%ymm22 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> + .byte 98,226,125,40,24,53,233,107,3,0 // vbroadcastss 0x36be9(%rip),%ymm22 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> .byte 98,81,76,32,94,210 // vdivps %ymm10,%ymm22,%ymm10 .byte 196,193,92,88,226 // vaddps %ymm10,%ymm4,%ymm4 - .byte 196,98,125,24,21,207,98,3,0 // vbroadcastss 0x362cf(%rip),%ymm10 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370> + .byte 196,98,125,24,21,217,107,3,0 // vbroadcastss 0x36bd9(%rip),%ymm10 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370> .byte 196,193,92,89,226 // vmulps %ymm10,%ymm4,%ymm4 .byte 197,253,91,228 // vcvtps2dq %ymm4,%ymm4 .byte 196,227,93,74,231,144 // vblendvps %ymm9,%ymm7,%ymm4,%ymm4 @@ -3287,23 +3335,23 @@ HIDDEN _sk_lab_to_xyz_skx .globl _sk_lab_to_xyz_skx FUNCTION(_sk_lab_to_xyz_skx) _sk_lab_to_xyz_skx: - .byte 196,98,125,24,5,199,97,3,0 // vbroadcastss 0x361c7(%rip),%ymm8 # 398c8 <_sk_srcover_bgra_8888_sse2_lowp+0x374> - .byte 196,98,125,24,13,38,97,3,0 // vbroadcastss 0x36126(%rip),%ymm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,98,125,24,21,185,97,3,0 // vbroadcastss 0x361b9(%rip),%ymm10 # 398cc <_sk_srcover_bgra_8888_sse2_lowp+0x378> + .byte 196,98,125,24,5,209,106,3,0 // vbroadcastss 0x36ad1(%rip),%ymm8 # 3a2dc <_sk_srcover_bgra_8888_sse2_lowp+0x374> + .byte 196,98,125,24,13,48,106,3,0 // vbroadcastss 0x36a30(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,98,125,24,21,195,106,3,0 // vbroadcastss 0x36ac3(%rip),%ymm10 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x378> .byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1 .byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2 - .byte 98,114,125,56,168,5,169,97,3,0 // vfmadd213ps 0x361a9(%rip){1to8},%ymm0,%ymm8 # 398d0 <_sk_srcover_bgra_8888_sse2_lowp+0x37c> - .byte 98,241,60,56,89,5,163,97,3,0 // vmulps 0x361a3(%rip){1to8},%ymm8,%ymm0 # 398d4 <_sk_srcover_bgra_8888_sse2_lowp+0x380> - .byte 98,242,125,56,152,13,157,97,3,0 // vfmadd132ps 0x3619d(%rip){1to8},%ymm0,%ymm1 # 398d8 <_sk_srcover_bgra_8888_sse2_lowp+0x384> - .byte 98,242,125,56,156,21,151,97,3,0 // vfnmadd132ps 0x36197(%rip){1to8},%ymm0,%ymm2 # 398dc <_sk_srcover_bgra_8888_sse2_lowp+0x388> + .byte 98,114,125,56,168,5,179,106,3,0 // vfmadd213ps 0x36ab3(%rip){1to8},%ymm0,%ymm8 # 3a2e4 <_sk_srcover_bgra_8888_sse2_lowp+0x37c> + .byte 98,241,60,56,89,5,173,106,3,0 // vmulps 0x36aad(%rip){1to8},%ymm8,%ymm0 # 3a2e8 <_sk_srcover_bgra_8888_sse2_lowp+0x380> + .byte 98,242,125,56,152,13,167,106,3,0 // vfmadd132ps 0x36aa7(%rip){1to8},%ymm0,%ymm1 # 3a2ec <_sk_srcover_bgra_8888_sse2_lowp+0x384> + .byte 98,242,125,56,156,21,161,106,3,0 // vfnmadd132ps 0x36aa1(%rip){1to8},%ymm0,%ymm2 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x388> .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8 .byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8 - .byte 196,98,125,24,13,137,97,3,0 // vbroadcastss 0x36189(%rip),%ymm9 # 398e0 <_sk_srcover_bgra_8888_sse2_lowp+0x38c> + .byte 196,98,125,24,13,147,106,3,0 // vbroadcastss 0x36a93(%rip),%ymm9 # 3a2f4 <_sk_srcover_bgra_8888_sse2_lowp+0x38c> .byte 98,209,52,40,194,192,1 // vcmpltps %ymm8,%ymm9,%k0 .byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10 - .byte 196,98,125,24,29,119,97,3,0 // vbroadcastss 0x36177(%rip),%ymm11 # 398e4 <_sk_srcover_bgra_8888_sse2_lowp+0x390> + .byte 196,98,125,24,29,129,106,3,0 // vbroadcastss 0x36a81(%rip),%ymm11 # 3a2f8 <_sk_srcover_bgra_8888_sse2_lowp+0x390> .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1 - .byte 196,98,125,24,37,109,97,3,0 // vbroadcastss 0x3616d(%rip),%ymm12 # 398e8 <_sk_srcover_bgra_8888_sse2_lowp+0x394> + .byte 196,98,125,24,37,119,106,3,0 // vbroadcastss 0x36a77(%rip),%ymm12 # 3a2fc <_sk_srcover_bgra_8888_sse2_lowp+0x394> .byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1 .byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8 .byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1 @@ -3320,8 +3368,8 @@ _sk_lab_to_xyz_skx: .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2 .byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2 .byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2 - .byte 98,241,60,56,89,5,18,97,3,0 // vmulps 0x36112(%rip){1to8},%ymm8,%ymm0 # 398ec <_sk_srcover_bgra_8888_sse2_lowp+0x398> - .byte 98,241,108,56,89,21,12,97,3,0 // vmulps 0x3610c(%rip){1to8},%ymm2,%ymm2 # 398f0 <_sk_srcover_bgra_8888_sse2_lowp+0x39c> + .byte 98,241,60,56,89,5,28,106,3,0 // vmulps 0x36a1c(%rip){1to8},%ymm8,%ymm0 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0x398> + .byte 98,241,108,56,89,21,22,106,3,0 // vmulps 0x36a16(%rip){1to8},%ymm2,%ymm2 # 3a304 <_sk_srcover_bgra_8888_sse2_lowp+0x39c> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -3336,12 +3384,12 @@ _sk_load_a8_skx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,49 // jne 3831 <_sk_load_a8_skx+0x49> + .byte 117,49 // jne 393b <_sk_load_a8_skx+0x49> .byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0 - .byte 197,249,219,5,194,104,3,0 // vpand 0x368c2(%rip),%xmm0,%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,249,219,5,216,113,3,0 // vpand 0x371d8(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 98,241,124,56,89,29,91,96,3,0 // vmulps 0x3605b(%rip){1to8},%ymm0,%ymm3 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 98,241,124,56,89,29,101,105,3,0 // vmulps 0x36965(%rip){1to8},%ymm0,%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1 @@ -3352,15 +3400,15 @@ _sk_load_a8_skx: .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,192 // ja 3806 <_sk_load_a8_skx+0x1e> + .byte 119,192 // ja 3910 <_sk_load_a8_skx+0x1e> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 38d4 <_sk_load_a8_skx+0xec> + .byte 76,141,21,133,0,0,0 // lea 0x85(%rip),%r10 # 39e0 <_sk_load_a8_skx+0xee> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 235,161 // jmp 3806 <_sk_load_a8_skx+0x1e> + .byte 235,161 // jmp 3910 <_sk_load_a8_skx+0x1e> .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0 @@ -3368,7 +3416,7 @@ _sk_load_a8_skx: .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1 .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1 .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0 - .byte 233,119,255,255,255 // jmpq 3806 <_sk_load_a8_skx+0x1e> + .byte 233,119,255,255,255 // jmpq 3910 <_sk_load_a8_skx+0x1e> .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0 @@ -3381,23 +3429,24 @@ _sk_load_a8_skx: .byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1 .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1 .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0 - .byte 233,50,255,255,255 // jmpq 3806 <_sk_load_a8_skx+0x1e> - .byte 134,255 // xchg %bh,%bh + .byte 233,50,255,255,255 // jmpq 3910 <_sk_load_a8_skx+0x1e> + .byte 102,144 // xchg %ax,%ax + .byte 132,255 // test %bh,%bh .byte 255 // (bad) - .byte 255,160,255,255,255,145 // jmpq *-0x6e000001(%rax) + .byte 255,158,255,255,255,143 // lcall *-0x70000001(%rsi) .byte 255 // (bad) .byte 255 // (bad) - .byte 255,224 // jmpq *%rax .byte 255 // (bad) + .byte 222,255 // fdivrp %st,%st(7) .byte 255 // (bad) - .byte 255,213 // callq *%rbp + .byte 255,211 // callq *%rbx .byte 255 // (bad) .byte 255 // (bad) - .byte 255,202 // dec %edx + .byte 255,200 // dec %eax .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 187 // .byte 0xbb + .byte 185 // .byte 0xb9 .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -3413,12 +3462,12 @@ _sk_load_a8_dst_skx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,49 // jne 3939 <_sk_load_a8_dst_skx+0x49> + .byte 117,49 // jne 3a45 <_sk_load_a8_dst_skx+0x49> .byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4 - .byte 197,217,219,37,186,103,3,0 // vpand 0x367ba(%rip),%xmm4,%xmm4 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,217,219,37,206,112,3,0 // vpand 0x370ce(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 98,241,92,56,89,61,83,95,3,0 // vmulps 0x35f53(%rip){1to8},%ymm4,%ymm7 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 98,241,92,56,89,61,91,104,3,0 // vmulps 0x3685b(%rip){1to8},%ymm4,%ymm7 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -3429,15 +3478,15 @@ _sk_load_a8_dst_skx: .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,192 // ja 390e <_sk_load_a8_dst_skx+0x1e> + .byte 119,192 // ja 3a1a <_sk_load_a8_dst_skx+0x1e> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 39dc <_sk_load_a8_dst_skx+0xec> + .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 3ae8 <_sk_load_a8_dst_skx+0xec> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 - .byte 235,161 // jmp 390e <_sk_load_a8_dst_skx+0x1e> + .byte 235,161 // jmp 3a1a <_sk_load_a8_dst_skx+0x1e> .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4 @@ -3445,7 +3494,7 @@ _sk_load_a8_dst_skx: .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5 .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5 .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4 - .byte 233,119,255,255,255 // jmpq 390e <_sk_load_a8_dst_skx+0x1e> + .byte 233,119,255,255,255 // jmpq 3a1a <_sk_load_a8_dst_skx+0x1e> .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4 @@ -3458,7 +3507,7 @@ _sk_load_a8_dst_skx: .byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5 .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5 .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4 - .byte 233,50,255,255,255 // jmpq 390e <_sk_load_a8_dst_skx+0x1e> + .byte 233,50,255,255,255 // jmpq 3a1a <_sk_load_a8_dst_skx+0x1e> .byte 134,255 // xchg %bh,%bh .byte 255 // (bad) .byte 255,160,255,255,255,145 // jmpq *-0x6e000001(%rax) @@ -3534,7 +3583,7 @@ _sk_gather_a8_skx: .byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0 .byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 98,241,124,56,89,29,150,93,3,0 // vmulps 0x35d96(%rip){1to8},%ymm0,%ymm3 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 98,241,124,56,89,29,158,102,3,0 // vmulps 0x3669e(%rip){1to8},%ymm0,%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1 @@ -3555,13 +3604,16 @@ _sk_store_a8_skx: .byte 77,15,175,193 // imul %r9,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 - .byte 98,113,100,56,89,5,22,93,3,0 // vmulps 0x35d16(%rip){1to8},%ymm3,%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 98,113,60,56,93,5,233,101,3,0 // vminps 0x365e9(%rip){1to8},%ymm8,%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 98,113,60,56,89,5,11,102,3,0 // vmulps 0x3660b(%rip){1to8},%ymm8,%ymm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8 .byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne 3b3d <_sk_store_a8_skx+0x40> + .byte 117,10 // jne 3c5c <_sk_store_a8_skx+0x53> .byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -3569,43 +3621,41 @@ _sk_store_a8_skx: .byte 65,128,225,7 // and $0x7,%r9b .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,235 // ja 3b39 <_sk_store_a8_skx+0x3c> + .byte 119,235 // ja 3c58 <_sk_store_a8_skx+0x4f> .byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8 .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,78,0,0,0 // lea 0x4e(%rip),%r10 # 3bac <_sk_store_a8_skx+0xaf> + .byte 76,141,21,79,0,0,0 // lea 0x4f(%rip),%r10 # 3ccc <_sk_store_a8_skx+0xc3> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1) - .byte 235,201 // jmp 3b39 <_sk_store_a8_skx+0x3c> + .byte 235,201 // jmp 3c58 <_sk_store_a8_skx+0x4f> .byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1) .byte 196,66,121,49,192 // vpmovzxbd %xmm8,%xmm8 .byte 98,18,126,8,50,4,24 // vpmovqb %xmm8,(%r8,%r11,1) - .byte 235,179 // jmp 3b39 <_sk_store_a8_skx+0x3c> + .byte 235,179 // jmp 3c58 <_sk_store_a8_skx+0x4f> .byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1) .byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1) .byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1) .byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8 .byte 98,18,126,8,49,4,24 // vpmovdb %xmm8,(%r8,%r11,1) - .byte 235,141 // jmp 3b39 <_sk_store_a8_skx+0x3c> - .byte 187,255,255,255,204 // mov $0xccffffff,%ebx + .byte 235,141 // jmp 3c58 <_sk_store_a8_skx+0x4f> + .byte 144 // nop + .byte 186,255,255,255,203 // mov $0xcbffffff,%edx .byte 255 // (bad) .byte 255 // (bad) - .byte 255,196 // inc %esp + .byte 255,195 // inc %ebx .byte 255 // (bad) .byte 255 // (bad) - .byte 255,242 // push %rdx + .byte 255,241 // push %rcx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 234 // (bad) + .byte 233,255,255,255,225 // jmpq ffffffffe2003ce0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe1fc9d78> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,226 // jmpq *%rdx .byte 255 // (bad) - .byte 255 // (bad) - .byte 255 // (bad) - .byte 218,255 // (bad) + .byte 217,255 // fcos .byte 255 // (bad) .byte 255 // .byte 0xff @@ -3620,14 +3670,14 @@ _sk_load_g8_skx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,54 // jne 3c16 <_sk_load_g8_skx+0x4e> + .byte 117,54 // jne 3d36 <_sk_load_g8_skx+0x4e> .byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0 - .byte 197,249,219,5,226,100,3,0 // vpand 0x364e2(%rip),%xmm0,%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,249,219,5,226,109,3,0 // vpand 0x36de2(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 98,241,124,56,89,5,123,92,3,0 // vmulps 0x35c7b(%rip){1to8},%ymm0,%ymm0 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 98,241,124,56,89,5,111,101,3,0 // vmulps 0x3656f(%rip){1to8},%ymm0,%ymm0 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,248,91,3,0 // vbroadcastss 0x35bf8(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,236,100,3,0 // vbroadcastss 0x364ec(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 255,224 // jmpq *%rax @@ -3636,15 +3686,15 @@ _sk_load_g8_skx: .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,187 // ja 3be6 <_sk_load_g8_skx+0x1e> + .byte 119,187 // ja 3d06 <_sk_load_g8_skx+0x1e> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3cbc <_sk_load_g8_skx+0xf4> + .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3ddc <_sk_load_g8_skx+0xf4> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 235,156 // jmp 3be6 <_sk_load_g8_skx+0x1e> + .byte 235,156 // jmp 3d06 <_sk_load_g8_skx+0x1e> .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0 @@ -3652,7 +3702,7 @@ _sk_load_g8_skx: .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1 .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1 .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0 - .byte 233,114,255,255,255 // jmpq 3be6 <_sk_load_g8_skx+0x1e> + .byte 233,114,255,255,255 // jmpq 3d06 <_sk_load_g8_skx+0x1e> .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0 @@ -3665,7 +3715,7 @@ _sk_load_g8_skx: .byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1 .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1 .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0 - .byte 233,45,255,255,255 // jmpq 3be6 <_sk_load_g8_skx+0x1e> + .byte 233,45,255,255,255 // jmpq 3d06 <_sk_load_g8_skx+0x1e> .byte 15,31,0 // nopl (%rax) .byte 131,255,255 // cmp $0xffffffff,%edi .byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp) @@ -3697,14 +3747,14 @@ _sk_load_g8_dst_skx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,54 // jne 3d26 <_sk_load_g8_dst_skx+0x4e> + .byte 117,54 // jne 3e46 <_sk_load_g8_dst_skx+0x4e> .byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4 - .byte 197,217,219,37,210,99,3,0 // vpand 0x363d2(%rip),%xmm4,%xmm4 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,217,219,37,210,108,3,0 // vpand 0x36cd2(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 98,241,92,56,89,37,107,91,3,0 // vmulps 0x35b6b(%rip){1to8},%ymm4,%ymm4 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 98,241,92,56,89,37,95,100,3,0 // vmulps 0x3645f(%rip){1to8},%ymm4,%ymm4 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,61,232,90,3,0 // vbroadcastss 0x35ae8(%rip),%ymm7 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,61,220,99,3,0 // vbroadcastss 0x363dc(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,40,236 // vmovaps %ymm4,%ymm5 .byte 197,252,40,244 // vmovaps %ymm4,%ymm6 .byte 255,224 // jmpq *%rax @@ -3713,15 +3763,15 @@ _sk_load_g8_dst_skx: .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,187 // ja 3cf6 <_sk_load_g8_dst_skx+0x1e> + .byte 119,187 // ja 3e16 <_sk_load_g8_dst_skx+0x1e> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3dcc <_sk_load_g8_dst_skx+0xf4> + .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3eec <_sk_load_g8_dst_skx+0xf4> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 - .byte 235,156 // jmp 3cf6 <_sk_load_g8_dst_skx+0x1e> + .byte 235,156 // jmp 3e16 <_sk_load_g8_dst_skx+0x1e> .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4 @@ -3729,7 +3779,7 @@ _sk_load_g8_dst_skx: .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5 .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5 .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4 - .byte 233,114,255,255,255 // jmpq 3cf6 <_sk_load_g8_dst_skx+0x1e> + .byte 233,114,255,255,255 // jmpq 3e16 <_sk_load_g8_dst_skx+0x1e> .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4 @@ -3742,7 +3792,7 @@ _sk_load_g8_dst_skx: .byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5 .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5 .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4 - .byte 233,45,255,255,255 // jmpq 3cf6 <_sk_load_g8_dst_skx+0x1e> + .byte 233,45,255,255,255 // jmpq 3e16 <_sk_load_g8_dst_skx+0x1e> .byte 15,31,0 // nopl (%rax) .byte 131,255,255 // cmp $0xffffffff,%edi .byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp) @@ -3818,9 +3868,9 @@ _sk_gather_g8_skx: .byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0 .byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 98,241,124,56,89,5,166,89,3,0 // vmulps 0x359a6(%rip){1to8},%ymm0,%ymm0 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 98,241,124,56,89,5,154,98,3,0 // vmulps 0x3629a(%rip){1to8},%ymm0,%ymm0 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,35,89,3,0 // vbroadcastss 0x35923(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,23,98,3,0 // vbroadcastss 0x36217(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 91 // pop %rbx @@ -3841,42 +3891,42 @@ _sk_load_565_skx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,96 // jne 3f6d <_sk_load_565_skx+0x7b> + .byte 117,96 // jne 408d <_sk_load_565_skx+0x7b> .byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0 .byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2 - .byte 98,241,109,56,219,5,94,89,3,0 // vpandd 0x3595e(%rip){1to8},%ymm2,%ymm0 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> + .byte 98,241,109,56,219,5,82,98,3,0 // vpandd 0x36252(%rip){1to8},%ymm2,%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 98,241,124,56,89,5,84,89,3,0 // vmulps 0x35954(%rip){1to8},%ymm0,%ymm0 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330> - .byte 98,241,109,56,219,13,78,89,3,0 // vpandd 0x3594e(%rip){1to8},%ymm2,%ymm1 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334> + .byte 98,241,124,56,89,5,72,98,3,0 // vmulps 0x36248(%rip){1to8},%ymm0,%ymm0 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330> + .byte 98,241,109,56,219,13,66,98,3,0 // vpandd 0x36242(%rip){1to8},%ymm2,%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334> .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 - .byte 98,241,116,56,89,13,68,89,3,0 // vmulps 0x35944(%rip){1to8},%ymm1,%ymm1 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338> - .byte 98,241,109,56,219,21,62,89,3,0 // vpandd 0x3593e(%rip){1to8},%ymm2,%ymm2 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> + .byte 98,241,116,56,89,13,56,98,3,0 // vmulps 0x36238(%rip){1to8},%ymm1,%ymm1 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338> + .byte 98,241,109,56,219,21,50,98,3,0 // vpandd 0x36232(%rip){1to8},%ymm2,%ymm2 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 - .byte 98,241,108,56,89,21,52,89,3,0 // vmulps 0x35934(%rip){1to8},%ymm2,%ymm2 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340> + .byte 98,241,108,56,89,21,40,98,3,0 // vmulps 0x36228(%rip){1to8},%ymm2,%ymm2 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,153,88,3,0 // vbroadcastss 0x35899(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,141,97,3,0 // vbroadcastss 0x3618d(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,7 // and $0x7,%r9b .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,145 // ja 3f13 <_sk_load_565_skx+0x21> + .byte 119,145 // ja 4033 <_sk_load_565_skx+0x21> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 4008 <_sk_load_565_skx+0x116> + .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 4128 <_sk_load_565_skx+0x116> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 233,111,255,255,255 // jmpq 3f13 <_sk_load_565_skx+0x21> + .byte 233,111,255,255,255 // jmpq 4033 <_sk_load_565_skx+0x21> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0 .byte 196,130,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm1 .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1 .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1 .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0 - .byte 233,72,255,255,255 // jmpq 3f13 <_sk_load_565_skx+0x21> + .byte 233,72,255,255,255 // jmpq 4033 <_sk_load_565_skx+0x21> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0 .byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0 @@ -3886,7 +3936,7 @@ _sk_load_565_skx: .byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1 .byte 197,249,112,201,132 // vpshufd $0x84,%xmm1,%xmm1 .byte 197,241,109,192 // vpunpckhqdq %xmm0,%xmm1,%xmm0 - .byte 233,14,255,255,255 // jmpq 3f13 <_sk_load_565_skx+0x21> + .byte 233,14,255,255,255 // jmpq 4033 <_sk_load_565_skx+0x21> .byte 15,31,0 // nopl (%rax) .byte 142,255 // mov %edi,%? .byte 255 // (bad) @@ -3919,42 +3969,42 @@ _sk_load_565_dst_skx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,96 // jne 409f <_sk_load_565_dst_skx+0x7b> + .byte 117,96 // jne 41bf <_sk_load_565_dst_skx+0x7b> .byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4 .byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6 - .byte 98,241,77,56,219,37,44,88,3,0 // vpandd 0x3582c(%rip){1to8},%ymm6,%ymm4 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> + .byte 98,241,77,56,219,37,32,97,3,0 // vpandd 0x36120(%rip){1to8},%ymm6,%ymm4 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 98,241,92,56,89,37,34,88,3,0 // vmulps 0x35822(%rip){1to8},%ymm4,%ymm4 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330> - .byte 98,241,77,56,219,45,28,88,3,0 // vpandd 0x3581c(%rip){1to8},%ymm6,%ymm5 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334> + .byte 98,241,92,56,89,37,22,97,3,0 // vmulps 0x36116(%rip){1to8},%ymm4,%ymm4 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330> + .byte 98,241,77,56,219,45,16,97,3,0 // vpandd 0x36110(%rip){1to8},%ymm6,%ymm5 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334> .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 - .byte 98,241,84,56,89,45,18,88,3,0 // vmulps 0x35812(%rip){1to8},%ymm5,%ymm5 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338> - .byte 98,241,77,56,219,53,12,88,3,0 // vpandd 0x3580c(%rip){1to8},%ymm6,%ymm6 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> + .byte 98,241,84,56,89,45,6,97,3,0 // vmulps 0x36106(%rip){1to8},%ymm5,%ymm5 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338> + .byte 98,241,77,56,219,53,0,97,3,0 // vpandd 0x36100(%rip){1to8},%ymm6,%ymm6 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6 - .byte 98,241,76,56,89,53,2,88,3,0 // vmulps 0x35802(%rip){1to8},%ymm6,%ymm6 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340> + .byte 98,241,76,56,89,53,246,96,3,0 // vmulps 0x360f6(%rip){1to8},%ymm6,%ymm6 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,61,103,87,3,0 // vbroadcastss 0x35767(%rip),%ymm7 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,61,91,96,3,0 // vbroadcastss 0x3605b(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,7 // and $0x7,%r9b .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,145 // ja 4045 <_sk_load_565_dst_skx+0x21> + .byte 119,145 // ja 4165 <_sk_load_565_dst_skx+0x21> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 4138 <_sk_load_565_dst_skx+0x114> + .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 4258 <_sk_load_565_dst_skx+0x114> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 - .byte 233,111,255,255,255 // jmpq 4045 <_sk_load_565_dst_skx+0x21> + .byte 233,111,255,255,255 // jmpq 4165 <_sk_load_565_dst_skx+0x21> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4 .byte 196,130,121,52,44,88 // vpmovzxwq (%r8,%r11,2),%xmm5 .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5 .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5 .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4 - .byte 233,72,255,255,255 // jmpq 4045 <_sk_load_565_dst_skx+0x21> + .byte 233,72,255,255,255 // jmpq 4165 <_sk_load_565_dst_skx+0x21> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4 .byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4 @@ -3964,7 +4014,7 @@ _sk_load_565_dst_skx: .byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5 .byte 197,249,112,237,132 // vpshufd $0x84,%xmm5,%xmm5 .byte 197,209,109,228 // vpunpckhqdq %xmm4,%xmm5,%xmm4 - .byte 233,14,255,255,255 // jmpq 4045 <_sk_load_565_dst_skx+0x21> + .byte 233,14,255,255,255 // jmpq 4165 <_sk_load_565_dst_skx+0x21> .byte 144 // nop .byte 144 // nop .byte 255 // (bad) @@ -4040,17 +4090,17 @@ _sk_gather_565_skx: .byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax .byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0 .byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2 - .byte 98,241,109,56,219,5,71,86,3,0 // vpandd 0x35647(%rip){1to8},%ymm2,%ymm0 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> + .byte 98,241,109,56,219,5,59,95,3,0 // vpandd 0x35f3b(%rip){1to8},%ymm2,%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 98,241,124,56,89,5,61,86,3,0 // vmulps 0x3563d(%rip){1to8},%ymm0,%ymm0 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330> - .byte 98,241,109,56,219,13,55,86,3,0 // vpandd 0x35637(%rip){1to8},%ymm2,%ymm1 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334> + .byte 98,241,124,56,89,5,49,95,3,0 // vmulps 0x35f31(%rip){1to8},%ymm0,%ymm0 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330> + .byte 98,241,109,56,219,13,43,95,3,0 // vpandd 0x35f2b(%rip){1to8},%ymm2,%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334> .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 - .byte 98,241,116,56,89,13,45,86,3,0 // vmulps 0x3562d(%rip){1to8},%ymm1,%ymm1 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338> - .byte 98,241,109,56,219,21,39,86,3,0 // vpandd 0x35627(%rip){1to8},%ymm2,%ymm2 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> + .byte 98,241,116,56,89,13,33,95,3,0 // vmulps 0x35f21(%rip){1to8},%ymm1,%ymm1 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338> + .byte 98,241,109,56,219,21,27,95,3,0 // vpandd 0x35f1b(%rip){1to8},%ymm2,%ymm2 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 - .byte 98,241,108,56,89,21,29,86,3,0 // vmulps 0x3561d(%rip){1to8},%ymm2,%ymm2 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340> + .byte 98,241,108,56,89,21,17,95,3,0 // vmulps 0x35f11(%rip){1to8},%ymm2,%ymm2 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,130,85,3,0 // vbroadcastss 0x35582(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,118,94,3,0 // vbroadcastss 0x35e76(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,94 // pop %r14 @@ -4068,21 +4118,29 @@ _sk_store_565_skx: .byte 77,1,192 // add %r8,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 - .byte 196,98,125,24,5,74,86,3,0 // vbroadcastss 0x3564a(%rip),%ymm8 # 398f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0> - .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9 + .byte 196,98,125,24,21,69,94,3,0 // vbroadcastss 0x35e45(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9 + .byte 196,98,125,24,29,39,95,3,0 // vbroadcastss 0x35f27(%rip),%ymm11 # 3a308 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0> + .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 .byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9 - .byte 98,113,116,56,89,21,52,86,3,0 // vmulps 0x35634(%rip){1to8},%ymm1,%ymm10 # 398f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4> - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,45,114,242,5 // vpslld $0x5,%ymm10,%ymm10 - .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9 - .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8 + .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 98,113,28,56,89,37,8,95,3,0 // vmulps 0x35f08(%rip){1to8},%ymm12,%ymm12 # 3a30c <_sk_srcover_bgra_8888_sse2_lowp+0x3a4> + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,29,114,244,5 // vpslld $0x5,%ymm12,%ymm12 + .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9 + .byte 197,60,95,194 // vmaxps %ymm2,%ymm8,%ymm8 + .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8 + .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne 42fd <_sk_store_565_skx+0x72> + .byte 117,10 // jne 4446 <_sk_store_565_skx+0x9b> .byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -4090,40 +4148,42 @@ _sk_store_565_skx: .byte 65,128,225,7 // and $0x7,%r9b .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,235 // ja 42f9 <_sk_store_565_skx+0x6e> + .byte 119,235 // ja 4442 <_sk_store_565_skx+0x97> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,79,0,0,0 // lea 0x4f(%rip),%r10 # 4368 <_sk_store_565_skx+0xdd> + .byte 76,141,21,78,0,0,0 // lea 0x4e(%rip),%r10 # 44b0 <_sk_store_565_skx+0x105> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2) - .byte 235,206 // jmp 42f9 <_sk_store_565_skx+0x6e> + .byte 235,206 // jmp 4442 <_sk_store_565_skx+0x97> .byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2) .byte 196,66,121,52,192 // vpmovzxwq %xmm8,%xmm8 .byte 98,18,126,8,52,4,88 // vpmovqw %xmm8,(%r8,%r11,2) - .byte 235,184 // jmp 42f9 <_sk_store_565_skx+0x6e> + .byte 235,184 // jmp 4442 <_sk_store_565_skx+0x97> .byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2) .byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2) .byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2) .byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8 .byte 98,18,126,8,51,4,88 // vpmovdw %xmm8,(%r8,%r11,2) - .byte 235,146 // jmp 42f9 <_sk_store_565_skx+0x6e> - .byte 144 // nop - .byte 186,255,255,255,203 // mov $0xcbffffff,%edx + .byte 235,146 // jmp 4442 <_sk_store_565_skx+0x97> + .byte 187,255,255,255,204 // mov $0xccffffff,%ebx .byte 255 // (bad) .byte 255 // (bad) - .byte 255,195 // inc %ebx + .byte 255,196 // inc %esp .byte 255 // (bad) .byte 255 // (bad) - .byte 255,241 // push %rcx + .byte 255,242 // push %rdx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 233,255,255,255,225 // jmpq ffffffffe200437c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe1fcae28> + .byte 234 // (bad) .byte 255 // (bad) .byte 255 // (bad) + .byte 255,226 // jmpq *%rdx .byte 255 // (bad) - .byte 217,255 // fcos + .byte 255 // (bad) + .byte 255 // (bad) + .byte 218,255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -4139,21 +4199,21 @@ _sk_load_4444_skx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,111 // jne 440e <_sk_load_4444_skx+0x8a> + .byte 117,111 // jne 4556 <_sk_load_4444_skx+0x8a> .byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0 .byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3 - .byte 98,241,101,56,219,5,72,85,3,0 // vpandd 0x35548(%rip){1to8},%ymm3,%ymm0 # 398fc <_sk_srcover_bgra_8888_sse2_lowp+0x3a8> + .byte 98,241,101,56,219,5,20,94,3,0 // vpandd 0x35e14(%rip){1to8},%ymm3,%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 98,241,124,56,89,5,62,85,3,0 // vmulps 0x3553e(%rip){1to8},%ymm0,%ymm0 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac> - .byte 98,241,101,56,219,13,56,85,3,0 // vpandd 0x35538(%rip){1to8},%ymm3,%ymm1 # 39904 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0> + .byte 98,241,124,56,89,5,10,94,3,0 // vmulps 0x35e0a(%rip){1to8},%ymm0,%ymm0 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac> + .byte 98,241,101,56,219,13,4,94,3,0 // vpandd 0x35e04(%rip){1to8},%ymm3,%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0> .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 - .byte 98,241,116,56,89,13,46,85,3,0 // vmulps 0x3552e(%rip){1to8},%ymm1,%ymm1 # 39908 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4> - .byte 98,241,101,56,219,21,40,85,3,0 // vpandd 0x35528(%rip){1to8},%ymm3,%ymm2 # 3990c <_sk_srcover_bgra_8888_sse2_lowp+0x3b8> + .byte 98,241,116,56,89,13,250,93,3,0 // vmulps 0x35dfa(%rip){1to8},%ymm1,%ymm1 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4> + .byte 98,241,101,56,219,21,244,93,3,0 // vpandd 0x35df4(%rip){1to8},%ymm3,%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8> .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 - .byte 98,241,108,56,89,21,30,85,3,0 // vmulps 0x3551e(%rip){1to8},%ymm2,%ymm2 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc> - .byte 98,241,101,56,219,29,24,85,3,0 // vpandd 0x35518(%rip){1to8},%ymm3,%ymm3 # 39914 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0> + .byte 98,241,108,56,89,21,234,93,3,0 // vmulps 0x35dea(%rip){1to8},%ymm2,%ymm2 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc> + .byte 98,241,101,56,219,29,228,93,3,0 // vpandd 0x35de4(%rip){1to8},%ymm3,%ymm3 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0> .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 - .byte 98,241,100,56,89,29,14,85,3,0 // vmulps 0x3550e(%rip){1to8},%ymm3,%ymm3 # 39918 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4> + .byte 98,241,100,56,89,29,218,93,3,0 // vmulps 0x35dda(%rip){1to8},%ymm3,%ymm3 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d @@ -4161,22 +4221,22 @@ _sk_load_4444_skx: .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,130 // ja 43a5 <_sk_load_4444_skx+0x21> + .byte 119,130 // ja 44ed <_sk_load_4444_skx+0x21> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 44a8 <_sk_load_4444_skx+0x124> + .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 45f0 <_sk_load_4444_skx+0x124> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 233,96,255,255,255 // jmpq 43a5 <_sk_load_4444_skx+0x21> + .byte 233,96,255,255,255 // jmpq 44ed <_sk_load_4444_skx+0x21> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0 .byte 196,130,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm1 .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1 .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1 .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0 - .byte 233,57,255,255,255 // jmpq 43a5 <_sk_load_4444_skx+0x21> + .byte 233,57,255,255,255 // jmpq 44ed <_sk_load_4444_skx+0x21> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0 .byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0 @@ -4186,7 +4246,7 @@ _sk_load_4444_skx: .byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1 .byte 197,249,112,201,132 // vpshufd $0x84,%xmm1,%xmm1 .byte 197,241,109,192 // vpunpckhqdq %xmm0,%xmm1,%xmm0 - .byte 233,255,254,255,255 // jmpq 43a5 <_sk_load_4444_skx+0x21> + .byte 233,255,254,255,255 // jmpq 44ed <_sk_load_4444_skx+0x21> .byte 102,144 // xchg %ax,%ax .byte 143 // (bad) .byte 255 // (bad) @@ -4220,21 +4280,21 @@ _sk_load_4444_dst_skx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,111 // jne 454e <_sk_load_4444_dst_skx+0x8a> + .byte 117,111 // jne 4696 <_sk_load_4444_dst_skx+0x8a> .byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4 .byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7 - .byte 98,241,69,56,219,37,8,84,3,0 // vpandd 0x35408(%rip){1to8},%ymm7,%ymm4 # 398fc <_sk_srcover_bgra_8888_sse2_lowp+0x3a8> + .byte 98,241,69,56,219,37,212,92,3,0 // vpandd 0x35cd4(%rip){1to8},%ymm7,%ymm4 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8> .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 98,241,92,56,89,37,254,83,3,0 // vmulps 0x353fe(%rip){1to8},%ymm4,%ymm4 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac> - .byte 98,241,69,56,219,45,248,83,3,0 // vpandd 0x353f8(%rip){1to8},%ymm7,%ymm5 # 39904 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0> + .byte 98,241,92,56,89,37,202,92,3,0 // vmulps 0x35cca(%rip){1to8},%ymm4,%ymm4 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac> + .byte 98,241,69,56,219,45,196,92,3,0 // vpandd 0x35cc4(%rip){1to8},%ymm7,%ymm5 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0> .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 - .byte 98,241,84,56,89,45,238,83,3,0 // vmulps 0x353ee(%rip){1to8},%ymm5,%ymm5 # 39908 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4> - .byte 98,241,69,56,219,53,232,83,3,0 // vpandd 0x353e8(%rip){1to8},%ymm7,%ymm6 # 3990c <_sk_srcover_bgra_8888_sse2_lowp+0x3b8> + .byte 98,241,84,56,89,45,186,92,3,0 // vmulps 0x35cba(%rip){1to8},%ymm5,%ymm5 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4> + .byte 98,241,69,56,219,53,180,92,3,0 // vpandd 0x35cb4(%rip){1to8},%ymm7,%ymm6 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8> .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6 - .byte 98,241,76,56,89,53,222,83,3,0 // vmulps 0x353de(%rip){1to8},%ymm6,%ymm6 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc> - .byte 98,241,69,56,219,61,216,83,3,0 // vpandd 0x353d8(%rip){1to8},%ymm7,%ymm7 # 39914 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0> + .byte 98,241,76,56,89,53,170,92,3,0 // vmulps 0x35caa(%rip){1to8},%ymm6,%ymm6 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc> + .byte 98,241,69,56,219,61,164,92,3,0 // vpandd 0x35ca4(%rip){1to8},%ymm7,%ymm7 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0> .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7 - .byte 98,241,68,56,89,61,206,83,3,0 // vmulps 0x353ce(%rip){1to8},%ymm7,%ymm7 # 39918 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4> + .byte 98,241,68,56,89,61,154,92,3,0 // vmulps 0x35c9a(%rip){1to8},%ymm7,%ymm7 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d @@ -4242,22 +4302,22 @@ _sk_load_4444_dst_skx: .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,130 // ja 44e5 <_sk_load_4444_dst_skx+0x21> + .byte 119,130 // ja 462d <_sk_load_4444_dst_skx+0x21> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 45e8 <_sk_load_4444_dst_skx+0x124> + .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 4730 <_sk_load_4444_dst_skx+0x124> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 - .byte 233,96,255,255,255 // jmpq 44e5 <_sk_load_4444_dst_skx+0x21> + .byte 233,96,255,255,255 // jmpq 462d <_sk_load_4444_dst_skx+0x21> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4 .byte 196,130,121,52,44,88 // vpmovzxwq (%r8,%r11,2),%xmm5 .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5 .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5 .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4 - .byte 233,57,255,255,255 // jmpq 44e5 <_sk_load_4444_dst_skx+0x21> + .byte 233,57,255,255,255 // jmpq 462d <_sk_load_4444_dst_skx+0x21> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4 .byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4 @@ -4267,7 +4327,7 @@ _sk_load_4444_dst_skx: .byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5 .byte 197,249,112,237,132 // vpshufd $0x84,%xmm5,%xmm5 .byte 197,209,109,228 // vpunpckhqdq %xmm4,%xmm5,%xmm4 - .byte 233,255,254,255,255 // jmpq 44e5 <_sk_load_4444_dst_skx+0x21> + .byte 233,255,254,255,255 // jmpq 462d <_sk_load_4444_dst_skx+0x21> .byte 102,144 // xchg %ax,%ax .byte 143 // (bad) .byte 255 // (bad) @@ -4343,18 +4403,18 @@ _sk_gather_4444_skx: .byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax .byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0 .byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3 - .byte 98,241,101,56,219,5,19,82,3,0 // vpandd 0x35213(%rip){1to8},%ymm3,%ymm0 # 398fc <_sk_srcover_bgra_8888_sse2_lowp+0x3a8> + .byte 98,241,101,56,219,5,223,90,3,0 // vpandd 0x35adf(%rip){1to8},%ymm3,%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 98,241,124,56,89,5,9,82,3,0 // vmulps 0x35209(%rip){1to8},%ymm0,%ymm0 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac> - .byte 98,241,101,56,219,13,3,82,3,0 // vpandd 0x35203(%rip){1to8},%ymm3,%ymm1 # 39904 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0> + .byte 98,241,124,56,89,5,213,90,3,0 // vmulps 0x35ad5(%rip){1to8},%ymm0,%ymm0 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac> + .byte 98,241,101,56,219,13,207,90,3,0 // vpandd 0x35acf(%rip){1to8},%ymm3,%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0> .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 - .byte 98,241,116,56,89,13,249,81,3,0 // vmulps 0x351f9(%rip){1to8},%ymm1,%ymm1 # 39908 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4> - .byte 98,241,101,56,219,21,243,81,3,0 // vpandd 0x351f3(%rip){1to8},%ymm3,%ymm2 # 3990c <_sk_srcover_bgra_8888_sse2_lowp+0x3b8> + .byte 98,241,116,56,89,13,197,90,3,0 // vmulps 0x35ac5(%rip){1to8},%ymm1,%ymm1 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4> + .byte 98,241,101,56,219,21,191,90,3,0 // vpandd 0x35abf(%rip){1to8},%ymm3,%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8> .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 - .byte 98,241,108,56,89,21,233,81,3,0 // vmulps 0x351e9(%rip){1to8},%ymm2,%ymm2 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc> - .byte 98,241,101,56,219,29,227,81,3,0 // vpandd 0x351e3(%rip){1to8},%ymm3,%ymm3 # 39914 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0> + .byte 98,241,108,56,89,21,181,90,3,0 // vmulps 0x35ab5(%rip){1to8},%ymm2,%ymm2 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc> + .byte 98,241,101,56,219,29,175,90,3,0 // vpandd 0x35aaf(%rip){1to8},%ymm3,%ymm3 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0> .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 - .byte 98,241,100,56,89,29,217,81,3,0 // vmulps 0x351d9(%rip){1to8},%ymm3,%ymm3 # 39918 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4> + .byte 98,241,100,56,89,29,165,90,3,0 // vmulps 0x35aa5(%rip){1to8},%ymm3,%ymm3 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4> .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 65,92 // pop %r12 @@ -4373,25 +4433,35 @@ _sk_store_4444_skx: .byte 77,1,192 // add %r8,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 - .byte 196,98,125,24,5,179,81,3,0 // vbroadcastss 0x351b3(%rip),%ymm8 # 3991c <_sk_srcover_bgra_8888_sse2_lowp+0x3c8> - .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9 + .byte 196,98,125,24,21,94,89,3,0 // vbroadcastss 0x3595e(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9 + .byte 196,98,125,24,29,104,90,3,0 // vbroadcastss 0x35a68(%rip),%ymm11 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8> + .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 .byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9 - .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10 - .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9 - .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10 - .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 + .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12 + .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9 + .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,29,114,244,4 // vpslld $0x4,%ymm12,%ymm12 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8 + .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 - .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8 + .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne 47cc <_sk_store_4444_skx+0x82> + .byte 117,10 // jne 4946 <_sk_store_4444_skx+0xb4> .byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -4399,40 +4469,42 @@ _sk_store_4444_skx: .byte 65,128,225,7 // and $0x7,%r9b .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,235 // ja 47c8 <_sk_store_4444_skx+0x7e> + .byte 119,235 // ja 4942 <_sk_store_4444_skx+0xb0> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,80,0,0,0 // lea 0x50(%rip),%r10 # 4838 <_sk_store_4444_skx+0xee> + .byte 76,141,21,78,0,0,0 // lea 0x4e(%rip),%r10 # 49b0 <_sk_store_4444_skx+0x11e> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2) - .byte 235,206 // jmp 47c8 <_sk_store_4444_skx+0x7e> + .byte 235,206 // jmp 4942 <_sk_store_4444_skx+0xb0> .byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2) .byte 196,66,121,52,192 // vpmovzxwq %xmm8,%xmm8 .byte 98,18,126,8,52,4,88 // vpmovqw %xmm8,(%r8,%r11,2) - .byte 235,184 // jmp 47c8 <_sk_store_4444_skx+0x7e> + .byte 235,184 // jmp 4942 <_sk_store_4444_skx+0xb0> .byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2) .byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2) .byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2) .byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8 .byte 98,18,126,8,51,4,88 // vpmovdw %xmm8,(%r8,%r11,2) - .byte 235,146 // jmp 47c8 <_sk_store_4444_skx+0x7e> - .byte 102,144 // xchg %ax,%ax - .byte 185,255,255,255,202 // mov $0xcaffffff,%ecx + .byte 235,146 // jmp 4942 <_sk_store_4444_skx+0xb0> + .byte 187,255,255,255,204 // mov $0xccffffff,%ebx .byte 255 // (bad) .byte 255 // (bad) - .byte 255,194 // inc %edx + .byte 255,196 // inc %esp .byte 255 // (bad) .byte 255 // (bad) - .byte 255,240 // push %rax + .byte 255,242 // push %rdx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 232,255,255,255,224 // callq ffffffffe100484c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fcb2f8> + .byte 234 // (bad) .byte 255 // (bad) .byte 255 // (bad) + .byte 255,226 // jmpq *%rdx .byte 255 // (bad) - .byte 216,255 // fdivr %st(7),%st + .byte 255 // (bad) + .byte 255 // (bad) + .byte 218,255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -4448,13 +4520,13 @@ _sk_load_8888_skx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,97 // jne 48d1 <_sk_load_8888_skx+0x7d> + .byte 117,97 // jne 4a49 <_sk_load_8888_skx+0x7d> .byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3 .byte 184,17,17,17,17 // mov $0x11111111,%eax .byte 197,251,146,200 // kmovd %eax,%k1 .byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z} .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,98,125,24,5,234,79,3,0 // vbroadcastss 0x34fea(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,5,134,88,3,0 // vbroadcastss 0x35886(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 197,245,114,211,8 // vpsrld $0x8,%ymm3,%ymm1 .byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z} @@ -4474,14 +4546,14 @@ _sk_load_8888_skx: .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3 .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,144 // ja 4876 <_sk_load_8888_skx+0x22> + .byte 119,144 // ja 49ee <_sk_load_8888_skx+0x22> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 497c <_sk_load_8888_skx+0x128> + .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4af4 <_sk_load_8888_skx+0x128> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3 - .byte 233,113,255,255,255 // jmpq 4876 <_sk_load_8888_skx+0x22> + .byte 233,113,255,255,255 // jmpq 49ee <_sk_load_8888_skx+0x22> .byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0 .byte 176,4 // mov $0x4,%al .byte 197,251,146,200 // kmovd %eax,%k1 @@ -4489,7 +4561,7 @@ _sk_load_8888_skx: .byte 196,130,121,53,4,152 // vpmovzxdq (%r8,%r11,4),%xmm0 .byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0 .byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3 - .byte 233,72,255,255,255 // jmpq 4876 <_sk_load_8888_skx+0x22> + .byte 233,72,255,255,255 // jmpq 49ee <_sk_load_8888_skx+0x22> .byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0 .byte 176,64 // mov $0x40,%al .byte 197,251,146,200 // kmovd %eax,%k1 @@ -4502,9 +4574,9 @@ _sk_load_8888_skx: .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3 .byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0 .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3 - .byte 233,252,254,255,255 // jmpq 4876 <_sk_load_8888_skx+0x22> + .byte 233,252,254,255,255 // jmpq 49ee <_sk_load_8888_skx+0x22> .byte 102,144 // xchg %ax,%ax - .byte 126,255 // jle 497d <_sk_load_8888_skx+0x129> + .byte 126,255 // jle 4af5 <_sk_load_8888_skx+0x129> .byte 255 // (bad) .byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8) .byte 255 // (bad) @@ -4535,13 +4607,13 @@ _sk_load_8888_dst_skx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,97 // jne 4a15 <_sk_load_8888_dst_skx+0x7d> + .byte 117,97 // jne 4b8d <_sk_load_8888_dst_skx+0x7d> .byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7 .byte 184,17,17,17,17 // mov $0x11111111,%eax .byte 197,251,146,200 // kmovd %eax,%k1 .byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z} .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 196,98,125,24,5,166,78,3,0 // vbroadcastss 0x34ea6(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,5,66,87,3,0 // vbroadcastss 0x35742(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4 .byte 197,213,114,215,8 // vpsrld $0x8,%ymm7,%ymm5 .byte 98,241,127,169,111,237 // vmovdqu8 %ymm5,%ymm5{%k1}{z} @@ -4561,14 +4633,14 @@ _sk_load_8888_dst_skx: .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7 .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,144 // ja 49ba <_sk_load_8888_dst_skx+0x22> + .byte 119,144 // ja 4b32 <_sk_load_8888_dst_skx+0x22> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4ac0 <_sk_load_8888_dst_skx+0x128> + .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4c38 <_sk_load_8888_dst_skx+0x128> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7 - .byte 233,113,255,255,255 // jmpq 49ba <_sk_load_8888_dst_skx+0x22> + .byte 233,113,255,255,255 // jmpq 4b32 <_sk_load_8888_dst_skx+0x22> .byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4 .byte 176,4 // mov $0x4,%al .byte 197,251,146,200 // kmovd %eax,%k1 @@ -4576,7 +4648,7 @@ _sk_load_8888_dst_skx: .byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4 .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4 .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7 - .byte 233,72,255,255,255 // jmpq 49ba <_sk_load_8888_dst_skx+0x22> + .byte 233,72,255,255,255 // jmpq 4b32 <_sk_load_8888_dst_skx+0x22> .byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4 .byte 176,64 // mov $0x40,%al .byte 197,251,146,200 // kmovd %eax,%k1 @@ -4589,9 +4661,9 @@ _sk_load_8888_dst_skx: .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7 .byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4 .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7 - .byte 233,252,254,255,255 // jmpq 49ba <_sk_load_8888_dst_skx+0x22> + .byte 233,252,254,255,255 // jmpq 4b32 <_sk_load_8888_dst_skx+0x22> .byte 102,144 // xchg %ax,%ax - .byte 126,255 // jle 4ac1 <_sk_load_8888_dst_skx+0x129> + .byte 126,255 // jle 4c39 <_sk_load_8888_dst_skx+0x129> .byte 255 // (bad) .byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8) .byte 255 // (bad) @@ -4635,7 +4707,7 @@ _sk_gather_8888_skx: .byte 197,251,146,200 // kmovd %eax,%k1 .byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z} .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,29,57,77,3,0 // vbroadcastss 0x34d39(%rip),%ymm3 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,226,125,24,29,213,85,3,0 // vbroadcastss 0x355d5(%rip),%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0 .byte 196,193,117,114,208,8 // vpsrld $0x8,%ymm8,%ymm1 .byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z} @@ -4662,23 +4734,33 @@ _sk_store_8888_skx: .byte 73,193,224,2 // shl $0x2,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 - .byte 196,98,125,24,5,142,76,3,0 // vbroadcastss 0x34c8e(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9 + .byte 196,98,125,24,21,245,84,3,0 // vbroadcastss 0x354f5(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9 + .byte 196,98,125,24,29,19,85,3,0 // vbroadcastss 0x35513(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 - .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10 - .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9 - .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,45,114,242,16 // vpslld $0x10,%ymm10,%ymm10 - .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 + .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12 + .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9 + .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,29,114,244,16 // vpslld $0x10,%ymm12,%ymm12 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8 + .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8 - .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8 + .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne 4bfa <_sk_store_8888_skx+0x78> + .byte 117,10 // jne 4da4 <_sk_store_8888_skx+0xaa> .byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -4686,18 +4768,18 @@ _sk_store_8888_skx: .byte 65,128,225,7 // and $0x7,%r9b .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,235 // ja 4bf6 <_sk_store_8888_skx+0x74> + .byte 119,235 // ja 4da0 <_sk_store_8888_skx+0xa6> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,90,0,0,0 // lea 0x5a(%rip),%r10 # 4c70 <_sk_store_8888_skx+0xee> + .byte 76,141,21,88,0,0,0 // lea 0x58(%rip),%r10 # 4e18 <_sk_store_8888_skx+0x11e> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4) - .byte 235,207 // jmp 4bf6 <_sk_store_8888_skx+0x74> + .byte 235,207 // jmp 4da0 <_sk_store_8888_skx+0xa6> .byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4) .byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8 .byte 98,18,126,8,53,4,152 // vpmovqd %xmm8,(%r8,%r11,4) - .byte 235,185 // jmp 4bf6 <_sk_store_8888_skx+0x74> + .byte 235,185 // jmp 4da0 <_sk_store_8888_skx+0xa6> .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4) .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 @@ -4705,23 +4787,23 @@ _sk_store_8888_skx: .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4) .byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4) - .byte 235,136 // jmp 4bf6 <_sk_store_8888_skx+0x74> - .byte 102,144 // xchg %ax,%ax - .byte 175 // scas %es:(%rdi),%eax + .byte 235,136 // jmp 4da0 <_sk_store_8888_skx+0xa6> + .byte 177,255 // mov $0xff,%cl .byte 255 // (bad) + .byte 255,193 // inc %ecx .byte 255 // (bad) .byte 255 // (bad) - .byte 191,255,255,255,183 // mov $0xb7ffffff,%edi .byte 255 // (bad) + .byte 185,255,255,255,248 // mov $0xf8ffffff,%ecx .byte 255 // (bad) - .byte 255,246 // push %rsi .byte 255 // (bad) .byte 255 // (bad) + .byte 235,255 // jmp 4e29 <_sk_store_8888_skx+0x12f> .byte 255 // (bad) - .byte 233,255,255,255,219 // jmpq ffffffffdc004c84 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfcb730> .byte 255 // (bad) + .byte 221,255 // (bad) .byte 255 // (bad) - .byte 255,205 // dec %ebp + .byte 255,207 // dec %edi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -4738,13 +4820,13 @@ _sk_load_bgra_skx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,97 // jne 4d09 <_sk_load_bgra_skx+0x7d> + .byte 117,97 // jne 4eb1 <_sk_load_bgra_skx+0x7d> .byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3 .byte 184,17,17,17,17 // mov $0x11111111,%eax .byte 197,251,146,200 // kmovd %eax,%k1 .byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z} .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,98,125,24,5,178,75,3,0 // vbroadcastss 0x34bb2(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,5,30,84,3,0 // vbroadcastss 0x3541e(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2 .byte 197,253,114,211,8 // vpsrld $0x8,%ymm3,%ymm0 .byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z} @@ -4764,14 +4846,14 @@ _sk_load_bgra_skx: .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3 .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,144 // ja 4cae <_sk_load_bgra_skx+0x22> + .byte 119,144 // ja 4e56 <_sk_load_bgra_skx+0x22> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4db4 <_sk_load_bgra_skx+0x128> + .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4f5c <_sk_load_bgra_skx+0x128> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3 - .byte 233,113,255,255,255 // jmpq 4cae <_sk_load_bgra_skx+0x22> + .byte 233,113,255,255,255 // jmpq 4e56 <_sk_load_bgra_skx+0x22> .byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0 .byte 176,4 // mov $0x4,%al .byte 197,251,146,200 // kmovd %eax,%k1 @@ -4779,7 +4861,7 @@ _sk_load_bgra_skx: .byte 196,130,121,53,4,152 // vpmovzxdq (%r8,%r11,4),%xmm0 .byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0 .byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3 - .byte 233,72,255,255,255 // jmpq 4cae <_sk_load_bgra_skx+0x22> + .byte 233,72,255,255,255 // jmpq 4e56 <_sk_load_bgra_skx+0x22> .byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0 .byte 176,64 // mov $0x40,%al .byte 197,251,146,200 // kmovd %eax,%k1 @@ -4792,9 +4874,9 @@ _sk_load_bgra_skx: .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3 .byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0 .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3 - .byte 233,252,254,255,255 // jmpq 4cae <_sk_load_bgra_skx+0x22> + .byte 233,252,254,255,255 // jmpq 4e56 <_sk_load_bgra_skx+0x22> .byte 102,144 // xchg %ax,%ax - .byte 126,255 // jle 4db5 <_sk_load_bgra_skx+0x129> + .byte 126,255 // jle 4f5d <_sk_load_bgra_skx+0x129> .byte 255 // (bad) .byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8) .byte 255 // (bad) @@ -4825,13 +4907,13 @@ _sk_load_bgra_dst_skx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,97 // jne 4e4d <_sk_load_bgra_dst_skx+0x7d> + .byte 117,97 // jne 4ff5 <_sk_load_bgra_dst_skx+0x7d> .byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7 .byte 184,17,17,17,17 // mov $0x11111111,%eax .byte 197,251,146,200 // kmovd %eax,%k1 .byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z} .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 196,98,125,24,5,110,74,3,0 // vbroadcastss 0x34a6e(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,5,218,82,3,0 // vbroadcastss 0x352da(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6 .byte 197,221,114,215,8 // vpsrld $0x8,%ymm7,%ymm4 .byte 98,241,127,169,111,228 // vmovdqu8 %ymm4,%ymm4{%k1}{z} @@ -4851,14 +4933,14 @@ _sk_load_bgra_dst_skx: .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7 .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,144 // ja 4df2 <_sk_load_bgra_dst_skx+0x22> + .byte 119,144 // ja 4f9a <_sk_load_bgra_dst_skx+0x22> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4ef8 <_sk_load_bgra_dst_skx+0x128> + .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 50a0 <_sk_load_bgra_dst_skx+0x128> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7 - .byte 233,113,255,255,255 // jmpq 4df2 <_sk_load_bgra_dst_skx+0x22> + .byte 233,113,255,255,255 // jmpq 4f9a <_sk_load_bgra_dst_skx+0x22> .byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4 .byte 176,4 // mov $0x4,%al .byte 197,251,146,200 // kmovd %eax,%k1 @@ -4866,7 +4948,7 @@ _sk_load_bgra_dst_skx: .byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4 .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4 .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7 - .byte 233,72,255,255,255 // jmpq 4df2 <_sk_load_bgra_dst_skx+0x22> + .byte 233,72,255,255,255 // jmpq 4f9a <_sk_load_bgra_dst_skx+0x22> .byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4 .byte 176,64 // mov $0x40,%al .byte 197,251,146,200 // kmovd %eax,%k1 @@ -4879,9 +4961,9 @@ _sk_load_bgra_dst_skx: .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7 .byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4 .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7 - .byte 233,252,254,255,255 // jmpq 4df2 <_sk_load_bgra_dst_skx+0x22> + .byte 233,252,254,255,255 // jmpq 4f9a <_sk_load_bgra_dst_skx+0x22> .byte 102,144 // xchg %ax,%ax - .byte 126,255 // jle 4ef9 <_sk_load_bgra_dst_skx+0x129> + .byte 126,255 // jle 50a1 <_sk_load_bgra_dst_skx+0x129> .byte 255 // (bad) .byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8) .byte 255 // (bad) @@ -4925,7 +5007,7 @@ _sk_gather_bgra_skx: .byte 197,251,146,200 // kmovd %eax,%k1 .byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z} .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,29,1,73,3,0 // vbroadcastss 0x34901(%rip),%ymm3 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,226,125,24,29,109,81,3,0 // vbroadcastss 0x3516d(%rip),%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2 .byte 196,193,125,114,208,8 // vpsrld $0x8,%ymm8,%ymm0 .byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z} @@ -4952,23 +5034,33 @@ _sk_store_bgra_skx: .byte 73,193,224,2 // shl $0x2,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 - .byte 196,98,125,24,5,86,72,3,0 // vbroadcastss 0x34856(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9 + .byte 196,98,125,24,21,141,80,3,0 // vbroadcastss 0x3508d(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9 + .byte 196,98,125,24,29,171,80,3,0 // vbroadcastss 0x350ab(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 - .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10 - .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9 - .byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,45,114,242,16 // vpslld $0x10,%ymm10,%ymm10 - .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 + .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12 + .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9 + .byte 197,60,95,224 // vmaxps %ymm0,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,29,114,244,16 // vpslld $0x10,%ymm12,%ymm12 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8 + .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8 - .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8 + .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne 5032 <_sk_store_bgra_skx+0x78> + .byte 117,10 // jne 520c <_sk_store_bgra_skx+0xaa> .byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -4976,18 +5068,18 @@ _sk_store_bgra_skx: .byte 65,128,225,7 // and $0x7,%r9b .byte 65,128,193,255 // add $0xff,%r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,235 // ja 502e <_sk_store_bgra_skx+0x74> + .byte 119,235 // ja 5208 <_sk_store_bgra_skx+0xa6> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,90,0,0,0 // lea 0x5a(%rip),%r10 # 50a8 <_sk_store_bgra_skx+0xee> + .byte 76,141,21,88,0,0,0 // lea 0x58(%rip),%r10 # 5280 <_sk_store_bgra_skx+0x11e> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4) - .byte 235,207 // jmp 502e <_sk_store_bgra_skx+0x74> + .byte 235,207 // jmp 5208 <_sk_store_bgra_skx+0xa6> .byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4) .byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8 .byte 98,18,126,8,53,4,152 // vpmovqd %xmm8,(%r8,%r11,4) - .byte 235,185 // jmp 502e <_sk_store_bgra_skx+0x74> + .byte 235,185 // jmp 5208 <_sk_store_bgra_skx+0xa6> .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4) .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 @@ -4995,23 +5087,23 @@ _sk_store_bgra_skx: .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4) .byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4) - .byte 235,136 // jmp 502e <_sk_store_bgra_skx+0x74> - .byte 102,144 // xchg %ax,%ax - .byte 175 // scas %es:(%rdi),%eax + .byte 235,136 // jmp 5208 <_sk_store_bgra_skx+0xa6> + .byte 177,255 // mov $0xff,%cl .byte 255 // (bad) + .byte 255,193 // inc %ecx .byte 255 // (bad) .byte 255 // (bad) - .byte 191,255,255,255,183 // mov $0xb7ffffff,%edi .byte 255 // (bad) + .byte 185,255,255,255,248 // mov $0xf8ffffff,%ecx .byte 255 // (bad) - .byte 255,246 // push %rsi .byte 255 // (bad) .byte 255 // (bad) + .byte 235,255 // jmp 5291 <_sk_store_bgra_skx+0x12f> .byte 255 // (bad) - .byte 233,255,255,255,219 // jmpq ffffffffdc0050bc <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfcbb68> .byte 255 // (bad) + .byte 221,255 // (bad) .byte 255 // (bad) - .byte 255,205 // dec %ebp + .byte 255,207 // dec %edi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -5028,7 +5120,7 @@ _sk_load_f16_skx: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 117,101 // jne 5145 <_sk_load_f16_skx+0x81> + .byte 117,101 // jne 531d <_sk_load_f16_skx+0x81> .byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8 .byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2 .byte 196,193,121,16,76,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm1 @@ -5054,29 +5146,29 @@ _sk_load_f16_skx: .byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,85 // je 51ab <_sk_load_f16_skx+0xe7> + .byte 116,85 // je 5383 <_sk_load_f16_skx+0xe7> .byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,72 // jb 51ab <_sk_load_f16_skx+0xe7> + .byte 114,72 // jb 5383 <_sk_load_f16_skx+0xe7> .byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 116,72 // je 51b8 <_sk_load_f16_skx+0xf4> + .byte 116,72 // je 5390 <_sk_load_f16_skx+0xf4> .byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,59 // jb 51b8 <_sk_load_f16_skx+0xf4> + .byte 114,59 // jb 5390 <_sk_load_f16_skx+0xf4> .byte 196,193,123,16,76,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm1 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 15,132,109,255,255,255 // je 50fb <_sk_load_f16_skx+0x37> + .byte 15,132,109,255,255,255 // je 52d3 <_sk_load_f16_skx+0x37> .byte 196,193,113,22,76,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm1,%xmm1 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 15,130,92,255,255,255 // jb 50fb <_sk_load_f16_skx+0x37> + .byte 15,130,92,255,255,255 // jb 52d3 <_sk_load_f16_skx+0x37> .byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9 - .byte 233,80,255,255,255 // jmpq 50fb <_sk_load_f16_skx+0x37> + .byte 233,80,255,255,255 // jmpq 52d3 <_sk_load_f16_skx+0x37> .byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1 .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2 - .byte 233,67,255,255,255 // jmpq 50fb <_sk_load_f16_skx+0x37> + .byte 233,67,255,255,255 // jmpq 52d3 <_sk_load_f16_skx+0x37> .byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1 - .byte 233,58,255,255,255 // jmpq 50fb <_sk_load_f16_skx+0x37> + .byte 233,58,255,255,255 // jmpq 52d3 <_sk_load_f16_skx+0x37> HIDDEN _sk_load_f16_dst_skx .globl _sk_load_f16_dst_skx @@ -5090,7 +5182,7 @@ _sk_load_f16_dst_skx: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 117,101 // jne 5242 <_sk_load_f16_dst_skx+0x81> + .byte 117,101 // jne 541a <_sk_load_f16_dst_skx+0x81> .byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8 .byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6 .byte 196,193,121,16,108,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm5 @@ -5116,29 +5208,29 @@ _sk_load_f16_dst_skx: .byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,85 // je 52a8 <_sk_load_f16_dst_skx+0xe7> + .byte 116,85 // je 5480 <_sk_load_f16_dst_skx+0xe7> .byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,72 // jb 52a8 <_sk_load_f16_dst_skx+0xe7> + .byte 114,72 // jb 5480 <_sk_load_f16_dst_skx+0xe7> .byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 116,72 // je 52b5 <_sk_load_f16_dst_skx+0xf4> + .byte 116,72 // je 548d <_sk_load_f16_dst_skx+0xf4> .byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,59 // jb 52b5 <_sk_load_f16_dst_skx+0xf4> + .byte 114,59 // jb 548d <_sk_load_f16_dst_skx+0xf4> .byte 196,193,123,16,108,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm5 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 15,132,109,255,255,255 // je 51f8 <_sk_load_f16_dst_skx+0x37> + .byte 15,132,109,255,255,255 // je 53d0 <_sk_load_f16_dst_skx+0x37> .byte 196,193,81,22,108,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm5,%xmm5 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 15,130,92,255,255,255 // jb 51f8 <_sk_load_f16_dst_skx+0x37> + .byte 15,130,92,255,255,255 // jb 53d0 <_sk_load_f16_dst_skx+0x37> .byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9 - .byte 233,80,255,255,255 // jmpq 51f8 <_sk_load_f16_dst_skx+0x37> + .byte 233,80,255,255,255 // jmpq 53d0 <_sk_load_f16_dst_skx+0x37> .byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5 .byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6 - .byte 233,67,255,255,255 // jmpq 51f8 <_sk_load_f16_dst_skx+0x37> + .byte 233,67,255,255,255 // jmpq 53d0 <_sk_load_f16_dst_skx+0x37> .byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5 - .byte 233,58,255,255,255 // jmpq 51f8 <_sk_load_f16_dst_skx+0x37> + .byte 233,58,255,255,255 // jmpq 53d0 <_sk_load_f16_dst_skx+0x37> HIDDEN _sk_gather_f16_skx .globl _sk_gather_f16_skx @@ -5213,7 +5305,7 @@ _sk_store_f16_skx: .byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9 .byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,31 // jne 5403 <_sk_store_f16_skx+0x7b> + .byte 117,31 // jne 55db <_sk_store_f16_skx+0x7b> .byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8) .byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8) .byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8) @@ -5222,22 +5314,22 @@ _sk_store_f16_skx: .byte 255,224 // jmpq *%rax .byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8) .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,240 // je 53ff <_sk_store_f16_skx+0x77> + .byte 116,240 // je 55d7 <_sk_store_f16_skx+0x77> .byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8) .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,227 // jb 53ff <_sk_store_f16_skx+0x77> + .byte 114,227 // jb 55d7 <_sk_store_f16_skx+0x77> .byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8) - .byte 116,218 // je 53ff <_sk_store_f16_skx+0x77> + .byte 116,218 // je 55d7 <_sk_store_f16_skx+0x77> .byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8) .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,205 // jb 53ff <_sk_store_f16_skx+0x77> + .byte 114,205 // jb 55d7 <_sk_store_f16_skx+0x77> .byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8) - .byte 116,196 // je 53ff <_sk_store_f16_skx+0x77> + .byte 116,196 // je 55d7 <_sk_store_f16_skx+0x77> .byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8) .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 114,183 // jb 53ff <_sk_store_f16_skx+0x77> + .byte 114,183 // jb 55d7 <_sk_store_f16_skx+0x77> .byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8) - .byte 235,174 // jmp 53ff <_sk_store_f16_skx+0x77> + .byte 235,174 // jmp 55d7 <_sk_store_f16_skx+0x77> HIDDEN _sk_load_u16_be_skx .globl _sk_load_u16_be_skx @@ -5252,7 +5344,7 @@ _sk_load_u16_be_skx: .byte 76,3,0 // add (%rax),%r8 .byte 73,99,193 // movslq %r9d,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,204,0,0,0 // jne 5544 <_sk_load_u16_be_skx+0xf3> + .byte 15,133,204,0,0,0 // jne 571c <_sk_load_u16_be_skx+0xf3> .byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8 .byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2 .byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3 @@ -5271,7 +5363,7 @@ _sk_load_u16_be_skx: .byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0 .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,98,125,24,21,191,67,3,0 // vbroadcastss 0x343bf(%rip),%ymm10 # 39898 <_sk_srcover_bgra_8888_sse2_lowp+0x344> + .byte 196,98,125,24,21,251,75,3,0 // vbroadcastss 0x34bfb(%rip),%ymm10 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344> .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0 .byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1 .byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2 @@ -5299,29 +5391,29 @@ _sk_load_u16_be_skx: .byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,85 // je 55aa <_sk_load_u16_be_skx+0x159> + .byte 116,85 // je 5782 <_sk_load_u16_be_skx+0x159> .byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,72 // jb 55aa <_sk_load_u16_be_skx+0x159> + .byte 114,72 // jb 5782 <_sk_load_u16_be_skx+0x159> .byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 116,72 // je 55b7 <_sk_load_u16_be_skx+0x166> + .byte 116,72 // je 578f <_sk_load_u16_be_skx+0x166> .byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,59 // jb 55b7 <_sk_load_u16_be_skx+0x166> + .byte 114,59 // jb 578f <_sk_load_u16_be_skx+0x166> .byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 15,132,6,255,255,255 // je 5493 <_sk_load_u16_be_skx+0x42> + .byte 15,132,6,255,255,255 // je 566b <_sk_load_u16_be_skx+0x42> .byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 15,130,245,254,255,255 // jb 5493 <_sk_load_u16_be_skx+0x42> + .byte 15,130,245,254,255,255 // jb 566b <_sk_load_u16_be_skx+0x42> .byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9 - .byte 233,233,254,255,255 // jmpq 5493 <_sk_load_u16_be_skx+0x42> + .byte 233,233,254,255,255 // jmpq 566b <_sk_load_u16_be_skx+0x42> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2 - .byte 233,220,254,255,255 // jmpq 5493 <_sk_load_u16_be_skx+0x42> + .byte 233,220,254,255,255 // jmpq 566b <_sk_load_u16_be_skx+0x42> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 - .byte 233,211,254,255,255 // jmpq 5493 <_sk_load_u16_be_skx+0x42> + .byte 233,211,254,255,255 // jmpq 566b <_sk_load_u16_be_skx+0x42> HIDDEN _sk_load_rgb_u16_be_skx .globl _sk_load_rgb_u16_be_skx @@ -5338,7 +5430,7 @@ _sk_load_rgb_u16_be_skx: .byte 72,141,4,64 // lea (%rax,%rax,2),%rax .byte 72,193,248,32 // sar $0x20,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,202,0,0,0 // jne 56b5 <_sk_load_rgb_u16_be_skx+0xf5> + .byte 15,133,202,0,0,0 // jne 588d <_sk_load_rgb_u16_be_skx+0xf5> .byte 196,65,121,16,28,64 // vmovupd (%r8,%rax,2),%xmm11 .byte 196,193,121,16,92,64,12 // vmovupd 0xc(%r8,%rax,2),%xmm3 .byte 196,193,121,16,84,64,24 // vmovupd 0x18(%r8,%rax,2),%xmm2 @@ -5362,7 +5454,7 @@ _sk_load_rgb_u16_be_skx: .byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0 .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,98,125,24,13,49,66,3,0 // vbroadcastss 0x34231(%rip),%ymm9 # 39898 <_sk_srcover_bgra_8888_sse2_lowp+0x344> + .byte 196,98,125,24,13,109,74,3,0 // vbroadcastss 0x34a6d(%rip),%ymm9 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344> .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 .byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1 .byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3 @@ -5378,121 +5470,131 @@ _sk_load_rgb_u16_be_skx: .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,81,65,3,0 // vbroadcastss 0x34151(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,141,73,3,0 // vbroadcastss 0x3498d(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 255,224 // jmpq *%rax .byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0 .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9 .byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,31 // jne 56ed <_sk_load_rgb_u16_be_skx+0x12d> + .byte 117,31 // jne 58c5 <_sk_load_rgb_u16_be_skx+0x12d> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3 .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 - .byte 233,48,255,255,255 // jmpq 561d <_sk_load_rgb_u16_be_skx+0x5d> + .byte 233,48,255,255,255 // jmpq 57f5 <_sk_load_rgb_u16_be_skx+0x5d> .byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0 .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9 .byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,48 // jb 5737 <_sk_load_rgb_u16_be_skx+0x177> + .byte 114,48 // jb 590f <_sk_load_rgb_u16_be_skx+0x177> .byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0 .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9 .byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 117,48 // jne 5751 <_sk_load_rgb_u16_be_skx+0x191> + .byte 117,48 // jne 5929 <_sk_load_rgb_u16_be_skx+0x191> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 - .byte 233,230,254,255,255 // jmpq 561d <_sk_load_rgb_u16_be_skx+0x5d> + .byte 233,230,254,255,255 // jmpq 57f5 <_sk_load_rgb_u16_be_skx+0x5d> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3 - .byte 233,204,254,255,255 // jmpq 561d <_sk_load_rgb_u16_be_skx+0x5d> + .byte 233,204,254,255,255 // jmpq 57f5 <_sk_load_rgb_u16_be_skx+0x5d> .byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0 .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9 .byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,39 // jb 5792 <_sk_load_rgb_u16_be_skx+0x1d2> + .byte 114,39 // jb 596a <_sk_load_rgb_u16_be_skx+0x1d2> .byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0 .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9 .byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 117,30 // jne 57a3 <_sk_load_rgb_u16_be_skx+0x1e3> + .byte 117,30 // jne 597b <_sk_load_rgb_u16_be_skx+0x1e3> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 - .byte 233,139,254,255,255 // jmpq 561d <_sk_load_rgb_u16_be_skx+0x5d> + .byte 233,139,254,255,255 // jmpq 57f5 <_sk_load_rgb_u16_be_skx+0x5d> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 - .byte 233,122,254,255,255 // jmpq 561d <_sk_load_rgb_u16_be_skx+0x5d> + .byte 233,122,254,255,255 // jmpq 57f5 <_sk_load_rgb_u16_be_skx+0x5d> .byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0 .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9 .byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 114,25 // jb 57d6 <_sk_load_rgb_u16_be_skx+0x216> + .byte 114,25 // jb 59ae <_sk_load_rgb_u16_be_skx+0x216> .byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0 .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9 .byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0 - .byte 233,71,254,255,255 // jmpq 561d <_sk_load_rgb_u16_be_skx+0x5d> + .byte 233,71,254,255,255 // jmpq 57f5 <_sk_load_rgb_u16_be_skx+0x5d> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 - .byte 233,62,254,255,255 // jmpq 561d <_sk_load_rgb_u16_be_skx+0x5d> + .byte 233,62,254,255,255 // jmpq 57f5 <_sk_load_rgb_u16_be_skx+0x5d> HIDDEN _sk_store_u16_be_skx .globl _sk_store_u16_be_skx FUNCTION(_sk_store_u16_be_skx) _sk_store_u16_be_skx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 68,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9d - .byte 76,99,80,8 // movslq 0x8(%rax),%r10 + .byte 76,99,72,8 // movslq 0x8(%rax),%r9 .byte 76,99,193 // movslq %ecx,%r8 - .byte 77,15,175,194 // imul %r10,%r8 + .byte 77,15,175,193 // imul %r9,%r8 + .byte 68,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9d .byte 77,1,192 // add %r8,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 73,99,193 // movslq %r9d,%rax - .byte 196,98,125,24,5,26,65,3,0 // vbroadcastss 0x3411a(%rip),%ymm8 # 39920 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc> - .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9 + .byte 196,98,125,24,21,49,72,3,0 // vbroadcastss 0x34831(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9 + .byte 196,98,125,24,29,63,73,3,0 // vbroadcastss 0x3493f(%rip),%ymm11 # 3a334 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc> + .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 - .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10 - .byte 196,66,49,43,202 // vpackusdw %xmm10,%xmm9,%xmm9 - .byte 196,193,41,113,241,8 // vpsllw $0x8,%xmm9,%xmm10 + .byte 196,67,125,57,204,1 // vextracti128 $0x1,%ymm9,%xmm12 + .byte 196,66,49,43,204 // vpackusdw %xmm12,%xmm9,%xmm9 + .byte 196,193,25,113,241,8 // vpsllw $0x8,%xmm9,%xmm12 .byte 196,193,49,113,209,8 // vpsrlw $0x8,%xmm9,%xmm9 - .byte 196,65,41,235,201 // vpor %xmm9,%xmm10,%xmm9 - .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,67,125,57,211,1 // vextracti128 $0x1,%ymm10,%xmm11 - .byte 196,66,41,43,211 // vpackusdw %xmm11,%xmm10,%xmm10 - .byte 196,193,33,113,242,8 // vpsllw $0x8,%xmm10,%xmm11 - .byte 196,193,41,113,210,8 // vpsrlw $0x8,%xmm10,%xmm10 - .byte 196,65,33,235,210 // vpor %xmm10,%xmm11,%xmm10 - .byte 196,65,108,89,216 // vmulps %ymm8,%ymm2,%ymm11 - .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 - .byte 196,67,125,57,220,1 // vextracti128 $0x1,%ymm11,%xmm12 - .byte 196,66,33,43,220 // vpackusdw %xmm12,%xmm11,%xmm11 - .byte 196,193,25,113,243,8 // vpsllw $0x8,%xmm11,%xmm12 - .byte 196,193,33,113,211,8 // vpsrlw $0x8,%xmm11,%xmm11 - .byte 196,65,25,235,219 // vpor %xmm11,%xmm12,%xmm11 - .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 + .byte 196,65,25,235,201 // vpor %xmm9,%xmm12,%xmm9 + .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,67,125,57,229,1 // vextracti128 $0x1,%ymm12,%xmm13 + .byte 196,66,25,43,229 // vpackusdw %xmm13,%xmm12,%xmm12 + .byte 196,193,17,113,244,8 // vpsllw $0x8,%xmm12,%xmm13 + .byte 196,193,25,113,212,8 // vpsrlw $0x8,%xmm12,%xmm12 + .byte 196,65,17,235,228 // vpor %xmm12,%xmm13,%xmm12 + .byte 197,60,95,234 // vmaxps %ymm2,%ymm8,%ymm13 + .byte 196,65,20,93,234 // vminps %ymm10,%ymm13,%ymm13 + .byte 196,65,20,89,235 // vmulps %ymm11,%ymm13,%ymm13 + .byte 196,65,125,91,237 // vcvtps2dq %ymm13,%ymm13 + .byte 196,67,125,57,238,1 // vextracti128 $0x1,%ymm13,%xmm14 + .byte 196,66,17,43,238 // vpackusdw %xmm14,%xmm13,%xmm13 + .byte 196,193,9,113,245,8 // vpsllw $0x8,%xmm13,%xmm14 + .byte 196,193,17,113,213,8 // vpsrlw $0x8,%xmm13,%xmm13 + .byte 196,65,9,235,237 // vpor %xmm13,%xmm14,%xmm13 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8 + .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 - .byte 196,67,125,57,196,1 // vextracti128 $0x1,%ymm8,%xmm12 - .byte 196,66,57,43,196 // vpackusdw %xmm12,%xmm8,%xmm8 - .byte 196,193,25,113,240,8 // vpsllw $0x8,%xmm8,%xmm12 + .byte 196,67,125,57,194,1 // vextracti128 $0x1,%ymm8,%xmm10 + .byte 196,66,57,43,194 // vpackusdw %xmm10,%xmm8,%xmm8 + .byte 196,193,41,113,240,8 // vpsllw $0x8,%xmm8,%xmm10 .byte 196,193,57,113,208,8 // vpsrlw $0x8,%xmm8,%xmm8 - .byte 196,65,25,235,192 // vpor %xmm8,%xmm12,%xmm8 - .byte 196,65,49,97,226 // vpunpcklwd %xmm10,%xmm9,%xmm12 - .byte 196,65,49,105,234 // vpunpckhwd %xmm10,%xmm9,%xmm13 - .byte 196,65,33,97,200 // vpunpcklwd %xmm8,%xmm11,%xmm9 - .byte 196,65,33,105,192 // vpunpckhwd %xmm8,%xmm11,%xmm8 - .byte 196,65,25,98,217 // vpunpckldq %xmm9,%xmm12,%xmm11 - .byte 196,65,25,106,209 // vpunpckhdq %xmm9,%xmm12,%xmm10 - .byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9 - .byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8 + .byte 196,65,41,235,192 // vpor %xmm8,%xmm10,%xmm8 + .byte 196,65,49,97,212 // vpunpcklwd %xmm12,%xmm9,%xmm10 + .byte 196,65,49,105,228 // vpunpckhwd %xmm12,%xmm9,%xmm12 + .byte 196,65,17,97,200 // vpunpcklwd %xmm8,%xmm13,%xmm9 + .byte 196,65,17,105,192 // vpunpckhwd %xmm8,%xmm13,%xmm8 + .byte 196,65,41,98,217 // vpunpckldq %xmm9,%xmm10,%xmm11 + .byte 196,65,41,106,209 // vpunpckhdq %xmm9,%xmm10,%xmm10 + .byte 196,65,25,98,200 // vpunpckldq %xmm8,%xmm12,%xmm9 + .byte 196,65,25,106,192 // vpunpckhdq %xmm8,%xmm12,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,31 // jne 58ea <_sk_store_u16_be_skx+0x10b> + .byte 117,31 // jne 5af4 <_sk_store_u16_be_skx+0x13d> .byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2) .byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2) .byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2) @@ -5501,22 +5603,22 @@ _sk_store_u16_be_skx: .byte 255,224 // jmpq *%rax .byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2) .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,240 // je 58e6 <_sk_store_u16_be_skx+0x107> + .byte 116,240 // je 5af0 <_sk_store_u16_be_skx+0x139> .byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2) .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,227 // jb 58e6 <_sk_store_u16_be_skx+0x107> + .byte 114,227 // jb 5af0 <_sk_store_u16_be_skx+0x139> .byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2) - .byte 116,218 // je 58e6 <_sk_store_u16_be_skx+0x107> + .byte 116,218 // je 5af0 <_sk_store_u16_be_skx+0x139> .byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2) .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,205 // jb 58e6 <_sk_store_u16_be_skx+0x107> + .byte 114,205 // jb 5af0 <_sk_store_u16_be_skx+0x139> .byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2) - .byte 116,196 // je 58e6 <_sk_store_u16_be_skx+0x107> + .byte 116,196 // je 5af0 <_sk_store_u16_be_skx+0x139> .byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2) .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 114,183 // jb 58e6 <_sk_store_u16_be_skx+0x107> + .byte 114,183 // jb 5af0 <_sk_store_u16_be_skx+0x139> .byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2) - .byte 235,174 // jmp 58e6 <_sk_store_u16_be_skx+0x107> + .byte 235,174 // jmp 5af0 <_sk_store_u16_be_skx+0x139> HIDDEN _sk_load_f32_skx .globl _sk_load_f32_skx @@ -5526,7 +5628,7 @@ _sk_load_f32_skx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 15,135,63,1,0,0 // ja 5a8d <_sk_load_f32_skx+0x155> + .byte 15,135,63,1,0,0 // ja 5c97 <_sk_load_f32_skx+0x155> .byte 68,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9d .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,193 // movslq %ecx,%r8 @@ -5534,7 +5636,7 @@ _sk_load_f32_skx: .byte 73,193,224,2 // shl $0x2,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 77,99,201 // movslq %r9d,%r9 - .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 5aa0 <_sk_load_f32_skx+0x168> + .byte 76,141,21,44,1,0,0 // lea 0x12c(%rip),%r10 # 5ca8 <_sk_load_f32_skx+0x166> .byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax .byte 76,1,208 // add %r10,%rax .byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1 @@ -5593,24 +5695,22 @@ _sk_load_f32_skx: .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8 .byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9 .byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1 - .byte 235,196 // jmp 5a61 <_sk_load_f32_skx+0x129> - .byte 15,31,0 // nopl (%rax) - .byte 37,255,255,255,181 // and $0xb5ffffff,%eax - .byte 255 // (bad) - .byte 255 // (bad) - .byte 255,157,255,255,255,132 // lcall *-0x7b000001(%rbp) + .byte 235,196 // jmp 5c6b <_sk_load_f32_skx+0x129> + .byte 144 // nop + .byte 39 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 255,103,255 // jmpq *-0x1(%rdi) + .byte 255,183,255,255,255,159 // pushq -0x60000001(%rdi) .byte 255 // (bad) - .byte 255,80,255 // callq *-0x1(%rax) .byte 255 // (bad) + .byte 255,134,255,255,255,105 // incl 0x69ffffff(%rsi) .byte 255 // (bad) - .byte 63 // (bad) .byte 255 // (bad) + .byte 255,82,255 // callq *-0x1(%rdx) .byte 255 // (bad) - .byte 255,50 // pushq (%rdx) + .byte 255,65,255 // incl -0x1(%rcx) .byte 255 // (bad) + .byte 255,52,255 // pushq (%rdi,%rdi,8) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -5622,7 +5722,7 @@ _sk_load_f32_dst_skx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 15,135,63,1,0,0 // ja 5c15 <_sk_load_f32_dst_skx+0x155> + .byte 15,135,63,1,0,0 // ja 5e1d <_sk_load_f32_dst_skx+0x155> .byte 68,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9d .byte 76,99,80,8 // movslq 0x8(%rax),%r10 .byte 76,99,193 // movslq %ecx,%r8 @@ -5630,7 +5730,7 @@ _sk_load_f32_dst_skx: .byte 73,193,224,2 // shl $0x2,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 77,99,201 // movslq %r9d,%r9 - .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 5c28 <_sk_load_f32_dst_skx+0x168> + .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 5e30 <_sk_load_f32_dst_skx+0x168> .byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax .byte 76,1,208 // add %r10,%rax .byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5 @@ -5689,7 +5789,7 @@ _sk_load_f32_dst_skx: .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8 .byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9 .byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5 - .byte 235,196 // jmp 5be9 <_sk_load_f32_dst_skx+0x129> + .byte 235,196 // jmp 5df1 <_sk_load_f32_dst_skx+0x129> .byte 15,31,0 // nopl (%rax) .byte 37,255,255,255,181 // and $0xb5ffffff,%eax .byte 255 // (bad) @@ -5731,7 +5831,7 @@ _sk_store_f32_skx: .byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8 .byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,55 // jne 5cc7 <_sk_store_f32_skx+0x7f> + .byte 117,55 // jne 5ecf <_sk_store_f32_skx+0x7f> .byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12 .byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13 .byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9 @@ -5744,22 +5844,22 @@ _sk_store_f32_skx: .byte 255,224 // jmpq *%rax .byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4) .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,240 // je 5cc3 <_sk_store_f32_skx+0x7b> + .byte 116,240 // je 5ecb <_sk_store_f32_skx+0x7b> .byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4) .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,227 // jb 5cc3 <_sk_store_f32_skx+0x7b> + .byte 114,227 // jb 5ecb <_sk_store_f32_skx+0x7b> .byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4) - .byte 116,218 // je 5cc3 <_sk_store_f32_skx+0x7b> + .byte 116,218 // je 5ecb <_sk_store_f32_skx+0x7b> .byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4) .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,205 // jb 5cc3 <_sk_store_f32_skx+0x7b> + .byte 114,205 // jb 5ecb <_sk_store_f32_skx+0x7b> .byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4) - .byte 116,195 // je 5cc3 <_sk_store_f32_skx+0x7b> + .byte 116,195 // je 5ecb <_sk_store_f32_skx+0x7b> .byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4) .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 114,181 // jb 5cc3 <_sk_store_f32_skx+0x7b> + .byte 114,181 // jb 5ecb <_sk_store_f32_skx+0x7b> .byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4) - .byte 235,171 // jmp 5cc3 <_sk_store_f32_skx+0x7b> + .byte 235,171 // jmp 5ecb <_sk_store_f32_skx+0x7b> HIDDEN _sk_repeat_x_skx .globl _sk_repeat_x_skx @@ -5796,7 +5896,7 @@ _sk_mirror_x_skx: .byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11 .byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0 .byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8 - .byte 197,178,89,5,135,58,3,0 // vmulss 0x33a87(%rip),%xmm9,%xmm0 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 197,178,89,5,147,66,3,0 // vmulss 0x34293(%rip),%xmm9,%xmm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0 .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0 .byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0 @@ -5819,7 +5919,7 @@ _sk_mirror_y_skx: .byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11 .byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1 .byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8 - .byte 197,178,89,13,54,58,3,0 // vmulss 0x33a36(%rip),%xmm9,%xmm1 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 197,178,89,13,66,66,3,0 // vmulss 0x34242(%rip),%xmm9,%xmm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1 .byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1 .byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1 @@ -5837,7 +5937,7 @@ FUNCTION(_sk_clamp_x_1_skx) _sk_clamp_x_1_skx: .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0 - .byte 98,241,124,56,93,5,253,57,3,0 // vminps 0x339fd(%rip){1to8},%ymm0,%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 98,241,124,56,93,5,9,66,3,0 // vminps 0x34209(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -5849,7 +5949,7 @@ _sk_repeat_x_1_skx: .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0 - .byte 98,241,124,56,93,5,219,57,3,0 // vminps 0x339db(%rip){1to8},%ymm0,%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 98,241,124,56,93,5,231,65,3,0 // vminps 0x341e7(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -5857,9 +5957,9 @@ HIDDEN _sk_mirror_x_1_skx .globl _sk_mirror_x_1_skx FUNCTION(_sk_mirror_x_1_skx) _sk_mirror_x_1_skx: - .byte 196,98,125,24,5,230,57,3,0 // vbroadcastss 0x339e6(%rip),%ymm8 # 3981c <_sk_srcover_bgra_8888_sse2_lowp+0x2c8> + .byte 196,98,125,24,5,242,65,3,0 // vbroadcastss 0x341f2(%rip),%ymm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8> .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0 - .byte 98,113,124,56,89,13,187,57,3,0 // vmulps 0x339bb(%rip){1to8},%ymm0,%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 98,113,124,56,89,13,199,65,3,0 // vmulps 0x341c7(%rip){1to8},%ymm0,%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9 .byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9 .byte 196,193,124,92,193 // vsubps %ymm9,%ymm0,%ymm0 @@ -5868,7 +5968,7 @@ _sk_mirror_x_1_skx: .byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9 .byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0 .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0 - .byte 98,241,124,56,93,5,143,57,3,0 // vminps 0x3398f(%rip){1to8},%ymm0,%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 98,241,124,56,93,5,155,65,3,0 // vminps 0x3419b(%rip){1to8},%ymm0,%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -5876,9 +5976,9 @@ HIDDEN _sk_luminance_to_alpha_skx .globl _sk_luminance_to_alpha_skx FUNCTION(_sk_luminance_to_alpha_skx) _sk_luminance_to_alpha_skx: - .byte 98,241,116,56,89,29,161,58,3,0 // vmulps 0x33aa1(%rip){1to8},%ymm1,%ymm3 # 39924 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0> - .byte 98,242,125,56,184,29,155,58,3,0 // vfmadd231ps 0x33a9b(%rip){1to8},%ymm0,%ymm3 # 39928 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4> - .byte 98,242,109,56,184,29,149,58,3,0 // vfmadd231ps 0x33a95(%rip){1to8},%ymm2,%ymm3 # 3992c <_sk_srcover_bgra_8888_sse2_lowp+0x3d8> + .byte 98,241,116,56,89,29,173,66,3,0 // vmulps 0x342ad(%rip){1to8},%ymm1,%ymm3 # 3a338 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0> + .byte 98,242,125,56,184,29,167,66,3,0 // vfmadd231ps 0x342a7(%rip){1to8},%ymm0,%ymm3 # 3a33c <_sk_srcover_bgra_8888_sse2_lowp+0x3d4> + .byte 98,242,109,56,184,29,161,66,3,0 // vfmadd231ps 0x342a1(%rip){1to8},%ymm2,%ymm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 @@ -6060,7 +6160,7 @@ _sk_evenly_spaced_gradient_skx: .byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1 .byte 197,126,91,209 // vcvttps2dq %ymm1,%ymm10 .byte 73,131,249,8 // cmp $0x8,%r9 - .byte 119,73 // ja 6195 <_sk_evenly_spaced_gradient_skx+0x70> + .byte 119,73 // ja 639d <_sk_evenly_spaced_gradient_skx+0x70> .byte 196,66,45,22,0 // vpermps (%r8),%ymm10,%ymm8 .byte 76,139,64,40 // mov 0x28(%rax),%r8 .byte 196,66,45,22,8 // vpermps (%r8),%ymm10,%ymm9 @@ -6076,7 +6176,7 @@ _sk_evenly_spaced_gradient_skx: .byte 196,194,45,22,24 // vpermps (%r8),%ymm10,%ymm3 .byte 72,139,64,64 // mov 0x40(%rax),%rax .byte 196,98,45,22,40 // vpermps (%rax),%ymm10,%ymm13 - .byte 233,147,0,0,0 // jmpq 6228 <_sk_evenly_spaced_gradient_skx+0x103> + .byte 233,147,0,0,0 // jmpq 6430 <_sk_evenly_spaced_gradient_skx+0x103> .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,2,117,146,4,144 // vgatherdps %ymm1,(%r8,%ymm10,4),%ymm8 @@ -6123,11 +6223,11 @@ _sk_gradient_skx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,0 // mov (%rax),%r8 .byte 73,131,248,1 // cmp $0x1,%r8 - .byte 15,134,229,0,0,0 // jbe 6338 <_sk_gradient_skx+0xf4> + .byte 15,134,229,0,0,0 // jbe 6540 <_sk_gradient_skx+0xf4> .byte 76,139,72,72 // mov 0x48(%rax),%r9 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 65,186,1,0,0,0 // mov $0x1,%r10d - .byte 196,226,125,24,21,158,53,3,0 // vbroadcastss 0x3359e(%rip),%ymm2 # 39808 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4> + .byte 196,226,125,24,21,170,61,3,0 // vbroadcastss 0x33daa(%rip),%ymm2 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4> .byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9 .byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3 .byte 98,241,100,40,194,192,2 // vcmpleps %ymm0,%ymm3,%k0 @@ -6136,10 +6236,10 @@ _sk_gradient_skx: .byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9 .byte 73,131,194,1 // add $0x1,%r10 .byte 77,57,208 // cmp %r10,%r8 - .byte 117,218 // jne 626f <_sk_gradient_skx+0x2b> + .byte 117,218 // jne 6477 <_sk_gradient_skx+0x2b> .byte 76,139,72,8 // mov 0x8(%rax),%r9 .byte 73,131,248,8 // cmp $0x8,%r8 - .byte 15,134,158,0,0,0 // jbe 6341 <_sk_gradient_skx+0xfd> + .byte 15,134,158,0,0,0 // jbe 6549 <_sk_gradient_skx+0xfd> .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,2,117,146,4,137 // vgatherdps %ymm1,(%r9,%ymm9,4),%ymm8 @@ -6171,7 +6271,7 @@ _sk_gradient_skx: .byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13 .byte 72,139,64,64 // mov 0x40(%rax),%rax .byte 196,34,13,146,44,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm13 - .byte 235,77 // jmp 6385 <_sk_gradient_skx+0x141> + .byte 235,77 // jmp 658d <_sk_gradient_skx+0x141> .byte 76,139,72,8 // mov 0x8(%rax),%r9 .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 .byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8 @@ -6227,24 +6327,24 @@ _sk_xy_to_unit_angle_skx: .byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12 .byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11 .byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12 - .byte 196,98,125,24,45,32,53,3,0 // vbroadcastss 0x33520(%rip),%ymm13 # 39930 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc> - .byte 98,114,29,56,168,45,26,53,3,0 // vfmadd213ps 0x3351a(%rip){1to8},%ymm12,%ymm13 # 39934 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0> - .byte 98,114,29,56,168,45,20,53,3,0 // vfmadd213ps 0x33514(%rip){1to8},%ymm12,%ymm13 # 39938 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4> - .byte 98,114,29,56,168,45,14,53,3,0 // vfmadd213ps 0x3350e(%rip){1to8},%ymm12,%ymm13 # 3993c <_sk_srcover_bgra_8888_sse2_lowp+0x3e8> + .byte 196,98,125,24,45,44,61,3,0 // vbroadcastss 0x33d2c(%rip),%ymm13 # 3a344 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc> + .byte 98,114,29,56,168,45,38,61,3,0 // vfmadd213ps 0x33d26(%rip){1to8},%ymm12,%ymm13 # 3a348 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0> + .byte 98,114,29,56,168,45,32,61,3,0 // vfmadd213ps 0x33d20(%rip){1to8},%ymm12,%ymm13 # 3a34c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4> + .byte 98,114,29,56,168,45,26,61,3,0 // vfmadd213ps 0x33d1a(%rip){1to8},%ymm12,%ymm13 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8> .byte 196,65,36,89,221 // vmulps %ymm13,%ymm11,%ymm11 .byte 98,209,52,40,194,194,1 // vcmpltps %ymm10,%ymm9,%k0 .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9 - .byte 196,98,125,24,21,247,52,3,0 // vbroadcastss 0x334f7(%rip),%ymm10 # 39940 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec> + .byte 196,98,125,24,21,3,61,3,0 // vbroadcastss 0x33d03(%rip),%ymm10 # 3a354 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec> .byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10 .byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9 .byte 98,209,124,40,194,192,1 // vcmpltps %ymm8,%ymm0,%k0 .byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0 - .byte 196,98,125,24,21,150,51,3,0 // vbroadcastss 0x33396(%rip),%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,21,162,59,3,0 // vbroadcastss 0x33ba2(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10 .byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0 .byte 98,209,116,40,194,192,1 // vcmpltps %ymm8,%ymm1,%k0 .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9 - .byte 196,98,125,24,21,121,51,3,0 // vbroadcastss 0x33379(%rip),%ymm10 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,21,133,59,3,0 // vbroadcastss 0x33b85(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10 .byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0 .byte 98,209,124,40,194,192,3 // vcmpunordps %ymm8,%ymm0,%k0 @@ -6273,19 +6373,19 @@ _sk_xy_to_2pt_conical_quadratic_first_skx: .byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10 .byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10 .byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10 - .byte 98,113,44,56,89,21,97,52,3,0 // vmulps 0x33461(%rip){1to8},%ymm10,%ymm10 # 39944 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0> + .byte 98,113,44,56,89,21,109,60,3,0 // vmulps 0x33c6d(%rip){1to8},%ymm10,%ymm10 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0> .byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11 .byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11 .byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0 .byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0 .byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0 - .byte 98,113,60,56,89,5,68,52,3,0 // vmulps 0x33444(%rip){1to8},%ymm8,%ymm8 # 39948 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4> + .byte 98,113,60,56,89,5,80,60,3,0 // vmulps 0x33c50(%rip){1to8},%ymm8,%ymm8 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4> .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0 .byte 197,252,81,192 // vsqrtps %ymm0,%ymm0 .byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8 .byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0 - .byte 98,113,60,56,89,5,218,50,3,0 // vmulps 0x332da(%rip){1to8},%ymm8,%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 98,113,60,56,89,5,230,58,3,0 // vmulps 0x33ae6(%rip){1to8},%ymm8,%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -6300,19 +6400,19 @@ _sk_xy_to_2pt_conical_quadratic_second_skx: .byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10 .byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10 .byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10 - .byte 98,113,44,56,89,21,240,51,3,0 // vmulps 0x333f0(%rip){1to8},%ymm10,%ymm10 # 39944 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0> + .byte 98,113,44,56,89,21,252,59,3,0 // vmulps 0x33bfc(%rip){1to8},%ymm10,%ymm10 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0> .byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11 .byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11 .byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0 .byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0 .byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0 - .byte 98,113,60,56,89,5,211,51,3,0 // vmulps 0x333d3(%rip){1to8},%ymm8,%ymm8 # 39948 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4> + .byte 98,113,60,56,89,5,223,59,3,0 // vmulps 0x33bdf(%rip){1to8},%ymm8,%ymm8 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4> .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0 .byte 197,252,81,192 // vsqrtps %ymm0,%ymm0 .byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8 - .byte 98,113,44,56,87,13,186,51,3,0 // vxorps 0x333ba(%rip){1to8},%ymm10,%ymm9 # 3994c <_sk_srcover_bgra_8888_sse2_lowp+0x3f8> - .byte 98,113,60,56,89,5,100,50,3,0 // vmulps 0x33264(%rip){1to8},%ymm8,%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 98,113,44,56,87,13,198,59,3,0 // vxorps 0x33bc6(%rip){1to8},%ymm10,%ymm9 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8> + .byte 98,113,60,56,89,5,112,58,3,0 // vmulps 0x33a70(%rip){1to8},%ymm8,%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0 .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax @@ -6327,13 +6427,13 @@ _sk_xy_to_2pt_conical_linear_skx: .byte 197,58,89,72,76 // vmulss 0x4c(%rax),%xmm8,%xmm9 .byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9 .byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9 - .byte 98,113,52,56,89,13,124,51,3,0 // vmulps 0x3337c(%rip){1to8},%ymm9,%ymm9 # 39944 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0> + .byte 98,113,52,56,89,13,136,59,3,0 // vmulps 0x33b88(%rip){1to8},%ymm9,%ymm9 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0> .byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10 .byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10 .byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0 .byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0 .byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0 - .byte 98,241,124,56,87,5,99,51,3,0 // vxorps 0x33363(%rip){1to8},%ymm0,%ymm0 # 3994c <_sk_srcover_bgra_8888_sse2_lowp+0x3f8> + .byte 98,241,124,56,87,5,111,59,3,0 // vxorps 0x33b6f(%rip){1to8},%ymm0,%ymm0 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8> .byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -6375,7 +6475,7 @@ HIDDEN _sk_save_xy_skx FUNCTION(_sk_save_xy_skx) _sk_save_xy_skx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,98,125,24,5,164,49,3,0 // vbroadcastss 0x331a4(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,5,176,57,3,0 // vbroadcastss 0x339b0(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9 .byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10 .byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9 @@ -6410,8 +6510,8 @@ FUNCTION(_sk_bilinear_nx_skx) _sk_bilinear_nx_skx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,0 // vmovups (%rax),%ymm0 - .byte 98,241,124,56,88,5,121,50,3,0 // vaddps 0x33279(%rip){1to8},%ymm0,%ymm0 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> - .byte 196,98,125,24,5,36,49,3,0 // vbroadcastss 0x33124(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 98,241,124,56,88,5,133,58,3,0 // vaddps 0x33a85(%rip){1to8},%ymm0,%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> + .byte 196,98,125,24,5,48,57,3,0 // vbroadcastss 0x33930(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8 .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -6424,7 +6524,7 @@ _sk_bilinear_px_skx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,0 // vmovups (%rax),%ymm0 .byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8 - .byte 98,241,124,56,88,5,244,48,3,0 // vaddps 0x330f4(%rip){1to8},%ymm0,%ymm0 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 98,241,124,56,88,5,0,57,3,0 // vaddps 0x33900(%rip){1to8},%ymm0,%ymm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -6435,8 +6535,8 @@ FUNCTION(_sk_bilinear_ny_skx) _sk_bilinear_ny_skx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1 - .byte 98,241,116,56,88,13,39,50,3,0 // vaddps 0x33227(%rip){1to8},%ymm1,%ymm1 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> - .byte 196,98,125,24,5,210,48,3,0 // vbroadcastss 0x330d2(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 98,241,116,56,88,13,51,58,3,0 // vaddps 0x33a33(%rip){1to8},%ymm1,%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> + .byte 196,98,125,24,5,222,56,3,0 // vbroadcastss 0x338de(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8 .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -6449,7 +6549,7 @@ _sk_bilinear_py_skx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1 .byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8 - .byte 98,241,116,56,88,13,161,48,3,0 // vaddps 0x330a1(%rip){1to8},%ymm1,%ymm1 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 98,241,116,56,88,13,173,56,3,0 // vaddps 0x338ad(%rip){1to8},%ymm1,%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -6460,12 +6560,12 @@ FUNCTION(_sk_bicubic_n3x_skx) _sk_bicubic_n3x_skx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,0 // vmovups (%rax),%ymm0 - .byte 98,241,124,56,88,5,217,49,3,0 // vaddps 0x331d9(%rip){1to8},%ymm0,%ymm0 # 39954 <_sk_srcover_bgra_8888_sse2_lowp+0x400> - .byte 196,98,125,24,5,128,48,3,0 // vbroadcastss 0x33080(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 98,241,124,56,88,5,229,57,3,0 // vaddps 0x339e5(%rip){1to8},%ymm0,%ymm0 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400> + .byte 196,98,125,24,5,140,56,3,0 // vbroadcastss 0x3388c(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8 .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 - .byte 196,98,125,24,21,190,49,3,0 // vbroadcastss 0x331be(%rip),%ymm10 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404> - .byte 98,114,61,56,168,21,212,48,3,0 // vfmadd213ps 0x330d4(%rip){1to8},%ymm8,%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324> + .byte 196,98,125,24,21,202,57,3,0 // vbroadcastss 0x339ca(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404> + .byte 98,114,61,56,168,21,224,56,3,0 // vfmadd213ps 0x338e0(%rip){1to8},%ymm8,%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324> .byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8 .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -6477,13 +6577,13 @@ FUNCTION(_sk_bicubic_n1x_skx) _sk_bicubic_n1x_skx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,0 // vmovups (%rax),%ymm0 - .byte 98,241,124,56,88,5,139,49,3,0 // vaddps 0x3318b(%rip){1to8},%ymm0,%ymm0 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> - .byte 196,98,125,24,5,54,48,3,0 // vbroadcastss 0x33036(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 98,241,124,56,88,5,151,57,3,0 // vaddps 0x33997(%rip){1to8},%ymm0,%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> + .byte 196,98,125,24,5,66,56,3,0 // vbroadcastss 0x33842(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8 - .byte 196,98,125,24,13,125,49,3,0 // vbroadcastss 0x3317d(%rip),%ymm9 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408> - .byte 98,114,61,56,168,13,119,49,3,0 // vfmadd213ps 0x33177(%rip){1to8},%ymm8,%ymm9 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> - .byte 98,114,61,56,168,13,13,48,3,0 // vfmadd213ps 0x3300d(%rip){1to8},%ymm8,%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> - .byte 98,114,61,56,168,13,103,49,3,0 // vfmadd213ps 0x33167(%rip){1to8},%ymm8,%ymm9 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410> + .byte 196,98,125,24,13,137,57,3,0 // vbroadcastss 0x33989(%rip),%ymm9 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408> + .byte 98,114,61,56,168,13,131,57,3,0 // vfmadd213ps 0x33983(%rip){1to8},%ymm8,%ymm9 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> + .byte 98,114,61,56,168,13,25,56,3,0 // vfmadd213ps 0x33819(%rip){1to8},%ymm8,%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 98,114,61,56,168,13,115,57,3,0 // vfmadd213ps 0x33973(%rip){1to8},%ymm8,%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410> .byte 197,124,17,136,0,1,0,0 // vmovups %ymm9,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -6493,13 +6593,13 @@ HIDDEN _sk_bicubic_p1x_skx FUNCTION(_sk_bicubic_p1x_skx) _sk_bicubic_p1x_skx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,98,125,24,5,236,47,3,0 // vbroadcastss 0x32fec(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,5,248,55,3,0 // vbroadcastss 0x337f8(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0 .byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9 - .byte 196,98,125,24,21,51,49,3,0 // vbroadcastss 0x33133(%rip),%ymm10 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408> - .byte 98,114,53,56,168,21,45,49,3,0 // vfmadd213ps 0x3312d(%rip){1to8},%ymm9,%ymm10 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> + .byte 196,98,125,24,21,63,57,3,0 // vbroadcastss 0x3393f(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408> + .byte 98,114,53,56,168,21,57,57,3,0 // vfmadd213ps 0x33939(%rip){1to8},%ymm9,%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> .byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10 - .byte 98,114,53,56,168,21,34,49,3,0 // vfmadd213ps 0x33122(%rip){1to8},%ymm9,%ymm10 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410> + .byte 98,114,53,56,168,21,46,57,3,0 // vfmadd213ps 0x3392e(%rip){1to8},%ymm9,%ymm10 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410> .byte 197,124,17,144,0,1,0,0 // vmovups %ymm10,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -6511,10 +6611,10 @@ _sk_bicubic_p3x_skx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,0 // vmovups (%rax),%ymm0 .byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8 - .byte 98,241,124,56,88,5,250,48,3,0 // vaddps 0x330fa(%rip){1to8},%ymm0,%ymm0 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> + .byte 98,241,124,56,88,5,6,57,3,0 // vaddps 0x33906(%rip){1to8},%ymm0,%ymm0 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 - .byte 196,98,125,24,21,228,48,3,0 // vbroadcastss 0x330e4(%rip),%ymm10 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404> - .byte 98,114,61,56,168,21,250,47,3,0 // vfmadd213ps 0x32ffa(%rip){1to8},%ymm8,%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324> + .byte 196,98,125,24,21,240,56,3,0 // vbroadcastss 0x338f0(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404> + .byte 98,114,61,56,168,21,6,56,3,0 // vfmadd213ps 0x33806(%rip){1to8},%ymm8,%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324> .byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8 .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -6526,12 +6626,12 @@ FUNCTION(_sk_bicubic_n3y_skx) _sk_bicubic_n3y_skx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1 - .byte 98,241,116,56,88,13,180,48,3,0 // vaddps 0x330b4(%rip){1to8},%ymm1,%ymm1 # 39954 <_sk_srcover_bgra_8888_sse2_lowp+0x400> - .byte 196,98,125,24,5,91,47,3,0 // vbroadcastss 0x32f5b(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 98,241,116,56,88,13,192,56,3,0 // vaddps 0x338c0(%rip){1to8},%ymm1,%ymm1 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400> + .byte 196,98,125,24,5,103,55,3,0 // vbroadcastss 0x33767(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8 .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 - .byte 196,98,125,24,21,153,48,3,0 // vbroadcastss 0x33099(%rip),%ymm10 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404> - .byte 98,114,61,56,168,21,175,47,3,0 // vfmadd213ps 0x32faf(%rip){1to8},%ymm8,%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324> + .byte 196,98,125,24,21,165,56,3,0 // vbroadcastss 0x338a5(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404> + .byte 98,114,61,56,168,21,187,55,3,0 // vfmadd213ps 0x337bb(%rip){1to8},%ymm8,%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324> .byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8 .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -6543,13 +6643,13 @@ FUNCTION(_sk_bicubic_n1y_skx) _sk_bicubic_n1y_skx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1 - .byte 98,241,116,56,88,13,101,48,3,0 // vaddps 0x33065(%rip){1to8},%ymm1,%ymm1 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> - .byte 196,98,125,24,5,16,47,3,0 // vbroadcastss 0x32f10(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 98,241,116,56,88,13,113,56,3,0 // vaddps 0x33871(%rip){1to8},%ymm1,%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> + .byte 196,98,125,24,5,28,55,3,0 // vbroadcastss 0x3371c(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8 - .byte 196,98,125,24,13,87,48,3,0 // vbroadcastss 0x33057(%rip),%ymm9 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408> - .byte 98,114,61,56,168,13,81,48,3,0 // vfmadd213ps 0x33051(%rip){1to8},%ymm8,%ymm9 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> - .byte 98,114,61,56,168,13,231,46,3,0 // vfmadd213ps 0x32ee7(%rip){1to8},%ymm8,%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> - .byte 98,114,61,56,168,13,65,48,3,0 // vfmadd213ps 0x33041(%rip){1to8},%ymm8,%ymm9 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410> + .byte 196,98,125,24,13,99,56,3,0 // vbroadcastss 0x33863(%rip),%ymm9 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408> + .byte 98,114,61,56,168,13,93,56,3,0 // vfmadd213ps 0x3385d(%rip){1to8},%ymm8,%ymm9 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> + .byte 98,114,61,56,168,13,243,54,3,0 // vfmadd213ps 0x336f3(%rip){1to8},%ymm8,%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 98,114,61,56,168,13,77,56,3,0 // vfmadd213ps 0x3384d(%rip){1to8},%ymm8,%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410> .byte 197,124,17,136,64,1,0,0 // vmovups %ymm9,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -6559,13 +6659,13 @@ HIDDEN _sk_bicubic_p1y_skx FUNCTION(_sk_bicubic_p1y_skx) _sk_bicubic_p1y_skx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,98,125,24,5,198,46,3,0 // vbroadcastss 0x32ec6(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,5,210,54,3,0 // vbroadcastss 0x336d2(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1 .byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9 - .byte 196,98,125,24,21,12,48,3,0 // vbroadcastss 0x3300c(%rip),%ymm10 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408> - .byte 98,114,53,56,168,21,6,48,3,0 // vfmadd213ps 0x33006(%rip){1to8},%ymm9,%ymm10 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> + .byte 196,98,125,24,21,24,56,3,0 // vbroadcastss 0x33818(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408> + .byte 98,114,53,56,168,21,18,56,3,0 // vfmadd213ps 0x33812(%rip){1to8},%ymm9,%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> .byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10 - .byte 98,114,53,56,168,21,251,47,3,0 // vfmadd213ps 0x32ffb(%rip){1to8},%ymm9,%ymm10 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410> + .byte 98,114,53,56,168,21,7,56,3,0 // vfmadd213ps 0x33807(%rip){1to8},%ymm9,%ymm10 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410> .byte 197,124,17,144,64,1,0,0 // vmovups %ymm10,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -6577,10 +6677,10 @@ _sk_bicubic_p3y_skx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1 .byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8 - .byte 98,241,116,56,88,13,210,47,3,0 // vaddps 0x32fd2(%rip){1to8},%ymm1,%ymm1 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> + .byte 98,241,116,56,88,13,222,55,3,0 // vaddps 0x337de(%rip){1to8},%ymm1,%ymm1 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 - .byte 196,98,125,24,21,188,47,3,0 // vbroadcastss 0x32fbc(%rip),%ymm10 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404> - .byte 98,114,61,56,168,21,210,46,3,0 // vfmadd213ps 0x32ed2(%rip){1to8},%ymm8,%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324> + .byte 196,98,125,24,21,200,55,3,0 // vbroadcastss 0x337c8(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404> + .byte 98,114,61,56,168,21,222,54,3,0 // vfmadd213ps 0x336de(%rip){1to8},%ymm8,%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324> .byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8 .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -6706,7 +6806,7 @@ _sk_clut_3D_skx: .byte 98,226,61,40,64,224 // vpmulld %ymm0,%ymm8,%ymm20 .byte 98,209,93,32,254,193 // vpaddd %ymm9,%ymm20,%ymm0 .byte 72,139,0 // mov (%rax),%rax - .byte 98,98,125,40,88,29,198,45,3,0 // vpbroadcastd 0x32dc6(%rip),%ymm27 # 3996c <_sk_srcover_bgra_8888_sse2_lowp+0x418> + .byte 98,98,125,40,88,29,210,53,3,0 // vpbroadcastd 0x335d2(%rip),%ymm27 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418> .byte 98,146,125,40,64,195 // vpmulld %ymm27,%ymm0,%ymm0 .byte 196,65,45,239,210 // vpxor %ymm10,%ymm10,%ymm10 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 @@ -6719,9 +6819,9 @@ _sk_clut_3D_skx: .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11 .byte 196,162,37,146,12,144 // vgatherdps %ymm11,(%rax,%ymm10,4),%ymm1 .byte 98,97,124,40,40,233 // vmovaps %ymm1,%ymm29 - .byte 196,98,125,24,21,124,45,3,0 // vbroadcastss 0x32d7c(%rip),%ymm10 # 39968 <_sk_srcover_bgra_8888_sse2_lowp+0x414> + .byte 196,98,125,24,21,136,53,3,0 // vbroadcastss 0x33588(%rip),%ymm10 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414> .byte 98,81,60,32,88,218 // vaddps %ymm10,%ymm24,%ymm11 - .byte 98,226,125,40,88,5,20,44,3,0 // vpbroadcastd 0x32c14(%rip),%ymm16 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc> + .byte 98,226,125,40,88,5,32,52,3,0 // vpbroadcastd 0x33420(%rip),%ymm16 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc> .byte 98,177,125,40,254,192 // vpaddd %ymm16,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12 @@ -6961,7 +7061,7 @@ _sk_clut_4D_skx: .byte 98,162,45,40,64,229 // vpmulld %ymm21,%ymm10,%ymm20 .byte 98,241,93,32,254,193 // vpaddd %ymm1,%ymm20,%ymm0 .byte 72,139,0 // mov (%rax),%rax - .byte 98,226,125,40,88,5,88,40,3,0 // vpbroadcastd 0x32858(%rip),%ymm16 # 3996c <_sk_srcover_bgra_8888_sse2_lowp+0x418> + .byte 98,226,125,40,88,5,100,48,3,0 // vpbroadcastd 0x33064(%rip),%ymm16 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418> .byte 98,50,125,40,64,216 // vpmulld %ymm16,%ymm0,%ymm11 .byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12 .byte 197,253,118,192 // vpcmpeqd %ymm0,%ymm0,%ymm0 @@ -6973,9 +7073,9 @@ _sk_clut_4D_skx: .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12 .byte 196,98,29,146,44,128 // vgatherdps %ymm12,(%rax,%ymm0,4),%ymm13 .byte 197,124,17,172,36,192,4,0,0 // vmovups %ymm13,0x4c0(%rsp) - .byte 196,226,125,24,5,10,40,3,0 // vbroadcastss 0x3280a(%rip),%ymm0 # 39968 <_sk_srcover_bgra_8888_sse2_lowp+0x414> + .byte 196,226,125,24,5,22,48,3,0 // vbroadcastss 0x33016(%rip),%ymm0 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414> .byte 98,113,28,32,88,224 // vaddps %ymm0,%ymm28,%ymm12 - .byte 98,226,125,40,88,13,162,38,3,0 // vpbroadcastd 0x326a2(%rip),%ymm17 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc> + .byte 98,226,125,40,88,13,174,46,3,0 // vpbroadcastd 0x32eae(%rip),%ymm17 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc> .byte 98,49,37,40,254,217 // vpaddd %ymm17,%ymm11,%ymm11 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 .byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13 @@ -7380,7 +7480,7 @@ _sk_clut_4D_skx: .byte 197,228,92,214 // vsubps %ymm6,%ymm3,%ymm2 .byte 196,226,93,168,214 // vfmadd213ps %ymm6,%ymm4,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,64,29,3,0 // vbroadcastss 0x31d40(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,76,37,3,0 // vbroadcastss 0x3254c(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 98,145,124,40,40,227 // vmovaps %ymm27,%ymm4 .byte 197,252,16,108,36,128 // vmovups -0x80(%rsp),%ymm5 .byte 197,252,16,116,36,160 // vmovups -0x60(%rsp),%ymm6 @@ -7392,11 +7492,11 @@ HIDDEN _sk_gauss_a_to_rgba_skx .globl _sk_gauss_a_to_rgba_skx FUNCTION(_sk_gauss_a_to_rgba_skx) _sk_gauss_a_to_rgba_skx: - .byte 196,226,125,24,5,130,30,3,0 // vbroadcastss 0x31e82(%rip),%ymm0 # 39970 <_sk_srcover_bgra_8888_sse2_lowp+0x41c> - .byte 98,242,101,56,168,5,124,30,3,0 // vfmadd213ps 0x31e7c(%rip){1to8},%ymm3,%ymm0 # 39974 <_sk_srcover_bgra_8888_sse2_lowp+0x420> - .byte 98,242,101,56,168,5,118,30,3,0 // vfmadd213ps 0x31e76(%rip){1to8},%ymm3,%ymm0 # 39978 <_sk_srcover_bgra_8888_sse2_lowp+0x424> - .byte 98,242,101,56,168,5,112,30,3,0 // vfmadd213ps 0x31e70(%rip){1to8},%ymm3,%ymm0 # 3997c <_sk_srcover_bgra_8888_sse2_lowp+0x428> - .byte 98,242,101,56,168,5,106,30,3,0 // vfmadd213ps 0x31e6a(%rip){1to8},%ymm3,%ymm0 # 39980 <_sk_srcover_bgra_8888_sse2_lowp+0x42c> + .byte 196,226,125,24,5,142,38,3,0 // vbroadcastss 0x3268e(%rip),%ymm0 # 3a384 <_sk_srcover_bgra_8888_sse2_lowp+0x41c> + .byte 98,242,101,56,168,5,136,38,3,0 // vfmadd213ps 0x32688(%rip){1to8},%ymm3,%ymm0 # 3a388 <_sk_srcover_bgra_8888_sse2_lowp+0x420> + .byte 98,242,101,56,168,5,130,38,3,0 // vfmadd213ps 0x32682(%rip){1to8},%ymm3,%ymm0 # 3a38c <_sk_srcover_bgra_8888_sse2_lowp+0x424> + .byte 98,242,101,56,168,5,124,38,3,0 // vfmadd213ps 0x3267c(%rip){1to8},%ymm3,%ymm0 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x428> + .byte 98,242,101,56,168,5,118,38,3,0 // vfmadd213ps 0x32676(%rip){1to8},%ymm3,%ymm0 # 3a394 <_sk_srcover_bgra_8888_sse2_lowp+0x42c> .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 @@ -7426,13 +7526,13 @@ _sk_start_pipeline_hsw: .byte 73,137,246 // mov %rsi,%r14 .byte 72,137,77,192 // mov %rcx,-0x40(%rbp) .byte 72,57,203 // cmp %rcx,%rbx - .byte 15,131,151,0,0,0 // jae 7bf2 <_sk_start_pipeline_hsw+0xca> + .byte 15,131,151,0,0,0 // jae 7dfa <_sk_start_pipeline_hsw+0xca> .byte 72,139,69,208 // mov -0x30(%rbp),%rax .byte 72,141,64,8 // lea 0x8(%rax),%rax .byte 72,137,69,200 // mov %rax,-0x38(%rbp) .byte 72,139,85,208 // mov -0x30(%rbp),%rdx .byte 76,57,125,200 // cmp %r15,-0x38(%rbp) - .byte 119,67 // ja 7bb4 <_sk_start_pipeline_hsw+0x8c> + .byte 119,67 // ja 7dbc <_sk_start_pipeline_hsw+0x8c> .byte 76,139,101,208 // mov -0x30(%rbp),%r12 .byte 49,255 // xor %edi,%edi .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 @@ -7451,10 +7551,10 @@ _sk_start_pipeline_hsw: .byte 73,131,196,16 // add $0x10,%r12 .byte 77,57,252 // cmp %r15,%r12 .byte 73,137,212 // mov %rdx,%r12 - .byte 118,193 // jbe 7b75 <_sk_start_pipeline_hsw+0x4d> + .byte 118,193 // jbe 7d7d <_sk_start_pipeline_hsw+0x4d> .byte 76,137,255 // mov %r15,%rdi .byte 72,41,215 // sub %rdx,%rdi - .byte 116,41 // je 7be5 <_sk_start_pipeline_hsw+0xbd> + .byte 116,41 // je 7ded <_sk_start_pipeline_hsw+0xbd> .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 @@ -7468,7 +7568,7 @@ _sk_start_pipeline_hsw: .byte 65,255,213 // callq *%r13 .byte 72,255,195 // inc %rbx .byte 72,59,93,192 // cmp -0x40(%rbp),%rbx - .byte 15,133,117,255,255,255 // jne 7b67 <_sk_start_pipeline_hsw+0x3f> + .byte 15,133,117,255,255,255 // jne 7d6f <_sk_start_pipeline_hsw+0x3f> .byte 72,131,196,24 // add $0x18,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 @@ -7497,10 +7597,10 @@ _sk_seed_shader_hsw: .byte 197,249,110,201 // vmovd %ecx,%xmm1 .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 - .byte 196,226,125,24,21,210,27,3,0 // vbroadcastss 0x31bd2(%rip),%ymm2 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,226,125,24,21,222,35,3,0 // vbroadcastss 0x323de(%rip),%ymm2 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,21,199,27,3,0 // vbroadcastss 0x31bc7(%rip),%ymm2 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,21,211,35,3,0 // vbroadcastss 0x323d3(%rip),%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3 .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4 .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5 @@ -7515,17 +7615,17 @@ _sk_dither_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,121,110,194 // vmovd %edx,%xmm8 .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8 - .byte 197,61,254,5,90,29,3,0 // vpaddd 0x31d5a(%rip),%ymm8,%ymm8 # 399c0 <_sk_srcover_bgra_8888_sse2_lowp+0x46c> + .byte 197,61,254,5,114,37,3,0 // vpaddd 0x32572(%rip),%ymm8,%ymm8 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x478> .byte 197,121,110,201 // vmovd %ecx,%xmm9 .byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9 .byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9 - .byte 196,98,125,88,21,139,27,3,0 // vpbroadcastd 0x31b8b(%rip),%ymm10 # 39808 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4> + .byte 196,98,125,88,21,151,35,3,0 // vpbroadcastd 0x32397(%rip),%ymm10 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4> .byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11 .byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11 .byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10 .byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10 - .byte 196,98,125,88,37,112,27,3,0 // vpbroadcastd 0x31b70(%rip),%ymm12 # 3980c <_sk_srcover_bgra_8888_sse2_lowp+0x2b8> - .byte 196,98,125,88,45,107,27,3,0 // vpbroadcastd 0x31b6b(%rip),%ymm13 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc> + .byte 196,98,125,88,37,124,35,3,0 // vpbroadcastd 0x3237c(%rip),%ymm12 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8> + .byte 196,98,125,88,45,119,35,3,0 // vpbroadcastd 0x32377(%rip),%ymm13 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc> .byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14 .byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14 .byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11 @@ -7540,8 +7640,8 @@ _sk_dither_hsw: .byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8 .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 196,98,125,24,13,29,27,3,0 // vbroadcastss 0x31b1d(%rip),%ymm9 # 39814 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0> - .byte 196,98,125,24,21,24,27,3,0 // vbroadcastss 0x31b18(%rip),%ymm10 # 39818 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4> + .byte 196,98,125,24,13,41,35,3,0 // vbroadcastss 0x32329(%rip),%ymm9 # 3a228 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0> + .byte 196,98,125,24,21,36,35,3,0 // vbroadcastss 0x32324(%rip),%ymm10 # 3a22c <_sk_srcover_bgra_8888_sse2_lowp+0x2c4> .byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10 .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8 .byte 196,65,44,89,192 // vmulps %ymm8,%ymm10,%ymm8 @@ -7575,7 +7675,7 @@ HIDDEN _sk_black_color_hsw FUNCTION(_sk_black_color_hsw) _sk_black_color_hsw: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,160,26,3,0 // vbroadcastss 0x31aa0(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,172,34,3,0 // vbroadcastss 0x322ac(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 @@ -7586,7 +7686,7 @@ HIDDEN _sk_white_color_hsw FUNCTION(_sk_white_color_hsw) _sk_white_color_hsw: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,5,135,26,3,0 // vbroadcastss 0x31a87(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,5,147,34,3,0 // vbroadcastss 0x32293(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 197,252,40,216 // vmovaps %ymm0,%ymm3 @@ -7632,7 +7732,7 @@ HIDDEN _sk_srcatop_hsw FUNCTION(_sk_srcatop_hsw) _sk_srcatop_hsw: .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0 - .byte 196,98,125,24,5,38,26,3,0 // vbroadcastss 0x31a26(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,50,34,3,0 // vbroadcastss 0x32232(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0 .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1 @@ -7648,7 +7748,7 @@ HIDDEN _sk_dstatop_hsw .globl _sk_dstatop_hsw FUNCTION(_sk_dstatop_hsw) _sk_dstatop_hsw: - .byte 196,98,125,24,5,245,25,3,0 // vbroadcastss 0x319f5(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,1,34,3,0 // vbroadcastss 0x32201(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0 @@ -7687,7 +7787,7 @@ HIDDEN _sk_srcout_hsw .globl _sk_srcout_hsw FUNCTION(_sk_srcout_hsw) _sk_srcout_hsw: - .byte 196,98,125,24,5,152,25,3,0 // vbroadcastss 0x31998(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,164,33,3,0 // vbroadcastss 0x321a4(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 @@ -7700,7 +7800,7 @@ HIDDEN _sk_dstout_hsw .globl _sk_dstout_hsw FUNCTION(_sk_dstout_hsw) _sk_dstout_hsw: - .byte 196,226,125,24,5,119,25,3,0 // vbroadcastss 0x31977(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,5,131,33,3,0 // vbroadcastss 0x32183(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3 .byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0 .byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1 @@ -7713,7 +7813,7 @@ HIDDEN _sk_srcover_hsw .globl _sk_srcover_hsw FUNCTION(_sk_srcover_hsw) _sk_srcover_hsw: - .byte 196,98,125,24,5,86,25,3,0 // vbroadcastss 0x31956(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,98,33,3,0 // vbroadcastss 0x32162(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0 .byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1 @@ -7726,7 +7826,7 @@ HIDDEN _sk_dstover_hsw .globl _sk_dstover_hsw FUNCTION(_sk_dstover_hsw) _sk_dstover_hsw: - .byte 196,98,125,24,5,49,25,3,0 // vbroadcastss 0x31931(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,61,33,3,0 // vbroadcastss 0x3213d(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8 .byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0 .byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1 @@ -7750,7 +7850,7 @@ HIDDEN _sk_multiply_hsw .globl _sk_multiply_hsw FUNCTION(_sk_multiply_hsw) _sk_multiply_hsw: - .byte 196,98,125,24,5,248,24,3,0 // vbroadcastss 0x318f8(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,4,33,3,0 // vbroadcastss 0x32104(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 @@ -7773,7 +7873,7 @@ HIDDEN _sk_plus__hsw FUNCTION(_sk_plus__hsw) _sk_plus__hsw: .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0 - .byte 196,98,125,24,5,167,24,3,0 // vbroadcastss 0x318a7(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,179,32,3,0 // vbroadcastss 0x320b3(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1 .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1 @@ -7803,7 +7903,7 @@ HIDDEN _sk_xor__hsw .globl _sk_xor__hsw FUNCTION(_sk_xor__hsw) _sk_xor__hsw: - .byte 196,98,125,24,5,82,24,3,0 // vbroadcastss 0x31852(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,94,32,3,0 // vbroadcastss 0x3205e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 @@ -7837,7 +7937,7 @@ _sk_darken_hsw: .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9 .byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 - .byte 196,98,125,24,5,214,23,3,0 // vbroadcastss 0x317d6(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,226,31,3,0 // vbroadcastss 0x31fe2(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax @@ -7862,7 +7962,7 @@ _sk_lighten_hsw: .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9 .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 - .byte 196,98,125,24,5,129,23,3,0 // vbroadcastss 0x31781(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,141,31,3,0 // vbroadcastss 0x31f8d(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax @@ -7890,7 +7990,7 @@ _sk_difference_hsw: .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2 .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 - .byte 196,98,125,24,5,32,23,3,0 // vbroadcastss 0x31720(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,44,31,3,0 // vbroadcastss 0x31f2c(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax @@ -7912,7 +8012,7 @@ _sk_exclusion_hsw: .byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2 .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 - .byte 196,98,125,24,5,218,22,3,0 // vbroadcastss 0x316da(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,230,30,3,0 // vbroadcastss 0x31ee6(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax @@ -7922,7 +8022,7 @@ HIDDEN _sk_colorburn_hsw .globl _sk_colorburn_hsw FUNCTION(_sk_colorburn_hsw) _sk_colorburn_hsw: - .byte 196,98,125,24,5,196,22,3,0 // vbroadcastss 0x316c4(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,208,30,3,0 // vbroadcastss 0x31ed0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11 .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10 @@ -7980,7 +8080,7 @@ HIDDEN _sk_colordodge_hsw FUNCTION(_sk_colordodge_hsw) _sk_colordodge_hsw: .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 - .byte 196,98,125,24,13,212,21,3,0 // vbroadcastss 0x315d4(%rip),%ymm9 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,13,224,29,3,0 // vbroadcastss 0x31de0(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10 .byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11 .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9 @@ -8033,7 +8133,7 @@ HIDDEN _sk_hardlight_hsw .globl _sk_hardlight_hsw FUNCTION(_sk_hardlight_hsw) _sk_hardlight_hsw: - .byte 196,98,125,24,5,238,20,3,0 // vbroadcastss 0x314ee(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,250,28,3,0 // vbroadcastss 0x31cfa(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10 .byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 @@ -8084,7 +8184,7 @@ HIDDEN _sk_overlay_hsw .globl _sk_overlay_hsw FUNCTION(_sk_overlay_hsw) _sk_overlay_hsw: - .byte 196,98,125,24,5,34,20,3,0 // vbroadcastss 0x31422(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,46,28,3,0 // vbroadcastss 0x31c2e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10 .byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 @@ -8145,10 +8245,10 @@ _sk_softlight_hsw: .byte 196,65,20,88,197 // vaddps %ymm13,%ymm13,%ymm8 .byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8 .byte 196,66,61,168,192 // vfmadd213ps %ymm8,%ymm8,%ymm8 - .byte 196,98,125,24,29,61,19,3,0 // vbroadcastss 0x3133d(%rip),%ymm11 # 3981c <_sk_srcover_bgra_8888_sse2_lowp+0x2c8> + .byte 196,98,125,24,29,73,27,3,0 // vbroadcastss 0x31b49(%rip),%ymm11 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8> .byte 196,65,20,88,227 // vaddps %ymm11,%ymm13,%ymm12 .byte 196,65,28,89,192 // vmulps %ymm8,%ymm12,%ymm8 - .byte 196,98,125,24,37,46,19,3,0 // vbroadcastss 0x3132e(%rip),%ymm12 # 39820 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc> + .byte 196,98,125,24,37,58,27,3,0 // vbroadcastss 0x31b3a(%rip),%ymm12 # 3a234 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc> .byte 196,66,21,184,196 // vfmadd231ps %ymm12,%ymm13,%ymm8 .byte 196,65,124,82,245 // vrsqrtps %ymm13,%ymm14 .byte 196,65,124,83,246 // vrcpps %ymm14,%ymm14 @@ -8158,7 +8258,7 @@ _sk_softlight_hsw: .byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15 .byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14 .byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15 - .byte 196,98,125,24,5,221,18,3,0 // vbroadcastss 0x312dd(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,233,26,3,0 // vbroadcastss 0x31ae9(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,65,60,92,237 // vsubps %ymm13,%ymm8,%ymm13 .byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0 .byte 196,98,125,168,235 // vfmadd213ps %ymm3,%ymm0,%ymm13 @@ -8271,11 +8371,11 @@ _sk_hue_hsw: .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10 .byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10 .byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12 - .byte 196,98,125,24,53,245,16,3,0 // vbroadcastss 0x310f5(%rip),%ymm14 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> - .byte 196,98,125,24,61,240,16,3,0 // vbroadcastss 0x310f0(%rip),%ymm15 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> + .byte 196,98,125,24,53,1,25,3,0 // vbroadcastss 0x31901(%rip),%ymm14 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> + .byte 196,98,125,24,61,252,24,3,0 // vbroadcastss 0x318fc(%rip),%ymm15 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> .byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13 .byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13 - .byte 196,226,125,24,5,225,16,3,0 // vbroadcastss 0x310e1(%rip),%ymm0 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> + .byte 196,226,125,24,5,237,24,3,0 // vbroadcastss 0x318ed(%rip),%ymm0 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> .byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13 .byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10 .byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10 @@ -8330,7 +8430,7 @@ _sk_hue_hsw: .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0 .byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9 .byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8 - .byte 196,226,125,24,13,162,15,3,0 // vbroadcastss 0x30fa2(%rip),%ymm1 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,13,174,23,3,0 // vbroadcastss 0x317ae(%rip),%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10 .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2 .byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11 @@ -8384,11 +8484,11 @@ _sk_saturation_hsw: .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10 .byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10 .byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12 - .byte 196,98,125,24,53,213,14,3,0 // vbroadcastss 0x30ed5(%rip),%ymm14 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> - .byte 196,98,125,24,61,208,14,3,0 // vbroadcastss 0x30ed0(%rip),%ymm15 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> + .byte 196,98,125,24,53,225,22,3,0 // vbroadcastss 0x316e1(%rip),%ymm14 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> + .byte 196,98,125,24,61,220,22,3,0 // vbroadcastss 0x316dc(%rip),%ymm15 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> .byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13 .byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13 - .byte 196,226,125,24,5,193,14,3,0 // vbroadcastss 0x30ec1(%rip),%ymm0 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> + .byte 196,226,125,24,5,205,22,3,0 // vbroadcastss 0x316cd(%rip),%ymm0 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> .byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13 .byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10 .byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10 @@ -8443,7 +8543,7 @@ _sk_saturation_hsw: .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0 .byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9 .byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8 - .byte 196,226,125,24,13,130,13,3,0 // vbroadcastss 0x30d82(%rip),%ymm1 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,13,142,21,3,0 // vbroadcastss 0x3158e(%rip),%ymm1 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10 .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2 .byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11 @@ -8471,11 +8571,11 @@ _sk_color_hsw: .byte 197,108,89,199 // vmulps %ymm7,%ymm2,%ymm8 .byte 197,116,89,215 // vmulps %ymm7,%ymm1,%ymm10 .byte 197,52,89,223 // vmulps %ymm7,%ymm9,%ymm11 - .byte 196,98,125,24,45,55,13,3,0 // vbroadcastss 0x30d37(%rip),%ymm13 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> - .byte 196,98,125,24,53,50,13,3,0 // vbroadcastss 0x30d32(%rip),%ymm14 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> + .byte 196,98,125,24,45,67,21,3,0 // vbroadcastss 0x31543(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> + .byte 196,98,125,24,53,62,21,3,0 // vbroadcastss 0x3153e(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> .byte 196,65,84,89,230 // vmulps %ymm14,%ymm5,%ymm12 .byte 196,66,93,184,229 // vfmadd231ps %ymm13,%ymm4,%ymm12 - .byte 196,98,125,24,61,35,13,3,0 // vbroadcastss 0x30d23(%rip),%ymm15 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> + .byte 196,98,125,24,61,47,21,3,0 // vbroadcastss 0x3152f(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> .byte 196,66,77,184,231 // vfmadd231ps %ymm15,%ymm6,%ymm12 .byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9 .byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9 @@ -8531,7 +8631,7 @@ _sk_color_hsw: .byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1 .byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8 .byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9 - .byte 196,226,125,24,5,217,11,3,0 // vbroadcastss 0x30bd9(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,5,229,19,3,0 // vbroadcastss 0x313e5(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10 .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2 .byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11 @@ -8559,11 +8659,11 @@ _sk_luminosity_hsw: .byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8 .byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10 .byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11 - .byte 196,98,125,24,45,142,11,3,0 // vbroadcastss 0x30b8e(%rip),%ymm13 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> - .byte 196,98,125,24,53,137,11,3,0 // vbroadcastss 0x30b89(%rip),%ymm14 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> + .byte 196,98,125,24,45,154,19,3,0 // vbroadcastss 0x3139a(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> + .byte 196,98,125,24,53,149,19,3,0 // vbroadcastss 0x31395(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> .byte 196,65,116,89,230 // vmulps %ymm14,%ymm1,%ymm12 .byte 196,66,109,184,229 // vfmadd231ps %ymm13,%ymm2,%ymm12 - .byte 196,98,125,24,61,122,11,3,0 // vbroadcastss 0x30b7a(%rip),%ymm15 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> + .byte 196,98,125,24,61,134,19,3,0 // vbroadcastss 0x31386(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> .byte 196,66,53,184,231 // vfmadd231ps %ymm15,%ymm9,%ymm12 .byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9 .byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9 @@ -8619,7 +8719,7 @@ _sk_luminosity_hsw: .byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1 .byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8 .byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9 - .byte 196,226,125,24,5,48,10,3,0 // vbroadcastss 0x30a30(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,5,60,18,3,0 // vbroadcastss 0x3123c(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10 .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2 .byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11 @@ -8648,39 +8748,48 @@ _sk_srcover_rgba_8888_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,179,0,0,0 // jne 8ee9 <_sk_srcover_rgba_8888_hsw+0xd3> + .byte 15,133,224,0,0,0 // jne 911e <_sk_srcover_rgba_8888_hsw+0x100> .byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7 - .byte 197,197,219,37,156,11,3,0 // vpand 0x30b9c(%rip),%ymm7,%ymm4 # 399e0 <_sk_srcover_bgra_8888_sse2_lowp+0x48c> + .byte 197,197,219,37,180,19,3,0 // vpand 0x313b4(%rip),%ymm7,%ymm4 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0x498> .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 196,226,69,0,45,175,11,3,0 // vpshufb 0x30baf(%rip),%ymm7,%ymm5 # 39a00 <_sk_srcover_bgra_8888_sse2_lowp+0x4ac> + .byte 196,226,69,0,45,199,19,3,0 // vpshufb 0x313c7(%rip),%ymm7,%ymm5 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0x4b8> .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 - .byte 196,226,69,0,53,194,11,3,0 // vpshufb 0x30bc2(%rip),%ymm7,%ymm6 # 39a20 <_sk_srcover_bgra_8888_sse2_lowp+0x4cc> + .byte 196,226,69,0,53,218,19,3,0 // vpshufb 0x313da(%rip),%ymm7,%ymm6 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0x4d8> + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6 .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7 .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7 - .byte 196,98,125,24,5,144,9,3,0 // vbroadcastss 0x30990(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> - .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 - .byte 196,98,125,24,13,175,9,3,0 // vbroadcastss 0x309af(%rip),%ymm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 - .byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0 - .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1 - .byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1 - .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2 - .byte 196,194,77,184,208 // vfmadd231ps %ymm8,%ymm6,%ymm2 - .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3 - .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 - .byte 197,125,91,192 // vcvtps2dq %ymm0,%ymm8 - .byte 197,125,91,201 // vcvtps2dq %ymm1,%ymm9 - .byte 196,193,53,114,241,8 // vpslld $0x8,%ymm9,%ymm9 + .byte 196,98,125,24,13,151,17,3,0 // vbroadcastss 0x31197(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9 + .byte 196,98,125,24,21,182,17,3,0 // vbroadcastss 0x311b6(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0 + .byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0 + .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1 + .byte 196,194,85,184,201 // vfmadd231ps %ymm9,%ymm5,%ymm1 + .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2 + .byte 196,194,77,184,209 // vfmadd231ps %ymm9,%ymm6,%ymm2 + .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3 + .byte 196,194,69,184,217 // vfmadd231ps %ymm9,%ymm7,%ymm3 + .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9 + .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9 + .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 + .byte 197,60,95,217 // vmaxps %ymm1,%ymm8,%ymm11 + .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11 + .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 + .byte 196,193,37,114,243,8 // vpslld $0x8,%ymm11,%ymm11 + .byte 196,65,37,235,201 // vpor %ymm9,%ymm11,%ymm9 + .byte 197,60,95,218 // vmaxps %ymm2,%ymm8,%ymm11 + .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11 + .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 + .byte 196,193,37,114,243,16 // vpslld $0x10,%ymm11,%ymm11 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8 + .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 + .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8 + .byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 - .byte 197,125,91,202 // vcvtps2dq %ymm2,%ymm9 - .byte 196,193,53,114,241,16 // vpslld $0x10,%ymm9,%ymm9 - .byte 197,125,91,211 // vcvtps2dq %ymm3,%ymm10 - .byte 196,193,45,114,242,24 // vpslld $0x18,%ymm10,%ymm10 - .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9 - .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,65 // jne 8f20 <_sk_srcover_rgba_8888_hsw+0x10a> + .byte 117,65 // jne 9155 <_sk_srcover_rgba_8888_hsw+0x137> .byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -8689,33 +8798,33 @@ _sk_srcover_rgba_8888_hsw: .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,59,255,255,255 // ja 8e3c <_sk_srcover_rgba_8888_hsw+0x26> + .byte 15,135,14,255,255,255 // ja 9044 <_sk_srcover_rgba_8888_hsw+0x26> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,0,1,0,0 // lea 0x100(%rip),%r10 # 900c <_sk_srcover_rgba_8888_hsw+0x1f6> + .byte 76,141,21,255,0,0,0 // lea 0xff(%rip),%r10 # 9240 <_sk_srcover_rgba_8888_hsw+0x222> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7 - .byte 233,28,255,255,255 // jmpq 8e3c <_sk_srcover_rgba_8888_hsw+0x26> + .byte 233,239,254,255,255 // jmpq 9044 <_sk_srcover_rgba_8888_hsw+0x26> .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,7 // and $0x7,%r9b .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,181 // ja 8ee5 <_sk_srcover_rgba_8888_hsw+0xcf> + .byte 119,181 // ja 911a <_sk_srcover_rgba_8888_hsw+0xfc> .byte 65,15,182,193 // movzbl %r9b,%eax - .byte 76,141,13,237,0,0,0 // lea 0xed(%rip),%r9 # 9028 <_sk_srcover_rgba_8888_hsw+0x212> + .byte 76,141,13,236,0,0,0 // lea 0xec(%rip),%r9 # 925c <_sk_srcover_rgba_8888_hsw+0x23e> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4) - .byte 235,153 // jmp 8ee5 <_sk_srcover_rgba_8888_hsw+0xcf> + .byte 235,153 // jmp 911a <_sk_srcover_rgba_8888_hsw+0xfc> .byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4 .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 .byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7 .byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4 .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7 - .byte 233,201,254,255,255 // jmpq 8e3c <_sk_srcover_rgba_8888_hsw+0x26> + .byte 233,156,254,255,255 // jmpq 9044 <_sk_srcover_rgba_8888_hsw+0x26> .byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4 .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -8728,10 +8837,10 @@ _sk_srcover_rgba_8888_hsw: .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7 .byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4 .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7 - .byte 233,122,254,255,255 // jmpq 8e3c <_sk_srcover_rgba_8888_hsw+0x26> + .byte 233,77,254,255,255 // jmpq 9044 <_sk_srcover_rgba_8888_hsw+0x26> .byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4) .byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4) - .byte 233,16,255,255,255 // jmpq 8ee5 <_sk_srcover_rgba_8888_hsw+0xcf> + .byte 233,16,255,255,255 // jmpq 911a <_sk_srcover_rgba_8888_hsw+0xfc> .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4) .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 @@ -8739,35 +8848,33 @@ _sk_srcover_rgba_8888_hsw: .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4) .byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4) - .byte 233,220,254,255,255 // jmpq 8ee5 <_sk_srcover_rgba_8888_hsw+0xcf> - .byte 15,31,0 // nopl (%rax) - .byte 9,255 // or %edi,%edi + .byte 233,220,254,255,255 // jmpq 911a <_sk_srcover_rgba_8888_hsw+0xfc> + .byte 102,144 // xchg %ax,%ax + .byte 10,255 // or %bh,%bh .byte 255 // (bad) - .byte 255,86,255 // callq *-0x1(%rsi) + .byte 255,87,255 // callq *-0x1(%rdi) .byte 255 // (bad) - .byte 255,64,255 // incl -0x1(%rax) + .byte 255,65,255 // incl -0x1(%rcx) .byte 255 // (bad) - .byte 255,165,255,255,255,145 // jmpq *-0x6e000001(%rbp) + .byte 255,166,255,255,255,146 // jmpq *-0x6d000001(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 125,255 // jge 9021 <_sk_srcover_rgba_8888_hsw+0x20b> + .byte 126,255 // jle 9255 <_sk_srcover_rgba_8888_hsw+0x237> .byte 255 // (bad) - .byte 255,103,255 // jmpq *-0x1(%rdi) + .byte 255,104,255 // ljmp *-0x1(%rax) .byte 255 // (bad) - .byte 255,28,255 // lcall *(%rdi,%rdi,8) + .byte 255,29,255,255,255,163 // lcall *-0x5c000001(%rip) # ffffffffa4009260 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffa3fcf2f8> .byte 255 // (bad) - .byte 255,162,255,255,255,154 // jmpq *-0x65000001(%rdx) .byte 255 // (bad) + .byte 255,155,255,255,255,215 // lcall *-0x28000001(%rbx) .byte 255 // (bad) - .byte 255,214 // callq *%rsi .byte 255 // (bad) + .byte 255,202 // dec %edx .byte 255 // (bad) - .byte 255,201 // dec %ecx .byte 255 // (bad) .byte 255 // (bad) - .byte 255 // (bad) - .byte 187,255,255,255,173 // mov $0xadffffff,%ebx + .byte 188,255,255,255,174 // mov $0xaeffffff,%esp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -8784,39 +8891,48 @@ _sk_srcover_bgra_8888_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,179,0,0,0 // jne 9117 <_sk_srcover_bgra_8888_hsw+0xd3> + .byte 15,133,224,0,0,0 // jne 9378 <_sk_srcover_bgra_8888_hsw+0x100> .byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7 - .byte 197,197,219,37,206,9,3,0 // vpand 0x309ce(%rip),%ymm7,%ymm4 # 39a40 <_sk_srcover_bgra_8888_sse2_lowp+0x4ec> + .byte 197,197,219,37,186,17,3,0 // vpand 0x311ba(%rip),%ymm7,%ymm4 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0x4f8> .byte 197,252,91,244 // vcvtdq2ps %ymm4,%ymm6 - .byte 196,226,69,0,37,225,9,3,0 // vpshufb 0x309e1(%rip),%ymm7,%ymm4 # 39a60 <_sk_srcover_bgra_8888_sse2_lowp+0x50c> + .byte 196,226,69,0,37,205,17,3,0 // vpshufb 0x311cd(%rip),%ymm7,%ymm4 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0x518> .byte 197,252,91,236 // vcvtdq2ps %ymm4,%ymm5 - .byte 196,226,69,0,37,244,9,3,0 // vpshufb 0x309f4(%rip),%ymm7,%ymm4 # 39a80 <_sk_srcover_bgra_8888_sse2_lowp+0x52c> + .byte 196,226,69,0,37,224,17,3,0 // vpshufb 0x311e0(%rip),%ymm7,%ymm4 # 3a4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x538> + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7 .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7 - .byte 196,98,125,24,5,98,7,3,0 // vbroadcastss 0x30762(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> - .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 - .byte 196,98,125,24,13,129,7,3,0 // vbroadcastss 0x30781(%rip),%ymm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 - .byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0 - .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1 - .byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1 - .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2 - .byte 196,194,77,184,208 // vfmadd231ps %ymm8,%ymm6,%ymm2 - .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3 - .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3 - .byte 197,125,91,194 // vcvtps2dq %ymm2,%ymm8 - .byte 197,125,91,201 // vcvtps2dq %ymm1,%ymm9 - .byte 196,193,53,114,241,8 // vpslld $0x8,%ymm9,%ymm9 + .byte 196,98,125,24,13,61,15,3,0 // vbroadcastss 0x30f3d(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9 + .byte 196,98,125,24,21,92,15,3,0 // vbroadcastss 0x30f5c(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0 + .byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0 + .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1 + .byte 196,194,85,184,201 // vfmadd231ps %ymm9,%ymm5,%ymm1 + .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2 + .byte 196,194,77,184,209 // vfmadd231ps %ymm9,%ymm6,%ymm2 + .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3 + .byte 196,194,69,184,217 // vfmadd231ps %ymm9,%ymm7,%ymm3 + .byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9 + .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9 + .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 + .byte 197,60,95,217 // vmaxps %ymm1,%ymm8,%ymm11 + .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11 + .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 + .byte 196,193,37,114,243,8 // vpslld $0x8,%ymm11,%ymm11 + .byte 196,65,37,235,201 // vpor %ymm9,%ymm11,%ymm9 + .byte 197,60,95,216 // vmaxps %ymm0,%ymm8,%ymm11 + .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11 + .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 + .byte 196,193,37,114,243,16 // vpslld $0x10,%ymm11,%ymm11 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8 + .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 + .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8 + .byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 - .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9 - .byte 196,193,53,114,241,16 // vpslld $0x10,%ymm9,%ymm9 - .byte 197,125,91,211 // vcvtps2dq %ymm3,%ymm10 - .byte 196,193,45,114,242,24 // vpslld $0x18,%ymm10,%ymm10 - .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9 - .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,65 // jne 914e <_sk_srcover_bgra_8888_hsw+0x10a> + .byte 117,65 // jne 93af <_sk_srcover_bgra_8888_hsw+0x137> .byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -8825,33 +8941,33 @@ _sk_srcover_bgra_8888_hsw: .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,59,255,255,255 // ja 906a <_sk_srcover_bgra_8888_hsw+0x26> + .byte 15,135,14,255,255,255 // ja 929e <_sk_srcover_bgra_8888_hsw+0x26> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,254,0,0,0 // lea 0xfe(%rip),%r10 # 9238 <_sk_srcover_bgra_8888_hsw+0x1f4> + .byte 76,141,21,253,0,0,0 // lea 0xfd(%rip),%r10 # 9498 <_sk_srcover_bgra_8888_hsw+0x220> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7 - .byte 233,28,255,255,255 // jmpq 906a <_sk_srcover_bgra_8888_hsw+0x26> + .byte 233,239,254,255,255 // jmpq 929e <_sk_srcover_bgra_8888_hsw+0x26> .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,7 // and $0x7,%r9b .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,181 // ja 9113 <_sk_srcover_bgra_8888_hsw+0xcf> + .byte 119,181 // ja 9374 <_sk_srcover_bgra_8888_hsw+0xfc> .byte 65,15,182,193 // movzbl %r9b,%eax - .byte 76,141,13,235,0,0,0 // lea 0xeb(%rip),%r9 # 9254 <_sk_srcover_bgra_8888_hsw+0x210> + .byte 76,141,13,234,0,0,0 // lea 0xea(%rip),%r9 # 94b4 <_sk_srcover_bgra_8888_hsw+0x23c> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4) - .byte 235,153 // jmp 9113 <_sk_srcover_bgra_8888_hsw+0xcf> + .byte 235,153 // jmp 9374 <_sk_srcover_bgra_8888_hsw+0xfc> .byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4 .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 .byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7 .byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4 .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7 - .byte 233,201,254,255,255 // jmpq 906a <_sk_srcover_bgra_8888_hsw+0x26> + .byte 233,156,254,255,255 // jmpq 929e <_sk_srcover_bgra_8888_hsw+0x26> .byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4 .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -8864,10 +8980,10 @@ _sk_srcover_bgra_8888_hsw: .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7 .byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4 .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7 - .byte 233,122,254,255,255 // jmpq 906a <_sk_srcover_bgra_8888_hsw+0x26> + .byte 233,77,254,255,255 // jmpq 929e <_sk_srcover_bgra_8888_hsw+0x26> .byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4) .byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4) - .byte 233,16,255,255,255 // jmpq 9113 <_sk_srcover_bgra_8888_hsw+0xcf> + .byte 233,16,255,255,255 // jmpq 9374 <_sk_srcover_bgra_8888_hsw+0xfc> .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4) .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 @@ -8875,35 +8991,33 @@ _sk_srcover_bgra_8888_hsw: .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4) .byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4) - .byte 233,220,254,255,255 // jmpq 9113 <_sk_srcover_bgra_8888_hsw+0xcf> - .byte 144 // nop - .byte 11,255 // or %edi,%edi + .byte 233,220,254,255,255 // jmpq 9374 <_sk_srcover_bgra_8888_hsw+0xfc> + .byte 12,255 // or $0xff,%al .byte 255 // (bad) - .byte 255,88,255 // lcall *-0x1(%rax) + .byte 255,89,255 // lcall *-0x1(%rcx) .byte 255 // (bad) - .byte 255,66,255 // incl -0x1(%rdx) + .byte 255,67,255 // incl -0x1(%rbx) .byte 255 // (bad) - .byte 255,167,255,255,255,147 // jmpq *-0x6c000001(%rdi) + .byte 255,168,255,255,255,148 // ljmp *-0x6b000001(%rax) .byte 255 // (bad) .byte 255 // (bad) + .byte 255,128,255,255,255,106 // incl 0x6affffff(%rax) .byte 255 // (bad) - .byte 127,255 // jg 924d <_sk_srcover_bgra_8888_hsw+0x209> .byte 255 // (bad) - .byte 255,105,255 // ljmp *-0x1(%rcx) + .byte 255,31 // lcall *(%rdi) .byte 255 // (bad) - .byte 255,30 // lcall *(%rsi) .byte 255 // (bad) + .byte 255,165,255,255,255,157 // jmpq *-0x62000001(%rbp) .byte 255 // (bad) - .byte 255,164,255,255,255,156,255 // jmpq *-0x630001(%rdi,%rdi,8) .byte 255 // (bad) .byte 255 // (bad) - .byte 216,255 // fdivr %st(7),%st + .byte 217,255 // fcos .byte 255 // (bad) - .byte 255,203 // dec %ebx + .byte 255,204 // dec %esp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 189,255,255,255,175 // mov $0xafffffff,%ebp + .byte 190,255,255,255,176 // mov $0xb0ffffff,%esi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -8924,7 +9038,7 @@ HIDDEN _sk_clamp_1_hsw .globl _sk_clamp_1_hsw FUNCTION(_sk_clamp_1_hsw) _sk_clamp_1_hsw: - .byte 196,98,125,24,5,110,5,3,0 // vbroadcastss 0x3056e(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,34,13,3,0 // vbroadcastss 0x30d22(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1 .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2 @@ -8936,7 +9050,7 @@ HIDDEN _sk_clamp_a_hsw .globl _sk_clamp_a_hsw FUNCTION(_sk_clamp_a_hsw) _sk_clamp_a_hsw: - .byte 196,98,125,24,5,77,5,3,0 // vbroadcastss 0x3054d(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,1,13,3,0 // vbroadcastss 0x30d01(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3 .byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0 .byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1 @@ -8948,7 +9062,7 @@ HIDDEN _sk_clamp_a_dst_hsw .globl _sk_clamp_a_dst_hsw FUNCTION(_sk_clamp_a_dst_hsw) _sk_clamp_a_dst_hsw: - .byte 196,98,125,24,5,47,5,3,0 // vbroadcastss 0x3052f(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,227,12,3,0 // vbroadcastss 0x30ce3(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7 .byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4 .byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5 @@ -8981,7 +9095,7 @@ HIDDEN _sk_invert_hsw .globl _sk_invert_hsw FUNCTION(_sk_invert_hsw) _sk_invert_hsw: - .byte 196,98,125,24,5,234,4,3,0 // vbroadcastss 0x304ea(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,158,12,3,0 // vbroadcastss 0x30c9e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0 .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 @@ -9035,9 +9149,9 @@ HIDDEN _sk_unpremul_hsw .globl _sk_unpremul_hsw FUNCTION(_sk_unpremul_hsw) _sk_unpremul_hsw: - .byte 196,98,125,24,5,133,4,3,0 // vbroadcastss 0x30485(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,57,12,3,0 // vbroadcastss 0x30c39(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8 - .byte 196,98,125,24,13,168,4,3,0 // vbroadcastss 0x304a8(%rip),%ymm9 # 39834 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0> + .byte 196,98,125,24,13,92,12,3,0 // vbroadcastss 0x30c5c(%rip),%ymm9 # 3a248 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0> .byte 196,65,60,194,201,1 // vcmpltps %ymm9,%ymm8,%ymm9 .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10 .byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8 @@ -9051,16 +9165,16 @@ HIDDEN _sk_from_srgb_hsw .globl _sk_from_srgb_hsw FUNCTION(_sk_from_srgb_hsw) _sk_from_srgb_hsw: - .byte 196,98,125,24,5,130,4,3,0 // vbroadcastss 0x30482(%rip),%ymm8 # 39838 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4> + .byte 196,98,125,24,5,54,12,3,0 // vbroadcastss 0x30c36(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4> .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 .byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10 - .byte 196,98,125,24,29,116,4,3,0 // vbroadcastss 0x30474(%rip),%ymm11 # 3983c <_sk_srcover_bgra_8888_sse2_lowp+0x2e8> - .byte 196,98,125,24,37,83,4,3,0 // vbroadcastss 0x30453(%rip),%ymm12 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> + .byte 196,98,125,24,29,40,12,3,0 // vbroadcastss 0x30c28(%rip),%ymm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8> + .byte 196,98,125,24,37,7,12,3,0 // vbroadcastss 0x30c07(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> .byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13 .byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13 - .byte 196,98,125,24,53,92,4,3,0 // vbroadcastss 0x3045c(%rip),%ymm14 # 39840 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec> + .byte 196,98,125,24,53,16,12,3,0 // vbroadcastss 0x30c10(%rip),%ymm14 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec> .byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13 - .byte 196,98,125,24,21,82,4,3,0 // vbroadcastss 0x30452(%rip),%ymm10 # 39844 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0> + .byte 196,98,125,24,21,6,12,3,0 // vbroadcastss 0x30c06(%rip),%ymm10 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0> .byte 196,193,124,194,194,1 // vcmpltps %ymm10,%ymm0,%ymm0 .byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0 .byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9 @@ -9083,16 +9197,16 @@ HIDDEN _sk_from_srgb_dst_hsw .globl _sk_from_srgb_dst_hsw FUNCTION(_sk_from_srgb_dst_hsw) _sk_from_srgb_dst_hsw: - .byte 196,98,125,24,5,234,3,3,0 // vbroadcastss 0x303ea(%rip),%ymm8 # 39838 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4> + .byte 196,98,125,24,5,158,11,3,0 // vbroadcastss 0x30b9e(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4> .byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9 .byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10 - .byte 196,98,125,24,29,220,3,3,0 // vbroadcastss 0x303dc(%rip),%ymm11 # 3983c <_sk_srcover_bgra_8888_sse2_lowp+0x2e8> - .byte 196,98,125,24,37,187,3,3,0 // vbroadcastss 0x303bb(%rip),%ymm12 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> + .byte 196,98,125,24,29,144,11,3,0 // vbroadcastss 0x30b90(%rip),%ymm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8> + .byte 196,98,125,24,37,111,11,3,0 // vbroadcastss 0x30b6f(%rip),%ymm12 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> .byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13 .byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13 - .byte 196,98,125,24,53,196,3,3,0 // vbroadcastss 0x303c4(%rip),%ymm14 # 39840 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec> + .byte 196,98,125,24,53,120,11,3,0 // vbroadcastss 0x30b78(%rip),%ymm14 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec> .byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13 - .byte 196,98,125,24,21,186,3,3,0 // vbroadcastss 0x303ba(%rip),%ymm10 # 39844 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0> + .byte 196,98,125,24,21,110,11,3,0 // vbroadcastss 0x30b6e(%rip),%ymm10 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0> .byte 196,193,92,194,226,1 // vcmpltps %ymm10,%ymm4,%ymm4 .byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4 .byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9 @@ -9116,19 +9230,19 @@ HIDDEN _sk_to_srgb_hsw FUNCTION(_sk_to_srgb_hsw) _sk_to_srgb_hsw: .byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9 - .byte 196,98,125,24,5,94,3,3,0 // vbroadcastss 0x3035e(%rip),%ymm8 # 39848 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4> + .byte 196,98,125,24,5,18,11,3,0 // vbroadcastss 0x30b12(%rip),%ymm8 # 3a25c <_sk_srcover_bgra_8888_sse2_lowp+0x2f4> .byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10 - .byte 196,98,125,24,29,84,3,3,0 // vbroadcastss 0x30354(%rip),%ymm11 # 3984c <_sk_srcover_bgra_8888_sse2_lowp+0x2f8> - .byte 196,98,125,24,37,79,3,3,0 // vbroadcastss 0x3034f(%rip),%ymm12 # 39850 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc> + .byte 196,98,125,24,29,8,11,3,0 // vbroadcastss 0x30b08(%rip),%ymm11 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8> + .byte 196,98,125,24,37,3,11,3,0 // vbroadcastss 0x30b03(%rip),%ymm12 # 3a264 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc> .byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13 .byte 196,66,53,168,235 // vfmadd213ps %ymm11,%ymm9,%ymm13 - .byte 196,98,125,24,53,112,4,3,0 // vbroadcastss 0x30470(%rip),%ymm14 # 39984 <_sk_srcover_bgra_8888_sse2_lowp+0x430> + .byte 196,98,125,24,53,36,12,3,0 // vbroadcastss 0x30c24(%rip),%ymm14 # 3a398 <_sk_srcover_bgra_8888_sse2_lowp+0x430> .byte 196,66,53,168,238 // vfmadd213ps %ymm14,%ymm9,%ymm13 - .byte 196,98,125,24,61,102,4,3,0 // vbroadcastss 0x30466(%rip),%ymm15 # 39988 <_sk_srcover_bgra_8888_sse2_lowp+0x434> + .byte 196,98,125,24,61,26,12,3,0 // vbroadcastss 0x30c1a(%rip),%ymm15 # 3a39c <_sk_srcover_bgra_8888_sse2_lowp+0x434> .byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9 .byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9 .byte 196,65,20,89,201 // vmulps %ymm9,%ymm13,%ymm9 - .byte 196,98,125,24,45,34,3,3,0 // vbroadcastss 0x30322(%rip),%ymm13 # 3985c <_sk_srcover_bgra_8888_sse2_lowp+0x308> + .byte 196,98,125,24,45,214,10,3,0 // vbroadcastss 0x30ad6(%rip),%ymm13 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x308> .byte 196,193,124,194,197,1 // vcmpltps %ymm13,%ymm0,%ymm0 .byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0 .byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9 @@ -9162,26 +9276,26 @@ _sk_rgb_to_hsl_hsw: .byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9 .byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9 .byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10 - .byte 196,98,125,24,29,57,2,3,0 // vbroadcastss 0x30239(%rip),%ymm11 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,29,237,9,3,0 // vbroadcastss 0x309ed(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11 .byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12 .byte 197,116,194,234,1 // vcmpltps %ymm2,%ymm1,%ymm13 - .byte 196,98,125,24,53,126,2,3,0 // vbroadcastss 0x3027e(%rip),%ymm14 # 39860 <_sk_srcover_bgra_8888_sse2_lowp+0x30c> + .byte 196,98,125,24,53,50,10,3,0 // vbroadcastss 0x30a32(%rip),%ymm14 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c> .byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15 .byte 196,67,5,74,238,208 // vblendvps %ymm13,%ymm14,%ymm15,%ymm13 .byte 196,66,37,168,229 // vfmadd213ps %ymm13,%ymm11,%ymm12 .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2 .byte 197,124,92,233 // vsubps %ymm1,%ymm0,%ymm13 - .byte 196,98,125,24,53,101,2,3,0 // vbroadcastss 0x30265(%rip),%ymm14 # 39868 <_sk_srcover_bgra_8888_sse2_lowp+0x314> + .byte 196,98,125,24,53,25,10,3,0 // vbroadcastss 0x30a19(%rip),%ymm14 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314> .byte 196,66,37,168,238 // vfmadd213ps %ymm14,%ymm11,%ymm13 - .byte 196,98,125,24,53,83,2,3,0 // vbroadcastss 0x30253(%rip),%ymm14 # 39864 <_sk_srcover_bgra_8888_sse2_lowp+0x310> + .byte 196,98,125,24,53,7,10,3,0 // vbroadcastss 0x30a07(%rip),%ymm14 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310> .byte 196,194,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm2 .byte 197,188,194,201,0 // vcmpeqps %ymm1,%ymm8,%ymm1 .byte 196,227,21,74,202,16 // vblendvps %ymm1,%ymm2,%ymm13,%ymm1 .byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0 .byte 196,195,117,74,196,0 // vblendvps %ymm0,%ymm12,%ymm1,%ymm0 .byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1 - .byte 196,98,125,24,29,198,1,3,0 // vbroadcastss 0x301c6(%rip),%ymm11 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,29,122,9,3,0 // vbroadcastss 0x3097a(%rip),%ymm11 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2 .byte 197,36,194,218,1 // vcmpltps %ymm2,%ymm11,%ymm11 .byte 196,65,12,92,224 // vsubps %ymm8,%ymm14,%ymm12 @@ -9191,7 +9305,7 @@ _sk_rgb_to_hsl_hsw: .byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1 .byte 196,195,125,74,199,128 // vblendvps %ymm8,%ymm15,%ymm0,%ymm0 .byte 196,195,117,74,207,128 // vblendvps %ymm8,%ymm15,%ymm1,%ymm1 - .byte 196,98,125,24,5,249,1,3,0 // vbroadcastss 0x301f9(%rip),%ymm8 # 3986c <_sk_srcover_bgra_8888_sse2_lowp+0x318> + .byte 196,98,125,24,5,173,9,3,0 // vbroadcastss 0x309ad(%rip),%ymm8 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -9208,30 +9322,30 @@ _sk_hsl_to_rgb_hsw: .byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp) .byte 197,252,40,233 // vmovaps %ymm1,%ymm5 .byte 197,252,40,224 // vmovaps %ymm0,%ymm4 - .byte 196,98,125,24,5,82,1,3,0 // vbroadcastss 0x30152(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,5,6,9,3,0 // vbroadcastss 0x30906(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9 .byte 197,84,89,210 // vmulps %ymm2,%ymm5,%ymm10 .byte 196,65,84,92,218 // vsubps %ymm10,%ymm5,%ymm11 .byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9 .byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10 - .byte 196,98,125,24,13,149,1,3,0 // vbroadcastss 0x30195(%rip),%ymm9 # 39864 <_sk_srcover_bgra_8888_sse2_lowp+0x310> + .byte 196,98,125,24,13,73,9,3,0 // vbroadcastss 0x30949(%rip),%ymm9 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310> .byte 196,66,109,170,202 // vfmsub213ps %ymm10,%ymm2,%ymm9 - .byte 196,98,125,24,29,147,1,3,0 // vbroadcastss 0x30193(%rip),%ymm11 # 39870 <_sk_srcover_bgra_8888_sse2_lowp+0x31c> + .byte 196,98,125,24,29,71,9,3,0 // vbroadcastss 0x30947(%rip),%ymm11 # 3a284 <_sk_srcover_bgra_8888_sse2_lowp+0x31c> .byte 196,65,92,88,219 // vaddps %ymm11,%ymm4,%ymm11 .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12 .byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15 .byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11 - .byte 196,98,125,24,45,101,1,3,0 // vbroadcastss 0x30165(%rip),%ymm13 # 39860 <_sk_srcover_bgra_8888_sse2_lowp+0x30c> + .byte 196,98,125,24,45,25,9,3,0 // vbroadcastss 0x30919(%rip),%ymm13 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c> .byte 196,193,4,89,197 // vmulps %ymm13,%ymm15,%ymm0 - .byte 196,98,125,24,53,95,1,3,0 // vbroadcastss 0x3015f(%rip),%ymm14 # 39868 <_sk_srcover_bgra_8888_sse2_lowp+0x314> + .byte 196,98,125,24,53,19,9,3,0 // vbroadcastss 0x30913(%rip),%ymm14 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314> .byte 197,12,92,224 // vsubps %ymm0,%ymm14,%ymm12 .byte 196,66,37,168,225 // vfmadd213ps %ymm9,%ymm11,%ymm12 - .byte 196,226,125,24,29,89,1,3,0 // vbroadcastss 0x30159(%rip),%ymm3 # 39874 <_sk_srcover_bgra_8888_sse2_lowp+0x320> + .byte 196,226,125,24,29,13,9,3,0 // vbroadcastss 0x3090d(%rip),%ymm3 # 3a288 <_sk_srcover_bgra_8888_sse2_lowp+0x320> .byte 196,193,100,194,255,2 // vcmpleps %ymm15,%ymm3,%ymm7 .byte 196,195,29,74,249,112 // vblendvps %ymm7,%ymm9,%ymm12,%ymm7 .byte 196,65,60,194,231,2 // vcmpleps %ymm15,%ymm8,%ymm12 .byte 196,227,45,74,255,192 // vblendvps %ymm12,%ymm7,%ymm10,%ymm7 - .byte 196,98,125,24,37,48,1,3,0 // vbroadcastss 0x30130(%rip),%ymm12 # 3986c <_sk_srcover_bgra_8888_sse2_lowp+0x318> + .byte 196,98,125,24,37,228,8,3,0 // vbroadcastss 0x308e4(%rip),%ymm12 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318> .byte 196,65,28,194,255,2 // vcmpleps %ymm15,%ymm12,%ymm15 .byte 196,194,37,168,193 // vfmadd213ps %ymm9,%ymm11,%ymm0 .byte 196,99,125,74,255,240 // vblendvps %ymm15,%ymm7,%ymm0,%ymm15 @@ -9247,7 +9361,7 @@ _sk_hsl_to_rgb_hsw: .byte 197,156,194,192,2 // vcmpleps %ymm0,%ymm12,%ymm0 .byte 196,194,37,168,249 // vfmadd213ps %ymm9,%ymm11,%ymm7 .byte 196,227,69,74,201,0 // vblendvps %ymm0,%ymm1,%ymm7,%ymm1 - .byte 196,226,125,24,5,228,0,3,0 // vbroadcastss 0x300e4(%rip),%ymm0 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324> + .byte 196,226,125,24,5,152,8,3,0 // vbroadcastss 0x30898(%rip),%ymm0 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324> .byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0 .byte 196,227,125,8,224,1 // vroundps $0x1,%ymm0,%ymm4 .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0 @@ -9299,12 +9413,12 @@ _sk_scale_u8_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,58 // jne 9883 <_sk_scale_u8_hsw+0x52> + .byte 117,58 // jne 9ae3 <_sk_scale_u8_hsw+0x52> .byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8 - .byte 197,57,219,5,121,8,3,0 // vpand 0x30879(%rip),%xmm8,%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,57,219,5,57,16,3,0 // vpand 0x31039(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 196,98,125,24,13,18,0,3,0 // vbroadcastss 0x30012(%rip),%ymm9 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,13,198,7,3,0 // vbroadcastss 0x307c6(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 @@ -9317,15 +9431,15 @@ _sk_scale_u8_hsw: .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,183 // ja 984f <_sk_scale_u8_hsw+0x1e> + .byte 119,183 // ja 9aaf <_sk_scale_u8_hsw+0x1e> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 991c <_sk_scale_u8_hsw+0xeb> + .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 9b7c <_sk_scale_u8_hsw+0xeb> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 - .byte 235,152 // jmp 984f <_sk_scale_u8_hsw+0x1e> + .byte 235,152 // jmp 9aaf <_sk_scale_u8_hsw+0x1e> .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8 @@ -9333,7 +9447,7 @@ _sk_scale_u8_hsw: .byte 197,121,110,200 // vmovd %eax,%xmm9 .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9 .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8 - .byte 233,111,255,255,255 // jmpq 984f <_sk_scale_u8_hsw+0x1e> + .byte 233,111,255,255,255 // jmpq 9aaf <_sk_scale_u8_hsw+0x1e> .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8 @@ -9344,7 +9458,7 @@ _sk_scale_u8_hsw: .byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9 .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9 .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8 - .byte 233,51,255,255,255 // jmpq 984f <_sk_scale_u8_hsw+0x1e> + .byte 233,51,255,255,255 // jmpq 9aaf <_sk_scale_u8_hsw+0x1e> .byte 144 // nop .byte 255 // (bad) .byte 255 // (bad) @@ -9378,23 +9492,23 @@ _sk_scale_565_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,161,0,0,0 // jne 99f8 <_sk_scale_565_hsw+0xc0> + .byte 15,133,161,0,0,0 // jne 9c58 <_sk_scale_565_hsw+0xc0> .byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8 .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8 - .byte 196,98,125,88,13,21,255,2,0 // vpbroadcastd 0x2ff15(%rip),%ymm9 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> + .byte 196,98,125,88,13,201,6,3,0 // vpbroadcastd 0x306c9(%rip),%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> .byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9 .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9 - .byte 196,98,125,24,21,6,255,2,0 // vbroadcastss 0x2ff06(%rip),%ymm10 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330> + .byte 196,98,125,24,21,186,6,3,0 // vbroadcastss 0x306ba(%rip),%ymm10 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330> .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9 - .byte 196,98,125,88,21,252,254,2,0 // vpbroadcastd 0x2fefc(%rip),%ymm10 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334> + .byte 196,98,125,88,21,176,6,3,0 // vpbroadcastd 0x306b0(%rip),%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334> .byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10 .byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10 - .byte 196,98,125,24,29,237,254,2,0 // vbroadcastss 0x2feed(%rip),%ymm11 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338> + .byte 196,98,125,24,29,161,6,3,0 // vbroadcastss 0x306a1(%rip),%ymm11 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338> .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10 - .byte 196,98,125,88,29,227,254,2,0 // vpbroadcastd 0x2fee3(%rip),%ymm11 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> + .byte 196,98,125,88,29,151,6,3,0 // vpbroadcastd 0x30697(%rip),%ymm11 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> .byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 196,98,125,24,29,212,254,2,0 // vbroadcastss 0x2fed4(%rip),%ymm11 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340> + .byte 196,98,125,24,29,136,6,3,0 // vbroadcastss 0x30688(%rip),%ymm11 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340> .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11 .byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12 @@ -9413,27 +9527,27 @@ _sk_scale_565_hsw: .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,76,255,255,255 // ja 995d <_sk_scale_565_hsw+0x25> + .byte 15,135,76,255,255,255 // ja 9bbd <_sk_scale_565_hsw+0x25> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9a80 <_sk_scale_565_hsw+0x148> + .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9ce0 <_sk_scale_565_hsw+0x148> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 - .byte 233,42,255,255,255 // jmpq 995d <_sk_scale_565_hsw+0x25> + .byte 233,42,255,255,255 // jmpq 9bbd <_sk_scale_565_hsw+0x25> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8 .byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9 .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8 - .byte 233,12,255,255,255 // jmpq 995d <_sk_scale_565_hsw+0x25> + .byte 233,12,255,255,255 // jmpq 9bbd <_sk_scale_565_hsw+0x25> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8 .byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8 .byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8 .byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9 .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8 - .byte 233,222,254,255,255 // jmpq 995d <_sk_scale_565_hsw+0x25> + .byte 233,222,254,255,255 // jmpq 9bbd <_sk_scale_565_hsw+0x25> .byte 144 // nop .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 255 // (bad) @@ -9483,12 +9597,12 @@ _sk_lerp_u8_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,78 // jne 9b31 <_sk_lerp_u8_hsw+0x66> + .byte 117,78 // jne 9d91 <_sk_lerp_u8_hsw+0x66> .byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8 - .byte 197,57,219,5,223,5,3,0 // vpand 0x305df(%rip),%xmm8,%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,57,219,5,159,13,3,0 // vpand 0x30d9f(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 196,98,125,24,13,120,253,2,0 // vbroadcastss 0x2fd78(%rip),%ymm9 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,13,44,5,3,0 // vbroadcastss 0x3052c(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0 .byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0 @@ -9505,15 +9619,15 @@ _sk_lerp_u8_hsw: .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,163 // ja 9ae9 <_sk_lerp_u8_hsw+0x1e> + .byte 119,163 // ja 9d49 <_sk_lerp_u8_hsw+0x1e> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 9bcc <_sk_lerp_u8_hsw+0x101> + .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 9e2c <_sk_lerp_u8_hsw+0x101> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 - .byte 235,132 // jmp 9ae9 <_sk_lerp_u8_hsw+0x1e> + .byte 235,132 // jmp 9d49 <_sk_lerp_u8_hsw+0x1e> .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8 @@ -9521,7 +9635,7 @@ _sk_lerp_u8_hsw: .byte 197,121,110,200 // vmovd %eax,%xmm9 .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9 .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8 - .byte 233,91,255,255,255 // jmpq 9ae9 <_sk_lerp_u8_hsw+0x1e> + .byte 233,91,255,255,255 // jmpq 9d49 <_sk_lerp_u8_hsw+0x1e> .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8 @@ -9532,7 +9646,7 @@ _sk_lerp_u8_hsw: .byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9 .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9 .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8 - .byte 233,31,255,255,255 // jmpq 9ae9 <_sk_lerp_u8_hsw+0x1e> + .byte 233,31,255,255,255 // jmpq 9d49 <_sk_lerp_u8_hsw+0x1e> .byte 102,144 // xchg %ax,%ax .byte 142,255 // mov %edi,%? .byte 255 // (bad) @@ -9540,7 +9654,7 @@ _sk_lerp_u8_hsw: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 232,255,255,255,221 // callq ffffffffde009bdc <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd0688> + .byte 232,255,255,255,221 // callq ffffffffde009e3c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfcfed4> .byte 255 // (bad) .byte 255 // (bad) .byte 255,210 // callq *%rdx @@ -9563,23 +9677,23 @@ _sk_lerp_565_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,181,0,0,0 // jne 9cbc <_sk_lerp_565_hsw+0xd4> + .byte 15,133,181,0,0,0 // jne 9f1c <_sk_lerp_565_hsw+0xd4> .byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8 .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8 - .byte 196,98,125,88,13,101,252,2,0 // vpbroadcastd 0x2fc65(%rip),%ymm9 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> + .byte 196,98,125,88,13,25,4,3,0 // vpbroadcastd 0x30419(%rip),%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> .byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9 .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9 - .byte 196,98,125,24,21,86,252,2,0 // vbroadcastss 0x2fc56(%rip),%ymm10 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330> + .byte 196,98,125,24,21,10,4,3,0 // vbroadcastss 0x3040a(%rip),%ymm10 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330> .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9 - .byte 196,98,125,88,21,76,252,2,0 // vpbroadcastd 0x2fc4c(%rip),%ymm10 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334> + .byte 196,98,125,88,21,0,4,3,0 // vpbroadcastd 0x30400(%rip),%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334> .byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10 .byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10 - .byte 196,98,125,24,29,61,252,2,0 // vbroadcastss 0x2fc3d(%rip),%ymm11 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338> + .byte 196,98,125,24,29,241,3,3,0 // vbroadcastss 0x303f1(%rip),%ymm11 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338> .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10 - .byte 196,98,125,88,29,51,252,2,0 // vpbroadcastd 0x2fc33(%rip),%ymm11 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> + .byte 196,98,125,88,29,231,3,3,0 // vpbroadcastd 0x303e7(%rip),%ymm11 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> .byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 196,98,125,24,29,36,252,2,0 // vbroadcastss 0x2fc24(%rip),%ymm11 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340> + .byte 196,98,125,24,29,216,3,3,0 // vbroadcastss 0x303d8(%rip),%ymm11 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340> .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11 .byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12 @@ -9602,27 +9716,27 @@ _sk_lerp_565_hsw: .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,56,255,255,255 // ja 9c0d <_sk_lerp_565_hsw+0x25> + .byte 15,135,56,255,255,255 // ja 9e6d <_sk_lerp_565_hsw+0x25> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9d44 <_sk_lerp_565_hsw+0x15c> + .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9fa4 <_sk_lerp_565_hsw+0x15c> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 - .byte 233,22,255,255,255 // jmpq 9c0d <_sk_lerp_565_hsw+0x25> + .byte 233,22,255,255,255 // jmpq 9e6d <_sk_lerp_565_hsw+0x25> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8 .byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9 .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8 - .byte 233,248,254,255,255 // jmpq 9c0d <_sk_lerp_565_hsw+0x25> + .byte 233,248,254,255,255 // jmpq 9e6d <_sk_lerp_565_hsw+0x25> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8 .byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8 .byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8 .byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9 .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8 - .byte 233,202,254,255,255 // jmpq 9c0d <_sk_lerp_565_hsw+0x25> + .byte 233,202,254,255,255 // jmpq 9e6d <_sk_lerp_565_hsw+0x25> .byte 144 // nop .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 255 // (bad) @@ -9651,9 +9765,9 @@ _sk_load_tables_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,0 // mov (%rax),%r8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,116 // jne 9dde <_sk_load_tables_hsw+0x7e> + .byte 117,116 // jne a03e <_sk_load_tables_hsw+0x7e> .byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3 - .byte 197,229,219,13,40,253,2,0 // vpand 0x2fd28(%rip),%ymm3,%ymm1 # 39aa0 <_sk_srcover_bgra_8888_sse2_lowp+0x54c> + .byte 197,229,219,13,232,4,3,0 // vpand 0x304e8(%rip),%ymm3,%ymm1 # 3a4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x558> .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8 .byte 76,139,64,8 // mov 0x8(%rax),%r8 .byte 76,139,72,16 // mov 0x10(%rax),%r9 @@ -9661,16 +9775,16 @@ _sk_load_tables_hsw: .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0 .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9 .byte 196,194,53,146,4,136 // vgatherdps %ymm9,(%r8,%ymm1,4),%ymm0 - .byte 196,98,101,0,13,31,253,2,0 // vpshufb 0x2fd1f(%rip),%ymm3,%ymm9 # 39ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x56c> + .byte 196,98,101,0,13,223,4,3,0 // vpshufb 0x304df(%rip),%ymm3,%ymm9 # 3a4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x578> .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10 .byte 196,130,45,146,12,137 // vgatherdps %ymm10,(%r9,%ymm9,4),%ymm1 .byte 72,139,64,24 // mov 0x18(%rax),%rax - .byte 196,98,101,0,13,35,253,2,0 // vpshufb 0x2fd23(%rip),%ymm3,%ymm9 # 39ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x58c> + .byte 196,98,101,0,13,227,4,3,0 // vpshufb 0x304e3(%rip),%ymm3,%ymm9 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0x598> .byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2 .byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 - .byte 196,98,125,24,5,167,250,2,0 // vbroadcastss 0x2faa7(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,5,91,2,3,0 // vbroadcastss 0x3025b(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -9679,21 +9793,21 @@ _sk_load_tables_hsw: .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,122,255,255,255 // ja 9d70 <_sk_load_tables_hsw+0x10> + .byte 15,135,122,255,255,255 // ja 9fd0 <_sk_load_tables_hsw+0x10> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 9e8c <_sk_load_tables_hsw+0x12c> + .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # a0ec <_sk_load_tables_hsw+0x12c> .byte 79,99,12,138 // movslq (%r10,%r9,4),%r9 .byte 77,1,209 // add %r10,%r9 .byte 65,255,225 // jmpq *%r9 .byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3 - .byte 233,90,255,255,255 // jmpq 9d70 <_sk_load_tables_hsw+0x10> + .byte 233,90,255,255,255 // jmpq 9fd0 <_sk_load_tables_hsw+0x10> .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0 .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0 .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1 .byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3 .byte 196,193,122,126,4,144 // vmovq (%r8,%rdx,4),%xmm0 .byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3 - .byte 233,51,255,255,255 // jmpq 9d70 <_sk_load_tables_hsw+0x10> + .byte 233,51,255,255,255 // jmpq 9fd0 <_sk_load_tables_hsw+0x10> .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0 .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0 .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1 @@ -9706,8 +9820,8 @@ _sk_load_tables_hsw: .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3 .byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0 .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3 - .byte 233,228,254,255,255 // jmpq 9d70 <_sk_load_tables_hsw+0x10> - .byte 127,255 // jg 9e8d <_sk_load_tables_hsw+0x12d> + .byte 233,228,254,255,255 // jmpq 9fd0 <_sk_load_tables_hsw+0x10> + .byte 127,255 // jg a0ed <_sk_load_tables_hsw+0x12d> .byte 255 // (bad) .byte 255,160,255,255,255,138 // jmpq *-0x75000001(%rax) .byte 255 // (bad) @@ -9735,7 +9849,7 @@ _sk_load_tables_u16_be_hsw: .byte 76,139,0 // mov (%rax),%r8 .byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,215,0,0,0 // jne 9f95 <_sk_load_tables_u16_be_hsw+0xed> + .byte 15,133,215,0,0,0 // jne a1f5 <_sk_load_tables_u16_be_hsw+0xed> .byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8 .byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2 .byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3 @@ -9751,7 +9865,7 @@ _sk_load_tables_u16_be_hsw: .byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1 .byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8 .byte 196,65,49,108,214 // vpunpcklqdq %xmm14,%xmm9,%xmm10 - .byte 197,121,111,29,192,1,3,0 // vmovdqa 0x301c0(%rip),%xmm11 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,121,111,29,128,9,3,0 // vmovdqa 0x30980(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,193,113,219,195 // vpand %xmm11,%xmm1,%xmm0 .byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1 .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12 @@ -9776,36 +9890,36 @@ _sk_load_tables_u16_be_hsw: .byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3 .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 - .byte 196,98,125,24,5,12,249,2,0 // vbroadcastss 0x2f90c(%rip),%ymm8 # 39898 <_sk_srcover_bgra_8888_sse2_lowp+0x344> + .byte 196,98,125,24,5,192,0,3,0 // vbroadcastss 0x300c0(%rip),%ymm8 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344> .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,85 // je 9ffb <_sk_load_tables_u16_be_hsw+0x153> + .byte 116,85 // je a25b <_sk_load_tables_u16_be_hsw+0x153> .byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,72 // jb 9ffb <_sk_load_tables_u16_be_hsw+0x153> + .byte 114,72 // jb a25b <_sk_load_tables_u16_be_hsw+0x153> .byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 116,72 // je a008 <_sk_load_tables_u16_be_hsw+0x160> + .byte 116,72 // je a268 <_sk_load_tables_u16_be_hsw+0x160> .byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,59 // jb a008 <_sk_load_tables_u16_be_hsw+0x160> + .byte 114,59 // jb a268 <_sk_load_tables_u16_be_hsw+0x160> .byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 15,132,251,254,255,255 // je 9ed9 <_sk_load_tables_u16_be_hsw+0x31> + .byte 15,132,251,254,255,255 // je a139 <_sk_load_tables_u16_be_hsw+0x31> .byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 15,130,234,254,255,255 // jb 9ed9 <_sk_load_tables_u16_be_hsw+0x31> + .byte 15,130,234,254,255,255 // jb a139 <_sk_load_tables_u16_be_hsw+0x31> .byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9 - .byte 233,222,254,255,255 // jmpq 9ed9 <_sk_load_tables_u16_be_hsw+0x31> + .byte 233,222,254,255,255 // jmpq a139 <_sk_load_tables_u16_be_hsw+0x31> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2 - .byte 233,209,254,255,255 // jmpq 9ed9 <_sk_load_tables_u16_be_hsw+0x31> + .byte 233,209,254,255,255 // jmpq a139 <_sk_load_tables_u16_be_hsw+0x31> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 - .byte 233,200,254,255,255 // jmpq 9ed9 <_sk_load_tables_u16_be_hsw+0x31> + .byte 233,200,254,255,255 // jmpq a139 <_sk_load_tables_u16_be_hsw+0x31> HIDDEN _sk_load_tables_rgb_u16_be_hsw .globl _sk_load_tables_rgb_u16_be_hsw @@ -9815,7 +9929,7 @@ _sk_load_tables_rgb_u16_be_hsw: .byte 76,139,0 // mov (%rax),%r8 .byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,206,0,0,0 // jne a0f1 <_sk_load_tables_rgb_u16_be_hsw+0xe0> + .byte 15,133,206,0,0,0 // jne a351 <_sk_load_tables_rgb_u16_be_hsw+0xe0> .byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11 .byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3 .byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2 @@ -9836,7 +9950,7 @@ _sk_load_tables_rgb_u16_be_hsw: .byte 197,105,108,192 // vpunpcklqdq %xmm0,%xmm2,%xmm8 .byte 197,241,108,195 // vpunpcklqdq %xmm3,%xmm1,%xmm0 .byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1 - .byte 197,249,111,29,64,0,3,0 // vmovdqa 0x30040(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,249,111,29,0,8,3,0 // vmovdqa 0x30800(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 197,249,219,195 // vpand %xmm3,%xmm0,%xmm0 .byte 196,98,125,51,200 // vpmovzxwd %xmm0,%ymm9 .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10 @@ -9856,111 +9970,117 @@ _sk_load_tables_rgb_u16_be_hsw: .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3 .byte 196,226,45,146,20,152 // vgatherdps %ymm10,(%rax,%ymm3,4),%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,21,247,2,0 // vbroadcastss 0x2f715(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,201,254,2,0 // vbroadcastss 0x2fec9(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 255,224 // jmpq *%rax .byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,31 // jne a129 <_sk_load_tables_rgb_u16_be_hsw+0x118> + .byte 117,31 // jne a389 <_sk_load_tables_rgb_u16_be_hsw+0x118> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3 .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 - .byte 233,47,255,255,255 // jmpq a058 <_sk_load_tables_rgb_u16_be_hsw+0x47> + .byte 233,47,255,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47> .byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,48 // jb a173 <_sk_load_tables_rgb_u16_be_hsw+0x162> + .byte 114,48 // jb a3d3 <_sk_load_tables_rgb_u16_be_hsw+0x162> .byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 117,48 // jne a18d <_sk_load_tables_rgb_u16_be_hsw+0x17c> + .byte 117,48 // jne a3ed <_sk_load_tables_rgb_u16_be_hsw+0x17c> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 - .byte 233,229,254,255,255 // jmpq a058 <_sk_load_tables_rgb_u16_be_hsw+0x47> + .byte 233,229,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3 - .byte 233,203,254,255,255 // jmpq a058 <_sk_load_tables_rgb_u16_be_hsw+0x47> + .byte 233,203,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47> .byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,39 // jb a1ce <_sk_load_tables_rgb_u16_be_hsw+0x1bd> + .byte 114,39 // jb a42e <_sk_load_tables_rgb_u16_be_hsw+0x1bd> .byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 117,30 // jne a1df <_sk_load_tables_rgb_u16_be_hsw+0x1ce> + .byte 117,30 // jne a43f <_sk_load_tables_rgb_u16_be_hsw+0x1ce> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 - .byte 233,138,254,255,255 // jmpq a058 <_sk_load_tables_rgb_u16_be_hsw+0x47> + .byte 233,138,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 - .byte 233,121,254,255,255 // jmpq a058 <_sk_load_tables_rgb_u16_be_hsw+0x47> + .byte 233,121,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47> .byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 114,25 // jb a212 <_sk_load_tables_rgb_u16_be_hsw+0x201> + .byte 114,25 // jb a472 <_sk_load_tables_rgb_u16_be_hsw+0x201> .byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0 - .byte 233,70,254,255,255 // jmpq a058 <_sk_load_tables_rgb_u16_be_hsw+0x47> + .byte 233,70,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 - .byte 233,61,254,255,255 // jmpq a058 <_sk_load_tables_rgb_u16_be_hsw+0x47> + .byte 233,61,254,255,255 // jmpq a2b8 <_sk_load_tables_rgb_u16_be_hsw+0x47> HIDDEN _sk_byte_tables_hsw .globl _sk_byte_tables_hsw FUNCTION(_sk_byte_tables_hsw) _sk_byte_tables_hsw: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,98,125,24,5,10,246,2,0 // vbroadcastss 0x2f60a(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 - .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9 - .byte 196,65,249,126,200 // vmovq %xmm9,%r8 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9 + .byte 196,98,125,24,29,137,253,2,0 // vbroadcastss 0x2fd89(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,52,93,211 // vminps %ymm11,%ymm9,%ymm10 + .byte 196,98,125,24,13,167,253,2,0 // vbroadcastss 0x2fda7(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,65,44,89,209 // vmulps %ymm9,%ymm10,%ymm10 + .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 + .byte 196,65,249,126,208 // vmovq %xmm10,%r8 .byte 69,137,193 // mov %r8d,%r9d .byte 76,139,16 // mov (%rax),%r10 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d .byte 196,193,121,110,193 // vmovd %r9d,%xmm0 - .byte 196,67,249,22,201,1 // vpextrq $0x1,%xmm9,%r9 + .byte 196,67,249,22,209,1 // vpextrq $0x1,%xmm10,%r9 .byte 73,193,232,32 // shr $0x20,%r8 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d - .byte 196,67,121,32,208,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm10 + .byte 196,67,121,32,224,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm12 .byte 69,137,200 // mov %r9d,%r8d .byte 73,193,233,32 // shr $0x20,%r9 - .byte 196,99,125,57,200,1 // vextracti128 $0x1,%ymm9,%xmm0 + .byte 196,99,125,57,208,1 // vextracti128 $0x1,%ymm10,%xmm0 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d - .byte 196,67,41,32,200,2 // vpinsrb $0x2,%r8d,%xmm10,%xmm9 + .byte 196,67,25,32,208,2 // vpinsrb $0x2,%r8d,%xmm12,%xmm10 .byte 196,193,249,126,192 // vmovq %xmm0,%r8 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d - .byte 196,67,49,32,201,3 // vpinsrb $0x3,%r9d,%xmm9,%xmm9 + .byte 196,67,41,32,209,3 // vpinsrb $0x3,%r9d,%xmm10,%xmm10 .byte 69,137,193 // mov %r8d,%r9d .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d - .byte 196,67,49,32,201,4 // vpinsrb $0x4,%r9d,%xmm9,%xmm9 + .byte 196,67,41,32,209,4 // vpinsrb $0x4,%r9d,%xmm10,%xmm10 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 73,193,232,32 // shr $0x20,%r8 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d - .byte 196,195,49,32,192,5 // vpinsrb $0x5,%r8d,%xmm9,%xmm0 + .byte 196,195,41,32,192,5 // vpinsrb $0x5,%r8d,%xmm10,%xmm0 .byte 69,137,200 // mov %r9d,%r8d .byte 73,193,233,32 // shr $0x20,%r9 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d .byte 196,195,121,32,192,6 // vpinsrb $0x6,%r8d,%xmm0,%xmm0 .byte 76,139,64,8 // mov 0x8(%rax),%r8 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d - .byte 196,67,121,32,201,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm9 - .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 - .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1 + .byte 196,67,121,32,209,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm10 + .byte 197,188,95,193 // vmaxps %ymm1,%ymm8,%ymm0 + .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0 + .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 + .byte 197,253,91,200 // vcvtps2dq %ymm0,%ymm1 .byte 196,193,249,126,201 // vmovq %xmm1,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d @@ -9991,7 +10111,9 @@ _sk_byte_tables_hsw: .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d .byte 196,195,121,32,200,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm1 .byte 76,139,64,16 // mov 0x10(%rax),%r8 - .byte 196,193,108,89,192 // vmulps %ymm8,%ymm2,%ymm0 + .byte 197,188,95,194 // vmaxps %ymm2,%ymm8,%ymm0 + .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0 + .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 .byte 197,253,91,208 // vcvtps2dq %ymm0,%ymm2 .byte 196,193,249,126,209 // vmovq %xmm2,%r9 .byte 69,137,202 // mov %r9d,%r10d @@ -10023,39 +10145,41 @@ _sk_byte_tables_hsw: .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d .byte 196,195,121,32,208,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm2 .byte 76,139,72,24 // mov 0x18(%rax),%r9 - .byte 196,193,100,89,192 // vmulps %ymm8,%ymm3,%ymm0 - .byte 197,253,91,216 // vcvtps2dq %ymm0,%ymm3 - .byte 196,193,249,126,216 // vmovq %xmm3,%r8 + .byte 197,188,95,195 // vmaxps %ymm3,%ymm8,%ymm0 + .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0 + .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 + .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 + .byte 196,193,249,126,192 // vmovq %xmm0,%r8 .byte 68,137,192 // mov %r8d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax - .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 196,195,249,22,218,1 // vpextrq $0x1,%xmm3,%r10 + .byte 197,249,110,216 // vmovd %eax,%xmm3 + .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 .byte 73,193,232,32 // shr $0x20,%r8 .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax - .byte 196,227,121,32,192,1 // vpinsrb $0x1,%eax,%xmm0,%xmm0 + .byte 196,227,97,32,216,1 // vpinsrb $0x1,%eax,%xmm3,%xmm3 .byte 68,137,208 // mov %r10d,%eax .byte 73,193,234,32 // shr $0x20,%r10 - .byte 196,227,125,57,219,1 // vextracti128 $0x1,%ymm3,%xmm3 + .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax - .byte 196,227,121,32,192,2 // vpinsrb $0x2,%eax,%xmm0,%xmm0 - .byte 196,193,249,126,216 // vmovq %xmm3,%r8 + .byte 196,227,97,32,216,2 // vpinsrb $0x2,%eax,%xmm3,%xmm3 + .byte 196,193,249,126,192 // vmovq %xmm0,%r8 .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax - .byte 196,227,121,32,192,3 // vpinsrb $0x3,%eax,%xmm0,%xmm0 + .byte 196,227,97,32,216,3 // vpinsrb $0x3,%eax,%xmm3,%xmm3 .byte 68,137,192 // mov %r8d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax - .byte 196,227,121,32,192,4 // vpinsrb $0x4,%eax,%xmm0,%xmm0 - .byte 196,195,249,22,218,1 // vpextrq $0x1,%xmm3,%r10 + .byte 196,227,97,32,216,4 // vpinsrb $0x4,%eax,%xmm3,%xmm3 + .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 .byte 73,193,232,32 // shr $0x20,%r8 .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax - .byte 196,227,121,32,192,5 // vpinsrb $0x5,%eax,%xmm0,%xmm0 + .byte 196,227,97,32,192,5 // vpinsrb $0x5,%eax,%xmm3,%xmm0 .byte 68,137,208 // mov %r10d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 196,227,121,32,216,6 // vpinsrb $0x6,%eax,%xmm0,%xmm3 .byte 73,193,234,32 // shr $0x20,%r10 .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax - .byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0 + .byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,98,125,24,5,220,243,2,0 // vbroadcastss 0x2f3dc(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,5,93,251,2,0 // vbroadcastss 0x2fb5d(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 @@ -10080,41 +10204,47 @@ _sk_byte_tables_rgb_hsw: .byte 196,65,121,110,192 // vmovd %r8d,%xmm8 .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 - .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9 - .byte 196,65,249,126,200 // vmovq %xmm9,%r8 + .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 + .byte 197,52,95,208 // vmaxps %ymm0,%ymm9,%ymm10 + .byte 196,98,125,24,29,130,250,2,0 // vbroadcastss 0x2fa82(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,44,93,211 // vminps %ymm11,%ymm10,%ymm10 + .byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10 + .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 + .byte 196,65,249,126,208 // vmovq %xmm10,%r8 .byte 69,137,193 // mov %r8d,%r9d .byte 76,139,16 // mov (%rax),%r10 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d .byte 196,193,121,110,193 // vmovd %r9d,%xmm0 - .byte 196,67,249,22,201,1 // vpextrq $0x1,%xmm9,%r9 + .byte 196,67,249,22,209,1 // vpextrq $0x1,%xmm10,%r9 .byte 73,193,232,32 // shr $0x20,%r8 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d - .byte 196,67,121,32,208,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm10 + .byte 196,67,121,32,224,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm12 .byte 69,137,200 // mov %r9d,%r8d .byte 73,193,233,32 // shr $0x20,%r9 - .byte 196,99,125,57,200,1 // vextracti128 $0x1,%ymm9,%xmm0 + .byte 196,99,125,57,208,1 // vextracti128 $0x1,%ymm10,%xmm0 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d - .byte 196,67,41,32,200,2 // vpinsrb $0x2,%r8d,%xmm10,%xmm9 + .byte 196,67,25,32,208,2 // vpinsrb $0x2,%r8d,%xmm12,%xmm10 .byte 196,193,249,126,192 // vmovq %xmm0,%r8 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d - .byte 196,67,49,32,201,3 // vpinsrb $0x3,%r9d,%xmm9,%xmm9 + .byte 196,67,41,32,209,3 // vpinsrb $0x3,%r9d,%xmm10,%xmm10 .byte 69,137,193 // mov %r8d,%r9d .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d - .byte 196,67,49,32,201,4 // vpinsrb $0x4,%r9d,%xmm9,%xmm9 + .byte 196,67,41,32,209,4 // vpinsrb $0x4,%r9d,%xmm10,%xmm10 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 73,193,232,32 // shr $0x20,%r8 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d - .byte 196,195,49,32,192,5 // vpinsrb $0x5,%r8d,%xmm9,%xmm0 + .byte 196,195,41,32,192,5 // vpinsrb $0x5,%r8d,%xmm10,%xmm0 .byte 69,137,200 // mov %r9d,%r8d .byte 73,193,233,32 // shr $0x20,%r9 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d .byte 196,195,121,32,192,6 // vpinsrb $0x6,%r8d,%xmm0,%xmm0 .byte 76,139,64,8 // mov 0x8(%rax),%r8 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d - .byte 196,67,121,32,201,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm9 - .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 - .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1 + .byte 196,67,121,32,209,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm10 + .byte 197,180,95,193 // vmaxps %ymm1,%ymm9,%ymm0 + .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0 + .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 + .byte 197,253,91,200 // vcvtps2dq %ymm0,%ymm1 .byte 196,193,249,126,201 // vmovq %xmm1,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d @@ -10145,39 +10275,41 @@ _sk_byte_tables_rgb_hsw: .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d .byte 196,195,121,32,200,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm1 .byte 76,139,72,16 // mov 0x10(%rax),%r9 - .byte 197,188,89,194 // vmulps %ymm2,%ymm8,%ymm0 - .byte 197,253,91,208 // vcvtps2dq %ymm0,%ymm2 - .byte 196,193,249,126,208 // vmovq %xmm2,%r8 + .byte 197,180,95,194 // vmaxps %ymm2,%ymm9,%ymm0 + .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0 + .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 + .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 + .byte 196,193,249,126,192 // vmovq %xmm0,%r8 .byte 68,137,192 // mov %r8d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax - .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10 + .byte 197,249,110,208 // vmovd %eax,%xmm2 + .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 .byte 73,193,232,32 // shr $0x20,%r8 .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax - .byte 196,227,121,32,192,1 // vpinsrb $0x1,%eax,%xmm0,%xmm0 + .byte 196,227,105,32,208,1 // vpinsrb $0x1,%eax,%xmm2,%xmm2 .byte 68,137,208 // mov %r10d,%eax .byte 73,193,234,32 // shr $0x20,%r10 - .byte 196,227,125,57,210,1 // vextracti128 $0x1,%ymm2,%xmm2 + .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0 .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax - .byte 196,227,121,32,192,2 // vpinsrb $0x2,%eax,%xmm0,%xmm0 - .byte 196,193,249,126,208 // vmovq %xmm2,%r8 + .byte 196,227,105,32,208,2 // vpinsrb $0x2,%eax,%xmm2,%xmm2 + .byte 196,193,249,126,192 // vmovq %xmm0,%r8 .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax - .byte 196,227,121,32,192,3 // vpinsrb $0x3,%eax,%xmm0,%xmm0 + .byte 196,227,105,32,208,3 // vpinsrb $0x3,%eax,%xmm2,%xmm2 .byte 68,137,192 // mov %r8d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax - .byte 196,227,121,32,192,4 // vpinsrb $0x4,%eax,%xmm0,%xmm0 - .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10 + .byte 196,227,105,32,208,4 // vpinsrb $0x4,%eax,%xmm2,%xmm2 + .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 .byte 73,193,232,32 // shr $0x20,%r8 .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax - .byte 196,227,121,32,192,5 // vpinsrb $0x5,%eax,%xmm0,%xmm0 + .byte 196,227,105,32,192,5 // vpinsrb $0x5,%eax,%xmm2,%xmm0 .byte 68,137,208 // mov %r10d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 196,227,121,32,208,6 // vpinsrb $0x6,%eax,%xmm0,%xmm2 .byte 73,193,234,32 // shr $0x20,%r10 .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax - .byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0 + .byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,98,125,24,5,176,241,2,0 // vbroadcastss 0x2f1b0(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,5,6,249,2,0 // vbroadcastss 0x2f906(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 @@ -10199,13 +10331,17 @@ _sk_table_r_hsw: .byte 255,200 // dec %eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8 - .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 - .byte 197,125,91,192 // vcvtps2dq %ymm0,%ymm8 + .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0 + .byte 196,98,125,24,21,57,248,2,0 // vbroadcastss 0x2f839(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,193,124,93,194 // vminps %ymm10,%ymm0,%ymm0 + .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 + .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9 - .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 - .byte 196,130,53,146,4,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm0 + .byte 196,66,53,146,4,128 // vgatherdps %ymm9,(%r8,%ymm0,4),%ymm8 .byte 72,173 // lods %ds:(%rsi),%rax + .byte 197,124,41,192 // vmovaps %ymm8,%ymm0 .byte 255,224 // jmpq *%rax HIDDEN _sk_table_g_hsw @@ -10218,13 +10354,17 @@ _sk_table_g_hsw: .byte 255,200 // dec %eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8 - .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 - .byte 197,125,91,193 // vcvtps2dq %ymm1,%ymm8 + .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1 + .byte 196,98,125,24,21,238,247,2,0 // vbroadcastss 0x2f7ee(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,193,116,93,202 // vminps %ymm10,%ymm1,%ymm1 + .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1 + .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1 .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9 - .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 - .byte 196,130,53,146,12,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm1 + .byte 196,66,53,146,4,136 // vgatherdps %ymm9,(%r8,%ymm1,4),%ymm8 .byte 72,173 // lods %ds:(%rsi),%rax + .byte 197,124,41,193 // vmovaps %ymm8,%ymm1 .byte 255,224 // jmpq *%rax HIDDEN _sk_table_b_hsw @@ -10237,13 +10377,17 @@ _sk_table_b_hsw: .byte 255,200 // dec %eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8 - .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2 - .byte 197,125,91,194 // vcvtps2dq %ymm2,%ymm8 + .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2 + .byte 196,98,125,24,21,163,247,2,0 // vbroadcastss 0x2f7a3(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,193,108,93,210 // vminps %ymm10,%ymm2,%ymm2 + .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2 + .byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2 .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9 - .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 - .byte 196,130,53,146,20,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm2 + .byte 196,66,53,146,4,144 // vgatherdps %ymm9,(%r8,%ymm2,4),%ymm8 .byte 72,173 // lods %ds:(%rsi),%rax + .byte 197,124,41,194 // vmovaps %ymm8,%ymm2 .byte 255,224 // jmpq *%rax HIDDEN _sk_table_a_hsw @@ -10256,13 +10400,17 @@ _sk_table_a_hsw: .byte 255,200 // dec %eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8 - .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3 - .byte 197,125,91,195 // vcvtps2dq %ymm3,%ymm8 + .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3 + .byte 196,98,125,24,21,88,247,2,0 // vbroadcastss 0x2f758(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,193,100,93,218 // vminps %ymm10,%ymm3,%ymm3 + .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3 + .byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3 .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9 - .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3 - .byte 196,130,53,146,28,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm3 + .byte 196,66,53,146,4,152 // vgatherdps %ymm9,(%r8,%ymm3,4),%ymm8 .byte 72,173 // lods %ds:(%rsi),%rax + .byte 197,124,41,195 // vmovaps %ymm8,%ymm3 .byte 255,224 // jmpq *%rax HIDDEN _sk_parametric_r_hsw @@ -10282,33 +10430,33 @@ _sk_parametric_r_hsw: .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,36,194,208,0 // vcmpeqps %ymm0,%ymm11,%ymm10 .byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13 - .byte 196,98,125,24,53,141,240,2,0 // vbroadcastss 0x2f08d(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348> - .byte 196,98,125,24,61,136,240,2,0 // vbroadcastss 0x2f088(%rip),%ymm15 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> + .byte 196,98,125,24,53,131,247,2,0 // vbroadcastss 0x2f783(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348> + .byte 196,98,125,24,61,126,247,2,0 // vbroadcastss 0x2f77e(%rip),%ymm15 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> .byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11 - .byte 196,98,125,24,61,218,239,2,0 // vbroadcastss 0x2efda(%rip),%ymm15 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,61,208,246,2,0 // vbroadcastss 0x2f6d0(%rip),%ymm15 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11 - .byte 196,98,125,24,61,112,240,2,0 // vbroadcastss 0x2f070(%rip),%ymm15 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350> + .byte 196,98,125,24,61,102,247,2,0 // vbroadcastss 0x2f766(%rip),%ymm15 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350> .byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15 - .byte 196,98,125,24,45,102,240,2,0 // vbroadcastss 0x2f066(%rip),%ymm13 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354> + .byte 196,98,125,24,45,92,247,2,0 // vbroadcastss 0x2f75c(%rip),%ymm13 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354> .byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13 - .byte 196,98,125,24,53,92,240,2,0 // vbroadcastss 0x2f05c(%rip),%ymm14 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358> + .byte 196,98,125,24,53,82,247,2,0 // vbroadcastss 0x2f752(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358> .byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11 - .byte 196,98,125,24,53,82,240,2,0 // vbroadcastss 0x2f052(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> + .byte 196,98,125,24,53,72,247,2,0 // vbroadcastss 0x2f748(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> .byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11 .byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11 .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11 .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12 .byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12 - .byte 196,98,125,24,45,51,240,2,0 // vbroadcastss 0x2f033(%rip),%ymm13 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360> + .byte 196,98,125,24,45,41,247,2,0 // vbroadcastss 0x2f729(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360> .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11 - .byte 196,98,125,24,45,41,240,2,0 // vbroadcastss 0x2f029(%rip),%ymm13 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364> + .byte 196,98,125,24,45,31,247,2,0 // vbroadcastss 0x2f71f(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364> .byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13 - .byte 196,98,125,24,29,31,240,2,0 // vbroadcastss 0x2f01f(%rip),%ymm11 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368> + .byte 196,98,125,24,29,21,247,2,0 // vbroadcastss 0x2f715(%rip),%ymm11 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368> .byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11 - .byte 196,98,125,24,37,21,240,2,0 // vbroadcastss 0x2f015(%rip),%ymm12 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> + .byte 196,98,125,24,37,11,247,2,0 // vbroadcastss 0x2f70b(%rip),%ymm12 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> .byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11 .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11 - .byte 196,98,125,24,37,6,240,2,0 // vbroadcastss 0x2f006(%rip),%ymm12 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370> + .byte 196,98,125,24,37,252,246,2,0 // vbroadcastss 0x2f6fc(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370> .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11 .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 .byte 196,99,37,74,208,160 // vblendvps %ymm10,%ymm0,%ymm11,%ymm10 @@ -10316,7 +10464,7 @@ _sk_parametric_r_hsw: .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8 .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0 - .byte 196,98,125,24,5,24,239,2,0 // vbroadcastss 0x2ef18(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,14,246,2,0 // vbroadcastss 0x2f60e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -10338,33 +10486,33 @@ _sk_parametric_g_hsw: .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,36,194,209,0 // vcmpeqps %ymm1,%ymm11,%ymm10 .byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13 - .byte 196,98,125,24,53,91,239,2,0 // vbroadcastss 0x2ef5b(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348> - .byte 196,98,125,24,61,86,239,2,0 // vbroadcastss 0x2ef56(%rip),%ymm15 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> + .byte 196,98,125,24,53,81,246,2,0 // vbroadcastss 0x2f651(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348> + .byte 196,98,125,24,61,76,246,2,0 // vbroadcastss 0x2f64c(%rip),%ymm15 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> .byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11 - .byte 196,98,125,24,61,168,238,2,0 // vbroadcastss 0x2eea8(%rip),%ymm15 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,61,158,245,2,0 // vbroadcastss 0x2f59e(%rip),%ymm15 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11 - .byte 196,98,125,24,61,62,239,2,0 // vbroadcastss 0x2ef3e(%rip),%ymm15 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350> + .byte 196,98,125,24,61,52,246,2,0 // vbroadcastss 0x2f634(%rip),%ymm15 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350> .byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15 - .byte 196,98,125,24,45,52,239,2,0 // vbroadcastss 0x2ef34(%rip),%ymm13 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354> + .byte 196,98,125,24,45,42,246,2,0 // vbroadcastss 0x2f62a(%rip),%ymm13 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354> .byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13 - .byte 196,98,125,24,53,42,239,2,0 // vbroadcastss 0x2ef2a(%rip),%ymm14 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358> + .byte 196,98,125,24,53,32,246,2,0 // vbroadcastss 0x2f620(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358> .byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11 - .byte 196,98,125,24,53,32,239,2,0 // vbroadcastss 0x2ef20(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> + .byte 196,98,125,24,53,22,246,2,0 // vbroadcastss 0x2f616(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> .byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11 .byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11 .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11 .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12 .byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12 - .byte 196,98,125,24,45,1,239,2,0 // vbroadcastss 0x2ef01(%rip),%ymm13 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360> + .byte 196,98,125,24,45,247,245,2,0 // vbroadcastss 0x2f5f7(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360> .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11 - .byte 196,98,125,24,45,247,238,2,0 // vbroadcastss 0x2eef7(%rip),%ymm13 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364> + .byte 196,98,125,24,45,237,245,2,0 // vbroadcastss 0x2f5ed(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364> .byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13 - .byte 196,98,125,24,29,237,238,2,0 // vbroadcastss 0x2eeed(%rip),%ymm11 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368> + .byte 196,98,125,24,29,227,245,2,0 // vbroadcastss 0x2f5e3(%rip),%ymm11 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368> .byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11 - .byte 196,98,125,24,37,227,238,2,0 // vbroadcastss 0x2eee3(%rip),%ymm12 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> + .byte 196,98,125,24,37,217,245,2,0 // vbroadcastss 0x2f5d9(%rip),%ymm12 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> .byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11 .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11 - .byte 196,98,125,24,37,212,238,2,0 // vbroadcastss 0x2eed4(%rip),%ymm12 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370> + .byte 196,98,125,24,37,202,245,2,0 // vbroadcastss 0x2f5ca(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370> .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11 .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 .byte 196,99,37,74,209,160 // vblendvps %ymm10,%ymm1,%ymm11,%ymm10 @@ -10372,7 +10520,7 @@ _sk_parametric_g_hsw: .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8 .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1 - .byte 196,98,125,24,5,230,237,2,0 // vbroadcastss 0x2ede6(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,220,244,2,0 // vbroadcastss 0x2f4dc(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -10394,33 +10542,33 @@ _sk_parametric_b_hsw: .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 .byte 197,36,194,210,0 // vcmpeqps %ymm2,%ymm11,%ymm10 .byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13 - .byte 196,98,125,24,53,41,238,2,0 // vbroadcastss 0x2ee29(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348> - .byte 196,98,125,24,61,36,238,2,0 // vbroadcastss 0x2ee24(%rip),%ymm15 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> + .byte 196,98,125,24,53,31,245,2,0 // vbroadcastss 0x2f51f(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348> + .byte 196,98,125,24,61,26,245,2,0 // vbroadcastss 0x2f51a(%rip),%ymm15 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> .byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11 - .byte 196,98,125,24,61,118,237,2,0 // vbroadcastss 0x2ed76(%rip),%ymm15 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,61,108,244,2,0 // vbroadcastss 0x2f46c(%rip),%ymm15 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11 - .byte 196,98,125,24,61,12,238,2,0 // vbroadcastss 0x2ee0c(%rip),%ymm15 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350> + .byte 196,98,125,24,61,2,245,2,0 // vbroadcastss 0x2f502(%rip),%ymm15 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350> .byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15 - .byte 196,98,125,24,45,2,238,2,0 // vbroadcastss 0x2ee02(%rip),%ymm13 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354> + .byte 196,98,125,24,45,248,244,2,0 // vbroadcastss 0x2f4f8(%rip),%ymm13 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354> .byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13 - .byte 196,98,125,24,53,248,237,2,0 // vbroadcastss 0x2edf8(%rip),%ymm14 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358> + .byte 196,98,125,24,53,238,244,2,0 // vbroadcastss 0x2f4ee(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358> .byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11 - .byte 196,98,125,24,53,238,237,2,0 // vbroadcastss 0x2edee(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> + .byte 196,98,125,24,53,228,244,2,0 // vbroadcastss 0x2f4e4(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> .byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11 .byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11 .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11 .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12 .byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12 - .byte 196,98,125,24,45,207,237,2,0 // vbroadcastss 0x2edcf(%rip),%ymm13 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360> + .byte 196,98,125,24,45,197,244,2,0 // vbroadcastss 0x2f4c5(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360> .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11 - .byte 196,98,125,24,45,197,237,2,0 // vbroadcastss 0x2edc5(%rip),%ymm13 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364> + .byte 196,98,125,24,45,187,244,2,0 // vbroadcastss 0x2f4bb(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364> .byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13 - .byte 196,98,125,24,29,187,237,2,0 // vbroadcastss 0x2edbb(%rip),%ymm11 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368> + .byte 196,98,125,24,29,177,244,2,0 // vbroadcastss 0x2f4b1(%rip),%ymm11 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368> .byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11 - .byte 196,98,125,24,37,177,237,2,0 // vbroadcastss 0x2edb1(%rip),%ymm12 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> + .byte 196,98,125,24,37,167,244,2,0 // vbroadcastss 0x2f4a7(%rip),%ymm12 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> .byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11 .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11 - .byte 196,98,125,24,37,162,237,2,0 // vbroadcastss 0x2eda2(%rip),%ymm12 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370> + .byte 196,98,125,24,37,152,244,2,0 // vbroadcastss 0x2f498(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370> .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11 .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 .byte 196,99,37,74,210,160 // vblendvps %ymm10,%ymm2,%ymm11,%ymm10 @@ -10428,7 +10576,7 @@ _sk_parametric_b_hsw: .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8 .byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2 - .byte 196,98,125,24,5,180,236,2,0 // vbroadcastss 0x2ecb4(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,170,243,2,0 // vbroadcastss 0x2f3aa(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -10450,33 +10598,33 @@ _sk_parametric_a_hsw: .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3 .byte 197,36,194,211,0 // vcmpeqps %ymm3,%ymm11,%ymm10 .byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13 - .byte 196,98,125,24,53,247,236,2,0 // vbroadcastss 0x2ecf7(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348> - .byte 196,98,125,24,61,242,236,2,0 // vbroadcastss 0x2ecf2(%rip),%ymm15 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> + .byte 196,98,125,24,53,237,243,2,0 // vbroadcastss 0x2f3ed(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348> + .byte 196,98,125,24,61,232,243,2,0 // vbroadcastss 0x2f3e8(%rip),%ymm15 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> .byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11 - .byte 196,98,125,24,61,68,236,2,0 // vbroadcastss 0x2ec44(%rip),%ymm15 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,61,58,243,2,0 // vbroadcastss 0x2f33a(%rip),%ymm15 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11 - .byte 196,98,125,24,61,218,236,2,0 // vbroadcastss 0x2ecda(%rip),%ymm15 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350> + .byte 196,98,125,24,61,208,243,2,0 // vbroadcastss 0x2f3d0(%rip),%ymm15 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350> .byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15 - .byte 196,98,125,24,45,208,236,2,0 // vbroadcastss 0x2ecd0(%rip),%ymm13 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354> + .byte 196,98,125,24,45,198,243,2,0 // vbroadcastss 0x2f3c6(%rip),%ymm13 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354> .byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13 - .byte 196,98,125,24,53,198,236,2,0 // vbroadcastss 0x2ecc6(%rip),%ymm14 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358> + .byte 196,98,125,24,53,188,243,2,0 // vbroadcastss 0x2f3bc(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358> .byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11 - .byte 196,98,125,24,53,188,236,2,0 // vbroadcastss 0x2ecbc(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> + .byte 196,98,125,24,53,178,243,2,0 // vbroadcastss 0x2f3b2(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> .byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11 .byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11 .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11 .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12 .byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12 - .byte 196,98,125,24,45,157,236,2,0 // vbroadcastss 0x2ec9d(%rip),%ymm13 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360> + .byte 196,98,125,24,45,147,243,2,0 // vbroadcastss 0x2f393(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360> .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11 - .byte 196,98,125,24,45,147,236,2,0 // vbroadcastss 0x2ec93(%rip),%ymm13 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364> + .byte 196,98,125,24,45,137,243,2,0 // vbroadcastss 0x2f389(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364> .byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13 - .byte 196,98,125,24,29,137,236,2,0 // vbroadcastss 0x2ec89(%rip),%ymm11 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368> + .byte 196,98,125,24,29,127,243,2,0 // vbroadcastss 0x2f37f(%rip),%ymm11 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368> .byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11 - .byte 196,98,125,24,37,127,236,2,0 // vbroadcastss 0x2ec7f(%rip),%ymm12 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> + .byte 196,98,125,24,37,117,243,2,0 // vbroadcastss 0x2f375(%rip),%ymm12 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> .byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11 .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11 - .byte 196,98,125,24,37,112,236,2,0 // vbroadcastss 0x2ec70(%rip),%ymm12 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370> + .byte 196,98,125,24,37,102,243,2,0 // vbroadcastss 0x2f366(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370> .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11 .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 .byte 196,99,37,74,211,160 // vblendvps %ymm10,%ymm3,%ymm11,%ymm10 @@ -10484,7 +10632,7 @@ _sk_parametric_a_hsw: .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8 .byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3 - .byte 196,98,125,24,5,130,235,2,0 // vbroadcastss 0x2eb82(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,120,242,2,0 // vbroadcastss 0x2f278(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -10502,24 +10650,24 @@ _sk_gamma_hsw: .byte 197,252,17,84,36,224 // vmovups %ymm2,-0x20(%rsp) .byte 197,252,17,12,36 // vmovups %ymm1,(%rsp) .byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10 - .byte 196,98,125,24,29,203,235,2,0 // vbroadcastss 0x2ebcb(%rip),%ymm11 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348> - .byte 196,226,125,24,37,198,235,2,0 // vbroadcastss 0x2ebc6(%rip),%ymm4 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> + .byte 196,98,125,24,29,193,242,2,0 // vbroadcastss 0x2f2c1(%rip),%ymm11 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348> + .byte 196,226,125,24,37,188,242,2,0 // vbroadcastss 0x2f2bc(%rip),%ymm4 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> .byte 197,124,84,228 // vandps %ymm4,%ymm0,%ymm12 - .byte 196,226,125,24,29,25,235,2,0 // vbroadcastss 0x2eb19(%rip),%ymm3 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,226,125,24,29,15,242,2,0 // vbroadcastss 0x2f20f(%rip),%ymm3 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,252,17,92,36,32 // vmovups %ymm3,0x20(%rsp) .byte 197,28,86,227 // vorps %ymm3,%ymm12,%ymm12 - .byte 196,98,125,24,45,170,235,2,0 // vbroadcastss 0x2ebaa(%rip),%ymm13 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350> + .byte 196,98,125,24,45,160,242,2,0 // vbroadcastss 0x2f2a0(%rip),%ymm13 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350> .byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10 .byte 197,124,91,241 // vcvtdq2ps %ymm1,%ymm14 .byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14 .byte 197,124,91,250 // vcvtdq2ps %ymm2,%ymm15 .byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15 - .byte 196,226,125,24,45,142,235,2,0 // vbroadcastss 0x2eb8e(%rip),%ymm5 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354> + .byte 196,226,125,24,45,132,242,2,0 // vbroadcastss 0x2f284(%rip),%ymm5 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354> .byte 196,98,29,188,213 // vfnmadd231ps %ymm5,%ymm12,%ymm10 - .byte 196,226,125,24,13,132,235,2,0 // vbroadcastss 0x2eb84(%rip),%ymm1 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358> + .byte 196,226,125,24,13,122,242,2,0 // vbroadcastss 0x2f27a(%rip),%ymm1 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358> .byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp) .byte 197,28,88,225 // vaddps %ymm1,%ymm12,%ymm12 - .byte 196,98,125,24,5,117,235,2,0 // vbroadcastss 0x2eb75(%rip),%ymm8 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> + .byte 196,98,125,24,5,107,242,2,0 // vbroadcastss 0x2f26b(%rip),%ymm8 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> .byte 196,65,60,94,228 // vdivps %ymm12,%ymm8,%ymm12 .byte 197,124,17,68,36,128 // vmovups %ymm8,-0x80(%rsp) .byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10 @@ -10528,18 +10676,18 @@ _sk_gamma_hsw: .byte 196,65,44,89,213 // vmulps %ymm13,%ymm10,%ymm10 .byte 196,195,125,8,250,1 // vroundps $0x1,%ymm10,%ymm7 .byte 197,172,92,255 // vsubps %ymm7,%ymm10,%ymm7 - .byte 196,98,125,24,29,74,235,2,0 // vbroadcastss 0x2eb4a(%rip),%ymm11 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360> + .byte 196,98,125,24,29,64,242,2,0 // vbroadcastss 0x2f240(%rip),%ymm11 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360> .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 - .byte 196,98,125,24,37,64,235,2,0 // vbroadcastss 0x2eb40(%rip),%ymm12 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364> + .byte 196,98,125,24,37,54,242,2,0 // vbroadcastss 0x2f236(%rip),%ymm12 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364> .byte 196,66,69,188,212 // vfnmadd231ps %ymm12,%ymm7,%ymm10 - .byte 196,98,125,24,13,54,235,2,0 // vbroadcastss 0x2eb36(%rip),%ymm9 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368> + .byte 196,98,125,24,13,44,242,2,0 // vbroadcastss 0x2f22c(%rip),%ymm9 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368> .byte 197,180,92,255 // vsubps %ymm7,%ymm9,%ymm7 - .byte 196,226,125,24,13,45,235,2,0 // vbroadcastss 0x2eb2d(%rip),%ymm1 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> + .byte 196,226,125,24,13,35,242,2,0 // vbroadcastss 0x2f223(%rip),%ymm1 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> .byte 197,244,94,255 // vdivps %ymm7,%ymm1,%ymm7 .byte 197,172,88,255 // vaddps %ymm7,%ymm10,%ymm7 .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10 .byte 196,193,124,194,242,0 // vcmpeqps %ymm10,%ymm0,%ymm6 - .byte 196,226,125,24,29,21,235,2,0 // vbroadcastss 0x2eb15(%rip),%ymm3 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370> + .byte 196,226,125,24,29,11,242,2,0 // vbroadcastss 0x2f20b(%rip),%ymm3 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370> .byte 197,196,89,251 // vmulps %ymm3,%ymm7,%ymm7 .byte 197,253,91,255 // vcvtps2dq %ymm7,%ymm7 .byte 196,195,69,74,194,96 // vblendvps %ymm6,%ymm10,%ymm7,%ymm0 @@ -10608,27 +10756,27 @@ _sk_gamma_dst_hsw: .byte 197,252,17,76,36,64 // vmovups %ymm1,0x40(%rsp) .byte 197,252,17,68,36,32 // vmovups %ymm0,0x20(%rsp) .byte 197,124,91,212 // vcvtdq2ps %ymm4,%ymm10 - .byte 196,98,125,24,29,151,233,2,0 // vbroadcastss 0x2e997(%rip),%ymm11 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348> - .byte 196,226,125,24,5,146,233,2,0 // vbroadcastss 0x2e992(%rip),%ymm0 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> + .byte 196,98,125,24,29,141,240,2,0 // vbroadcastss 0x2f08d(%rip),%ymm11 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348> + .byte 196,226,125,24,5,136,240,2,0 // vbroadcastss 0x2f088(%rip),%ymm0 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> .byte 197,92,84,224 // vandps %ymm0,%ymm4,%ymm12 .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 197,252,40,220 // vmovaps %ymm4,%ymm3 - .byte 196,226,125,24,5,221,232,2,0 // vbroadcastss 0x2e8dd(%rip),%ymm0 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,226,125,24,5,211,239,2,0 // vbroadcastss 0x2efd3(%rip),%ymm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,252,17,4,36 // vmovups %ymm0,(%rsp) .byte 197,28,86,224 // vorps %ymm0,%ymm12,%ymm12 - .byte 196,98,125,24,45,111,233,2,0 // vbroadcastss 0x2e96f(%rip),%ymm13 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350> + .byte 196,98,125,24,45,101,240,2,0 // vbroadcastss 0x2f065(%rip),%ymm13 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350> .byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10 .byte 197,252,40,197 // vmovaps %ymm5,%ymm0 .byte 197,124,91,240 // vcvtdq2ps %ymm0,%ymm14 .byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14 .byte 197,124,91,124,36,128 // vcvtdq2ps -0x80(%rsp),%ymm15 .byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15 - .byte 196,226,125,24,45,77,233,2,0 // vbroadcastss 0x2e94d(%rip),%ymm5 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354> + .byte 196,226,125,24,45,67,240,2,0 // vbroadcastss 0x2f043(%rip),%ymm5 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354> .byte 196,98,29,188,213 // vfnmadd231ps %ymm5,%ymm12,%ymm10 - .byte 196,226,125,24,13,67,233,2,0 // vbroadcastss 0x2e943(%rip),%ymm1 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358> + .byte 196,226,125,24,13,57,240,2,0 // vbroadcastss 0x2f039(%rip),%ymm1 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358> .byte 197,252,17,76,36,192 // vmovups %ymm1,-0x40(%rsp) .byte 197,28,88,225 // vaddps %ymm1,%ymm12,%ymm12 - .byte 196,98,125,24,13,52,233,2,0 // vbroadcastss 0x2e934(%rip),%ymm9 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> + .byte 196,98,125,24,13,42,240,2,0 // vbroadcastss 0x2f02a(%rip),%ymm9 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> .byte 196,65,52,94,228 // vdivps %ymm12,%ymm9,%ymm12 .byte 197,124,17,76,36,160 // vmovups %ymm9,-0x60(%rsp) .byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10 @@ -10637,18 +10785,18 @@ _sk_gamma_dst_hsw: .byte 196,65,44,89,213 // vmulps %ymm13,%ymm10,%ymm10 .byte 196,195,125,8,250,1 // vroundps $0x1,%ymm10,%ymm7 .byte 197,172,92,255 // vsubps %ymm7,%ymm10,%ymm7 - .byte 196,98,125,24,29,9,233,2,0 // vbroadcastss 0x2e909(%rip),%ymm11 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360> + .byte 196,98,125,24,29,255,239,2,0 // vbroadcastss 0x2efff(%rip),%ymm11 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360> .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 - .byte 196,98,125,24,37,255,232,2,0 // vbroadcastss 0x2e8ff(%rip),%ymm12 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364> + .byte 196,98,125,24,37,245,239,2,0 // vbroadcastss 0x2eff5(%rip),%ymm12 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364> .byte 196,66,69,188,212 // vfnmadd231ps %ymm12,%ymm7,%ymm10 - .byte 196,98,125,24,5,245,232,2,0 // vbroadcastss 0x2e8f5(%rip),%ymm8 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368> + .byte 196,98,125,24,5,235,239,2,0 // vbroadcastss 0x2efeb(%rip),%ymm8 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368> .byte 197,188,92,255 // vsubps %ymm7,%ymm8,%ymm7 - .byte 196,226,125,24,13,236,232,2,0 // vbroadcastss 0x2e8ec(%rip),%ymm1 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> + .byte 196,226,125,24,13,226,239,2,0 // vbroadcastss 0x2efe2(%rip),%ymm1 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> .byte 197,244,94,255 // vdivps %ymm7,%ymm1,%ymm7 .byte 197,172,88,255 // vaddps %ymm7,%ymm10,%ymm7 .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10 .byte 196,193,100,194,242,0 // vcmpeqps %ymm10,%ymm3,%ymm6 - .byte 196,226,125,24,29,212,232,2,0 // vbroadcastss 0x2e8d4(%rip),%ymm3 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370> + .byte 196,226,125,24,29,202,239,2,0 // vbroadcastss 0x2efca(%rip),%ymm3 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370> .byte 197,196,89,251 // vmulps %ymm3,%ymm7,%ymm7 .byte 197,253,91,255 // vcvtps2dq %ymm7,%ymm7 .byte 196,195,69,74,226,96 // vblendvps %ymm6,%ymm10,%ymm7,%ymm4 @@ -10709,26 +10857,26 @@ HIDDEN _sk_lab_to_xyz_hsw .globl _sk_lab_to_xyz_hsw FUNCTION(_sk_lab_to_xyz_hsw) _sk_lab_to_xyz_hsw: - .byte 196,98,125,24,5,191,231,2,0 // vbroadcastss 0x2e7bf(%rip),%ymm8 # 398c8 <_sk_srcover_bgra_8888_sse2_lowp+0x374> - .byte 196,98,125,24,13,30,231,2,0 // vbroadcastss 0x2e71e(%rip),%ymm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,98,125,24,21,177,231,2,0 // vbroadcastss 0x2e7b1(%rip),%ymm10 # 398cc <_sk_srcover_bgra_8888_sse2_lowp+0x378> + .byte 196,98,125,24,5,181,238,2,0 // vbroadcastss 0x2eeb5(%rip),%ymm8 # 3a2dc <_sk_srcover_bgra_8888_sse2_lowp+0x374> + .byte 196,98,125,24,13,20,238,2,0 // vbroadcastss 0x2ee14(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,98,125,24,21,167,238,2,0 // vbroadcastss 0x2eea7(%rip),%ymm10 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x378> .byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1 .byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2 - .byte 196,98,125,24,13,162,231,2,0 // vbroadcastss 0x2e7a2(%rip),%ymm9 # 398d0 <_sk_srcover_bgra_8888_sse2_lowp+0x37c> + .byte 196,98,125,24,13,152,238,2,0 // vbroadcastss 0x2ee98(%rip),%ymm9 # 3a2e4 <_sk_srcover_bgra_8888_sse2_lowp+0x37c> .byte 196,66,125,184,200 // vfmadd231ps %ymm8,%ymm0,%ymm9 - .byte 196,226,125,24,5,152,231,2,0 // vbroadcastss 0x2e798(%rip),%ymm0 # 398d4 <_sk_srcover_bgra_8888_sse2_lowp+0x380> + .byte 196,226,125,24,5,142,238,2,0 // vbroadcastss 0x2ee8e(%rip),%ymm0 # 3a2e8 <_sk_srcover_bgra_8888_sse2_lowp+0x380> .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0 - .byte 196,98,125,24,5,143,231,2,0 // vbroadcastss 0x2e78f(%rip),%ymm8 # 398d8 <_sk_srcover_bgra_8888_sse2_lowp+0x384> + .byte 196,98,125,24,5,133,238,2,0 // vbroadcastss 0x2ee85(%rip),%ymm8 # 3a2ec <_sk_srcover_bgra_8888_sse2_lowp+0x384> .byte 196,98,117,168,192 // vfmadd213ps %ymm0,%ymm1,%ymm8 - .byte 196,98,125,24,13,133,231,2,0 // vbroadcastss 0x2e785(%rip),%ymm9 # 398dc <_sk_srcover_bgra_8888_sse2_lowp+0x388> + .byte 196,98,125,24,13,123,238,2,0 // vbroadcastss 0x2ee7b(%rip),%ymm9 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x388> .byte 196,98,109,172,200 // vfnmadd213ps %ymm0,%ymm2,%ymm9 .byte 196,193,60,89,200 // vmulps %ymm8,%ymm8,%ymm1 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 - .byte 196,226,125,24,21,114,231,2,0 // vbroadcastss 0x2e772(%rip),%ymm2 # 398e0 <_sk_srcover_bgra_8888_sse2_lowp+0x38c> + .byte 196,226,125,24,21,104,238,2,0 // vbroadcastss 0x2ee68(%rip),%ymm2 # 3a2f4 <_sk_srcover_bgra_8888_sse2_lowp+0x38c> .byte 197,108,194,209,1 // vcmpltps %ymm1,%ymm2,%ymm10 - .byte 196,98,125,24,29,104,231,2,0 // vbroadcastss 0x2e768(%rip),%ymm11 # 398e4 <_sk_srcover_bgra_8888_sse2_lowp+0x390> + .byte 196,98,125,24,29,94,238,2,0 // vbroadcastss 0x2ee5e(%rip),%ymm11 # 3a2f8 <_sk_srcover_bgra_8888_sse2_lowp+0x390> .byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8 - .byte 196,98,125,24,37,94,231,2,0 // vbroadcastss 0x2e75e(%rip),%ymm12 # 398e8 <_sk_srcover_bgra_8888_sse2_lowp+0x394> + .byte 196,98,125,24,37,84,238,2,0 // vbroadcastss 0x2ee54(%rip),%ymm12 # 3a2fc <_sk_srcover_bgra_8888_sse2_lowp+0x394> .byte 196,65,60,89,196 // vmulps %ymm12,%ymm8,%ymm8 .byte 196,99,61,74,193,160 // vblendvps %ymm10,%ymm1,%ymm8,%ymm8 .byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1 @@ -10743,9 +10891,9 @@ _sk_lab_to_xyz_hsw: .byte 196,65,52,88,203 // vaddps %ymm11,%ymm9,%ymm9 .byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9 .byte 196,227,53,74,208,32 // vblendvps %ymm2,%ymm0,%ymm9,%ymm2 - .byte 196,226,125,24,5,19,231,2,0 // vbroadcastss 0x2e713(%rip),%ymm0 # 398ec <_sk_srcover_bgra_8888_sse2_lowp+0x398> + .byte 196,226,125,24,5,9,238,2,0 // vbroadcastss 0x2ee09(%rip),%ymm0 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0x398> .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 - .byte 196,98,125,24,5,10,231,2,0 // vbroadcastss 0x2e70a(%rip),%ymm8 # 398f0 <_sk_srcover_bgra_8888_sse2_lowp+0x39c> + .byte 196,98,125,24,5,0,238,2,0 // vbroadcastss 0x2ee00(%rip),%ymm8 # 3a304 <_sk_srcover_bgra_8888_sse2_lowp+0x39c> .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -10761,12 +10909,12 @@ _sk_load_a8_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,52 // jne b23b <_sk_load_a8_hsw+0x4c> + .byte 117,52 // jne b559 <_sk_load_a8_hsw+0x4c> .byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0 - .byte 197,249,219,5,187,238,2,0 // vpand 0x2eebb(%rip),%xmm0,%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,249,219,5,189,245,2,0 // vpand 0x2f5bd(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,13,85,230,2,0 // vbroadcastss 0x2e655(%rip),%ymm1 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,226,125,24,13,75,237,2,0 // vbroadcastss 0x2ed4b(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 @@ -10778,15 +10926,15 @@ _sk_load_a8_hsw: .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,190 // ja b20d <_sk_load_a8_hsw+0x1e> + .byte 119,190 // ja b52b <_sk_load_a8_hsw+0x1e> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # b2d4 <_sk_load_a8_hsw+0xe5> + .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b5f0 <_sk_load_a8_hsw+0xe3> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 235,159 // jmp b20d <_sk_load_a8_hsw+0x1e> + .byte 235,159 // jmp b52b <_sk_load_a8_hsw+0x1e> .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0 @@ -10794,7 +10942,7 @@ _sk_load_a8_hsw: .byte 197,249,110,200 // vmovd %eax,%xmm1 .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1 .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0 - .byte 233,119,255,255,255 // jmpq b20d <_sk_load_a8_hsw+0x1e> + .byte 233,119,255,255,255 // jmpq b52b <_sk_load_a8_hsw+0x1e> .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0 @@ -10805,24 +10953,22 @@ _sk_load_a8_hsw: .byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1 .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1 .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0 - .byte 233,60,255,255,255 // jmpq b20d <_sk_load_a8_hsw+0x1e> - .byte 15,31,0 // nopl (%rax) - .byte 143 // (bad) + .byte 233,60,255,255,255 // jmpq b52b <_sk_load_a8_hsw+0x1e> + .byte 144 // nop + .byte 145 // xchg %eax,%ecx .byte 255 // (bad) .byte 255 // (bad) - .byte 255,169,255,255,255,154 // ljmp *-0x65000001(%rcx) - .byte 255 // (bad) + .byte 255,171,255,255,255,156 // ljmp *-0x63000001(%rbx) .byte 255 // (bad) - .byte 255,231 // jmpq *%rdi .byte 255 // (bad) .byte 255 // (bad) + .byte 233,255,255,255,222 // jmpq ffffffffdf00b600 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd1698> .byte 255 // (bad) - .byte 220,255 // fdivr %st,%st(7) .byte 255 // (bad) - .byte 255,209 // callq *%rcx + .byte 255,211 // callq *%rbx .byte 255 // (bad) .byte 255 // (bad) - .byte 255,194 // inc %edx + .byte 255,196 // inc %esp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -10838,12 +10984,12 @@ _sk_load_a8_dst_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,52 // jne b33c <_sk_load_a8_dst_hsw+0x4c> + .byte 117,52 // jne b658 <_sk_load_a8_dst_hsw+0x4c> .byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4 - .byte 197,217,219,37,186,237,2,0 // vpand 0x2edba(%rip),%xmm4,%xmm4 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,217,219,37,190,244,2,0 // vpand 0x2f4be(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 196,226,125,24,45,84,229,2,0 // vbroadcastss 0x2e554(%rip),%ymm5 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,226,125,24,45,76,236,2,0 // vbroadcastss 0x2ec4c(%rip),%ymm5 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4 @@ -10855,15 +11001,15 @@ _sk_load_a8_dst_hsw: .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,190 // ja b30e <_sk_load_a8_dst_hsw+0x1e> + .byte 119,190 // ja b62a <_sk_load_a8_dst_hsw+0x1e> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # b3d4 <_sk_load_a8_dst_hsw+0xe4> + .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # b6f0 <_sk_load_a8_dst_hsw+0xe4> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 - .byte 235,159 // jmp b30e <_sk_load_a8_dst_hsw+0x1e> + .byte 235,159 // jmp b62a <_sk_load_a8_dst_hsw+0x1e> .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4 @@ -10871,7 +11017,7 @@ _sk_load_a8_dst_hsw: .byte 197,249,110,232 // vmovd %eax,%xmm5 .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5 .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4 - .byte 233,119,255,255,255 // jmpq b30e <_sk_load_a8_dst_hsw+0x1e> + .byte 233,119,255,255,255 // jmpq b62a <_sk_load_a8_dst_hsw+0x1e> .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4 @@ -10882,7 +11028,7 @@ _sk_load_a8_dst_hsw: .byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5 .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5 .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4 - .byte 233,60,255,255,255 // jmpq b30e <_sk_load_a8_dst_hsw+0x1e> + .byte 233,60,255,255,255 // jmpq b62a <_sk_load_a8_dst_hsw+0x1e> .byte 102,144 // xchg %ax,%ax .byte 144 // nop .byte 255 // (bad) @@ -10891,7 +11037,7 @@ _sk_load_a8_dst_hsw: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 232,255,255,255,221 // callq ffffffffde00b3e4 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd1e90> + .byte 232,255,255,255,221 // callq ffffffffde00b700 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd1798> .byte 255 // (bad) .byte 255 // (bad) .byte 255,210 // callq *%rdx @@ -10958,7 +11104,7 @@ _sk_gather_a8_hsw: .byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0 .byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,13,155,227,2,0 // vbroadcastss 0x2e39b(%rip),%ymm1 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,226,125,24,13,147,234,2,0 // vbroadcastss 0x2ea93(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 @@ -10980,14 +11126,18 @@ _sk_store_a8_hsw: .byte 77,15,175,193 // imul %r9,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 - .byte 196,98,125,24,5,24,227,2,0 // vbroadcastss 0x2e318(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,98,125,24,13,219,233,2,0 // vbroadcastss 0x2e9db(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8 + .byte 196,98,125,24,13,249,233,2,0 // vbroadcastss 0x2e9f9(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8 .byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne b540 <_sk_store_a8_hsw+0x44> + .byte 117,10 // jne b873 <_sk_store_a8_hsw+0x5b> .byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -10995,42 +11145,41 @@ _sk_store_a8_hsw: .byte 65,128,225,7 // and $0x7,%r9b .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,236 // ja b53c <_sk_store_a8_hsw+0x40> + .byte 119,236 // ja b86f <_sk_store_a8_hsw+0x57> .byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8 .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,88,0,0,0 // lea 0x58(%rip),%r10 # b5b8 <_sk_store_a8_hsw+0xbc> + .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # b8e8 <_sk_store_a8_hsw+0xd0> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1) - .byte 235,202 // jmp b53c <_sk_store_a8_hsw+0x40> + .byte 235,202 // jmp b86f <_sk_store_a8_hsw+0x57> .byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1) - .byte 196,98,57,0,5,93,235,2,0 // vpshufb 0x2eb5d(%rip),%xmm8,%xmm8 # 3a0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xb8c> + .byte 196,98,57,0,5,74,242,2,0 // vpshufb 0x2f24a(%rip),%xmm8,%xmm8 # 3ab00 <_sk_srcover_bgra_8888_sse2_lowp+0xb98> .byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1) - .byte 235,176 // jmp b53c <_sk_store_a8_hsw+0x40> + .byte 235,176 // jmp b86f <_sk_store_a8_hsw+0x57> .byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1) .byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1) .byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1) - .byte 196,98,57,0,5,67,235,2,0 // vpshufb 0x2eb43(%rip),%xmm8,%xmm8 # 3a0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xb9c> + .byte 196,98,57,0,5,48,242,2,0 // vpshufb 0x2f230(%rip),%xmm8,%xmm8 # 3ab10 <_sk_srcover_bgra_8888_sse2_lowp+0xba8> .byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1) - .byte 235,135 // jmp b53c <_sk_store_a8_hsw+0x40> - .byte 15,31,0 // nopl (%rax) - .byte 177,255 // mov $0xff,%cl + .byte 235,135 // jmp b86f <_sk_store_a8_hsw+0x57> + .byte 180,255 // mov $0xff,%ah .byte 255 // (bad) - .byte 255,194 // inc %edx + .byte 255,197 // inc %ebp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 186,255,255,255,236 // mov $0xecffffff,%edx + .byte 189,255,255,255,239 // mov $0xefffffff,%ebp .byte 255 // (bad) .byte 255 // (bad) - .byte 255,228 // jmpq *%rsp + .byte 255,231 // jmpq *%rdi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 220,255 // fdivr %st,%st(7) + .byte 223,255 // (bad) .byte 255 // (bad) - .byte 255,212 // callq *%rsp + .byte 255,215 // callq *%rdi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -11046,15 +11195,15 @@ _sk_load_g8_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,57 // jne b625 <_sk_load_g8_hsw+0x51> + .byte 117,57 // jne b955 <_sk_load_g8_hsw+0x51> .byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0 - .byte 197,249,219,5,214,234,2,0 // vpand 0x2ead6(%rip),%xmm0,%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,249,219,5,198,241,2,0 // vpand 0x2f1c6(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,13,112,226,2,0 // vbroadcastss 0x2e270(%rip),%ymm1 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,226,125,24,13,84,233,2,0 // vbroadcastss 0x2e954(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,233,225,2,0 // vbroadcastss 0x2e1e9(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,205,232,2,0 // vbroadcastss 0x2e8cd(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 255,224 // jmpq *%rax @@ -11063,15 +11212,15 @@ _sk_load_g8_hsw: .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,185 // ja b5f2 <_sk_load_g8_hsw+0x1e> + .byte 119,185 // ja b922 <_sk_load_g8_hsw+0x1e> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b6bc <_sk_load_g8_hsw+0xe8> + .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b9ec <_sk_load_g8_hsw+0xe8> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 235,154 // jmp b5f2 <_sk_load_g8_hsw+0x1e> + .byte 235,154 // jmp b922 <_sk_load_g8_hsw+0x1e> .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0 @@ -11079,7 +11228,7 @@ _sk_load_g8_hsw: .byte 197,249,110,200 // vmovd %eax,%xmm1 .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1 .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0 - .byte 233,114,255,255,255 // jmpq b5f2 <_sk_load_g8_hsw+0x1e> + .byte 233,114,255,255,255 // jmpq b922 <_sk_load_g8_hsw+0x1e> .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0 @@ -11090,7 +11239,7 @@ _sk_load_g8_hsw: .byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1 .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1 .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0 - .byte 233,55,255,255,255 // jmpq b5f2 <_sk_load_g8_hsw+0x1e> + .byte 233,55,255,255,255 // jmpq b922 <_sk_load_g8_hsw+0x1e> .byte 144 // nop .byte 145 // xchg %eax,%ecx .byte 255 // (bad) @@ -11099,7 +11248,7 @@ _sk_load_g8_hsw: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 233,255,255,255,222 // jmpq ffffffffdf00b6cc <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd2178> + .byte 233,255,255,255,222 // jmpq ffffffffdf00b9fc <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd1a94> .byte 255 // (bad) .byte 255 // (bad) .byte 255,211 // callq *%rbx @@ -11121,15 +11270,15 @@ _sk_load_g8_dst_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,57 // jne b729 <_sk_load_g8_dst_hsw+0x51> + .byte 117,57 // jne ba59 <_sk_load_g8_dst_hsw+0x51> .byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4 - .byte 197,217,219,37,210,233,2,0 // vpand 0x2e9d2(%rip),%xmm4,%xmm4 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,217,219,37,194,240,2,0 // vpand 0x2f0c2(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 196,226,125,24,45,108,225,2,0 // vbroadcastss 0x2e16c(%rip),%ymm5 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,226,125,24,45,80,232,2,0 // vbroadcastss 0x2e850(%rip),%ymm5 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,61,229,224,2,0 // vbroadcastss 0x2e0e5(%rip),%ymm7 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,61,201,231,2,0 // vbroadcastss 0x2e7c9(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,40,236 // vmovaps %ymm4,%ymm5 .byte 197,252,40,244 // vmovaps %ymm4,%ymm6 .byte 255,224 // jmpq *%rax @@ -11138,15 +11287,15 @@ _sk_load_g8_dst_hsw: .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,185 // ja b6f6 <_sk_load_g8_dst_hsw+0x1e> + .byte 119,185 // ja ba26 <_sk_load_g8_dst_hsw+0x1e> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b7c0 <_sk_load_g8_dst_hsw+0xe8> + .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # baf0 <_sk_load_g8_dst_hsw+0xe8> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 - .byte 235,154 // jmp b6f6 <_sk_load_g8_dst_hsw+0x1e> + .byte 235,154 // jmp ba26 <_sk_load_g8_dst_hsw+0x1e> .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4 @@ -11154,7 +11303,7 @@ _sk_load_g8_dst_hsw: .byte 197,249,110,232 // vmovd %eax,%xmm5 .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5 .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4 - .byte 233,114,255,255,255 // jmpq b6f6 <_sk_load_g8_dst_hsw+0x1e> + .byte 233,114,255,255,255 // jmpq ba26 <_sk_load_g8_dst_hsw+0x1e> .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4 @@ -11165,7 +11314,7 @@ _sk_load_g8_dst_hsw: .byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5 .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5 .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4 - .byte 233,55,255,255,255 // jmpq b6f6 <_sk_load_g8_dst_hsw+0x1e> + .byte 233,55,255,255,255 // jmpq ba26 <_sk_load_g8_dst_hsw+0x1e> .byte 144 // nop .byte 145 // xchg %eax,%ecx .byte 255 // (bad) @@ -11174,7 +11323,7 @@ _sk_load_g8_dst_hsw: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 233,255,255,255,222 // jmpq ffffffffdf00b7d0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd227c> + .byte 233,255,255,255,222 // jmpq ffffffffdf00bb00 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefd1b98> .byte 255 // (bad) .byte 255 // (bad) .byte 255,211 // callq *%rbx @@ -11241,10 +11390,10 @@ _sk_gather_g8_hsw: .byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0 .byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,13,175,223,2,0 // vbroadcastss 0x2dfaf(%rip),%ymm1 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,226,125,24,13,147,230,2,0 // vbroadcastss 0x2e693(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,40,223,2,0 // vbroadcastss 0x2df28(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,12,230,2,0 // vbroadcastss 0x2e60c(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 91 // pop %rbx @@ -11265,53 +11414,53 @@ _sk_load_565_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,114 // jne b97a <_sk_load_565_hsw+0x8d> + .byte 117,114 // jne bcaa <_sk_load_565_hsw+0x8d> .byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0 .byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2 - .byte 196,226,125,88,5,100,223,2,0 // vpbroadcastd 0x2df64(%rip),%ymm0 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> + .byte 196,226,125,88,5,72,230,2,0 // vpbroadcastd 0x2e648(%rip),%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> .byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,13,87,223,2,0 // vbroadcastss 0x2df57(%rip),%ymm1 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330> + .byte 196,226,125,24,13,59,230,2,0 // vbroadcastss 0x2e63b(%rip),%ymm1 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 - .byte 196,226,125,88,13,78,223,2,0 // vpbroadcastd 0x2df4e(%rip),%ymm1 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334> + .byte 196,226,125,88,13,50,230,2,0 // vpbroadcastd 0x2e632(%rip),%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334> .byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 - .byte 196,226,125,24,29,65,223,2,0 // vbroadcastss 0x2df41(%rip),%ymm3 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338> + .byte 196,226,125,24,29,37,230,2,0 // vbroadcastss 0x2e625(%rip),%ymm3 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338> .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1 - .byte 196,226,125,88,29,56,223,2,0 // vpbroadcastd 0x2df38(%rip),%ymm3 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> + .byte 196,226,125,88,29,28,230,2,0 // vpbroadcastd 0x2e61c(%rip),%ymm3 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> .byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 - .byte 196,226,125,24,29,43,223,2,0 // vbroadcastss 0x2df2b(%rip),%ymm3 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340> + .byte 196,226,125,24,29,15,230,2,0 // vbroadcastss 0x2e60f(%rip),%ymm3 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340> .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,140,222,2,0 // vbroadcastss 0x2de8c(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,112,229,2,0 // vbroadcastss 0x2e570(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,7 // and $0x7,%r9b .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,128 // ja b90e <_sk_load_565_hsw+0x21> + .byte 119,128 // ja bc3e <_sk_load_565_hsw+0x21> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # b9fc <_sk_load_565_hsw+0x10f> + .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # bd2c <_sk_load_565_hsw+0x10f> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 233,94,255,255,255 // jmpq b90e <_sk_load_565_hsw+0x21> + .byte 233,94,255,255,255 // jmpq bc3e <_sk_load_565_hsw+0x21> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0 .byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1 .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0 - .byte 233,65,255,255,255 // jmpq b90e <_sk_load_565_hsw+0x21> + .byte 233,65,255,255,255 // jmpq bc3e <_sk_load_565_hsw+0x21> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0 .byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0 .byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0 .byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1 .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0 - .byte 233,20,255,255,255 // jmpq b90e <_sk_load_565_hsw+0x21> + .byte 233,20,255,255,255 // jmpq bc3e <_sk_load_565_hsw+0x21> .byte 102,144 // xchg %ax,%ax .byte 166 // cmpsb %es:(%rdi),%ds:(%rsi) .byte 255 // (bad) @@ -11344,53 +11493,53 @@ _sk_load_565_dst_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,114 // jne baa5 <_sk_load_565_dst_hsw+0x8d> + .byte 117,114 // jne bdd5 <_sk_load_565_dst_hsw+0x8d> .byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4 .byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6 - .byte 196,226,125,88,37,57,222,2,0 // vpbroadcastd 0x2de39(%rip),%ymm4 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> + .byte 196,226,125,88,37,29,229,2,0 // vpbroadcastd 0x2e51d(%rip),%ymm4 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> .byte 197,205,219,228 // vpand %ymm4,%ymm6,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 196,226,125,24,45,44,222,2,0 // vbroadcastss 0x2de2c(%rip),%ymm5 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330> + .byte 196,226,125,24,45,16,229,2,0 // vbroadcastss 0x2e510(%rip),%ymm5 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330> .byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4 - .byte 196,226,125,88,45,35,222,2,0 // vpbroadcastd 0x2de23(%rip),%ymm5 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334> + .byte 196,226,125,88,45,7,229,2,0 // vpbroadcastd 0x2e507(%rip),%ymm5 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334> .byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5 .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 - .byte 196,226,125,24,61,22,222,2,0 // vbroadcastss 0x2de16(%rip),%ymm7 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338> + .byte 196,226,125,24,61,250,228,2,0 // vbroadcastss 0x2e4fa(%rip),%ymm7 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338> .byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5 - .byte 196,226,125,88,61,13,222,2,0 // vpbroadcastd 0x2de0d(%rip),%ymm7 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> + .byte 196,226,125,88,61,241,228,2,0 // vpbroadcastd 0x2e4f1(%rip),%ymm7 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> .byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6 .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6 - .byte 196,226,125,24,61,0,222,2,0 // vbroadcastss 0x2de00(%rip),%ymm7 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340> + .byte 196,226,125,24,61,228,228,2,0 // vbroadcastss 0x2e4e4(%rip),%ymm7 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340> .byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,61,97,221,2,0 // vbroadcastss 0x2dd61(%rip),%ymm7 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,61,69,228,2,0 // vbroadcastss 0x2e445(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,7 // and $0x7,%r9b .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,128 // ja ba39 <_sk_load_565_dst_hsw+0x21> + .byte 119,128 // ja bd69 <_sk_load_565_dst_hsw+0x21> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # bb28 <_sk_load_565_dst_hsw+0x110> + .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # be58 <_sk_load_565_dst_hsw+0x110> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 - .byte 233,94,255,255,255 // jmpq ba39 <_sk_load_565_dst_hsw+0x21> + .byte 233,94,255,255,255 // jmpq bd69 <_sk_load_565_dst_hsw+0x21> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4 .byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5 .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4 - .byte 233,65,255,255,255 // jmpq ba39 <_sk_load_565_dst_hsw+0x21> + .byte 233,65,255,255,255 // jmpq bd69 <_sk_load_565_dst_hsw+0x21> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4 .byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4 .byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4 .byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5 .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4 - .byte 233,20,255,255,255 // jmpq ba39 <_sk_load_565_dst_hsw+0x21> + .byte 233,20,255,255,255 // jmpq bd69 <_sk_load_565_dst_hsw+0x21> .byte 15,31,0 // nopl (%rax) .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 255 // (bad) @@ -11469,23 +11618,23 @@ _sk_gather_565_hsw: .byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax .byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0 .byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2 - .byte 196,226,125,88,5,84,220,2,0 // vpbroadcastd 0x2dc54(%rip),%ymm0 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> + .byte 196,226,125,88,5,56,227,2,0 // vpbroadcastd 0x2e338(%rip),%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> .byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,13,71,220,2,0 // vbroadcastss 0x2dc47(%rip),%ymm1 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330> + .byte 196,226,125,24,13,43,227,2,0 // vbroadcastss 0x2e32b(%rip),%ymm1 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 - .byte 196,226,125,88,13,62,220,2,0 // vpbroadcastd 0x2dc3e(%rip),%ymm1 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334> + .byte 196,226,125,88,13,34,227,2,0 // vpbroadcastd 0x2e322(%rip),%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334> .byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 - .byte 196,226,125,24,29,49,220,2,0 // vbroadcastss 0x2dc31(%rip),%ymm3 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338> + .byte 196,226,125,24,29,21,227,2,0 // vbroadcastss 0x2e315(%rip),%ymm3 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338> .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1 - .byte 196,226,125,88,29,40,220,2,0 // vpbroadcastd 0x2dc28(%rip),%ymm3 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> + .byte 196,226,125,88,29,12,227,2,0 // vpbroadcastd 0x2e30c(%rip),%ymm3 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> .byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 - .byte 196,226,125,24,29,27,220,2,0 // vbroadcastss 0x2dc1b(%rip),%ymm3 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340> + .byte 196,226,125,24,29,255,226,2,0 // vbroadcastss 0x2e2ff(%rip),%ymm3 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340> .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,124,219,2,0 // vbroadcastss 0x2db7c(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,96,226,2,0 // vbroadcastss 0x2e260(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,94 // pop %r14 @@ -11503,22 +11652,30 @@ _sk_store_565_hsw: .byte 77,1,192 // add %r8,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 - .byte 196,98,125,24,5,68,220,2,0 // vbroadcastss 0x2dc44(%rip),%ymm8 # 398f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0> - .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9 + .byte 196,98,125,24,21,47,226,2,0 // vbroadcastss 0x2e22f(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9 + .byte 196,98,125,24,29,17,227,2,0 // vbroadcastss 0x2e311(%rip),%ymm11 # 3a308 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0> + .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 .byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9 - .byte 196,98,125,24,21,47,220,2,0 // vbroadcastss 0x2dc2f(%rip),%ymm10 # 398f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4> - .byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,45,114,242,5 // vpslld $0x5,%ymm10,%ymm10 - .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9 - .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8 + .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,98,125,24,45,243,226,2,0 // vbroadcastss 0x2e2f3(%rip),%ymm13 # 3a30c <_sk_srcover_bgra_8888_sse2_lowp+0x3a4> + .byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,29,114,244,5 // vpslld $0x5,%ymm12,%ymm12 + .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9 + .byte 197,60,95,194 // vmaxps %ymm2,%ymm8,%ymm8 + .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8 + .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne bd07 <_sk_store_565_hsw+0x76> + .byte 117,10 // jne c060 <_sk_store_565_hsw+0x9f> .byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -11526,42 +11683,45 @@ _sk_store_565_hsw: .byte 65,128,225,7 // and $0x7,%r9b .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,236 // ja bd03 <_sk_store_565_hsw+0x72> + .byte 119,236 // ja c05c <_sk_store_565_hsw+0x9b> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # bd64 <_sk_store_565_hsw+0xd3> + .byte 76,141,21,69,0,0,0 // lea 0x45(%rip),%r10 # c0c0 <_sk_store_565_hsw+0xff> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2) - .byte 235,207 // jmp bd03 <_sk_store_565_hsw+0x72> + .byte 235,207 // jmp c05c <_sk_store_565_hsw+0x9b> .byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2) .byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2) - .byte 235,191 // jmp bd03 <_sk_store_565_hsw+0x72> + .byte 235,191 // jmp c05c <_sk_store_565_hsw+0x9b> .byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2) .byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2) .byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2) .byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2) - .byte 235,159 // jmp bd03 <_sk_store_565_hsw+0x72> - .byte 199 // (bad) + .byte 235,159 // jmp c05c <_sk_store_565_hsw+0x9b> + .byte 15,31,0 // nopl (%rax) + .byte 196 // (bad) .byte 255 // (bad) .byte 255 // (bad) + .byte 255,213 // callq *%rbp .byte 255 // (bad) - .byte 216,255 // fdivr %st(7),%st .byte 255 // (bad) - .byte 255,208 // callq *%rax + .byte 255,205 // dec %ebp .byte 255 // (bad) .byte 255 // (bad) + .byte 255,245 // push %rbp .byte 255 // (bad) - .byte 248 // clc .byte 255 // (bad) .byte 255 // (bad) - .byte 255,240 // push %rax + .byte 237 // in (%dx),%eax .byte 255 // (bad) .byte 255 // (bad) + .byte 255,229 // jmpq *%rbp .byte 255 // (bad) - .byte 232,255,255,255,224 // callq ffffffffe100bd7c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fd2828> .byte 255 // (bad) .byte 255 // (bad) + .byte 221,255 // (bad) + .byte 255 // (bad) .byte 255 // .byte 0xff HIDDEN _sk_load_4444_hsw @@ -11576,28 +11736,28 @@ _sk_load_4444_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,138,0,0,0 // jne be29 <_sk_load_4444_hsw+0xa9> + .byte 15,133,138,0,0,0 // jne c185 <_sk_load_4444_hsw+0xa9> .byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0 .byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3 - .byte 196,226,125,88,5,73,219,2,0 // vpbroadcastd 0x2db49(%rip),%ymm0 # 398fc <_sk_srcover_bgra_8888_sse2_lowp+0x3a8> + .byte 196,226,125,88,5,1,226,2,0 // vpbroadcastd 0x2e201(%rip),%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8> .byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,13,60,219,2,0 // vbroadcastss 0x2db3c(%rip),%ymm1 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac> + .byte 196,226,125,24,13,244,225,2,0 // vbroadcastss 0x2e1f4(%rip),%ymm1 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 - .byte 196,226,125,88,13,51,219,2,0 // vpbroadcastd 0x2db33(%rip),%ymm1 # 39904 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0> + .byte 196,226,125,88,13,235,225,2,0 // vpbroadcastd 0x2e1eb(%rip),%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0> .byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 - .byte 196,226,125,24,21,38,219,2,0 // vbroadcastss 0x2db26(%rip),%ymm2 # 39908 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4> + .byte 196,226,125,24,21,222,225,2,0 // vbroadcastss 0x2e1de(%rip),%ymm2 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4> .byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1 - .byte 196,226,125,88,21,29,219,2,0 // vpbroadcastd 0x2db1d(%rip),%ymm2 # 3990c <_sk_srcover_bgra_8888_sse2_lowp+0x3b8> + .byte 196,226,125,88,21,213,225,2,0 // vpbroadcastd 0x2e1d5(%rip),%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8> .byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 - .byte 196,98,125,24,5,16,219,2,0 // vbroadcastss 0x2db10(%rip),%ymm8 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc> + .byte 196,98,125,24,5,200,225,2,0 // vbroadcastss 0x2e1c8(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc> .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 - .byte 196,98,125,88,5,6,219,2,0 // vpbroadcastd 0x2db06(%rip),%ymm8 # 39914 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0> + .byte 196,98,125,88,5,190,225,2,0 // vpbroadcastd 0x2e1be(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0> .byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 - .byte 196,98,125,24,5,248,218,2,0 // vbroadcastss 0x2daf8(%rip),%ymm8 # 39918 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4> + .byte 196,98,125,24,5,176,225,2,0 // vbroadcastss 0x2e1b0(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4> .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -11606,27 +11766,27 @@ _sk_load_4444_hsw: .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,100,255,255,255 // ja bda5 <_sk_load_4444_hsw+0x25> + .byte 15,135,100,255,255,255 // ja c101 <_sk_load_4444_hsw+0x25> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # beb0 <_sk_load_4444_hsw+0x130> + .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # c20c <_sk_load_4444_hsw+0x130> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 233,66,255,255,255 // jmpq bda5 <_sk_load_4444_hsw+0x25> + .byte 233,66,255,255,255 // jmpq c101 <_sk_load_4444_hsw+0x25> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0 .byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1 .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0 - .byte 233,37,255,255,255 // jmpq bda5 <_sk_load_4444_hsw+0x25> + .byte 233,37,255,255,255 // jmpq c101 <_sk_load_4444_hsw+0x25> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0 .byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0 .byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0 .byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1 .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0 - .byte 233,248,254,255,255 // jmpq bda5 <_sk_load_4444_hsw+0x25> + .byte 233,248,254,255,255 // jmpq c101 <_sk_load_4444_hsw+0x25> .byte 15,31,0 // nopl (%rax) .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 255 // (bad) @@ -11662,28 +11822,28 @@ _sk_load_4444_dst_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,138,0,0,0 // jne bf75 <_sk_load_4444_dst_hsw+0xa9> + .byte 15,133,138,0,0,0 // jne c2d1 <_sk_load_4444_dst_hsw+0xa9> .byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4 .byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7 - .byte 196,226,125,88,37,253,217,2,0 // vpbroadcastd 0x2d9fd(%rip),%ymm4 # 398fc <_sk_srcover_bgra_8888_sse2_lowp+0x3a8> + .byte 196,226,125,88,37,181,224,2,0 // vpbroadcastd 0x2e0b5(%rip),%ymm4 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8> .byte 197,197,219,228 // vpand %ymm4,%ymm7,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 196,226,125,24,45,240,217,2,0 // vbroadcastss 0x2d9f0(%rip),%ymm5 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac> + .byte 196,226,125,24,45,168,224,2,0 // vbroadcastss 0x2e0a8(%rip),%ymm5 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac> .byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4 - .byte 196,226,125,88,45,231,217,2,0 // vpbroadcastd 0x2d9e7(%rip),%ymm5 # 39904 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0> + .byte 196,226,125,88,45,159,224,2,0 // vpbroadcastd 0x2e09f(%rip),%ymm5 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0> .byte 197,197,219,237 // vpand %ymm5,%ymm7,%ymm5 .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 - .byte 196,226,125,24,53,218,217,2,0 // vbroadcastss 0x2d9da(%rip),%ymm6 # 39908 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4> + .byte 196,226,125,24,53,146,224,2,0 // vbroadcastss 0x2e092(%rip),%ymm6 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4> .byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5 - .byte 196,226,125,88,53,209,217,2,0 // vpbroadcastd 0x2d9d1(%rip),%ymm6 # 3990c <_sk_srcover_bgra_8888_sse2_lowp+0x3b8> + .byte 196,226,125,88,53,137,224,2,0 // vpbroadcastd 0x2e089(%rip),%ymm6 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8> .byte 197,197,219,246 // vpand %ymm6,%ymm7,%ymm6 .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6 - .byte 196,98,125,24,5,196,217,2,0 // vbroadcastss 0x2d9c4(%rip),%ymm8 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc> + .byte 196,98,125,24,5,124,224,2,0 // vbroadcastss 0x2e07c(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc> .byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6 - .byte 196,98,125,88,5,186,217,2,0 // vpbroadcastd 0x2d9ba(%rip),%ymm8 # 39914 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0> + .byte 196,98,125,88,5,114,224,2,0 // vpbroadcastd 0x2e072(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0> .byte 196,193,69,219,248 // vpand %ymm8,%ymm7,%ymm7 .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7 - .byte 196,98,125,24,5,172,217,2,0 // vbroadcastss 0x2d9ac(%rip),%ymm8 # 39918 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4> + .byte 196,98,125,24,5,100,224,2,0 // vbroadcastss 0x2e064(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4> .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -11692,27 +11852,27 @@ _sk_load_4444_dst_hsw: .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,100,255,255,255 // ja bef1 <_sk_load_4444_dst_hsw+0x25> + .byte 15,135,100,255,255,255 // ja c24d <_sk_load_4444_dst_hsw+0x25> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # bffc <_sk_load_4444_dst_hsw+0x130> + .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # c358 <_sk_load_4444_dst_hsw+0x130> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 - .byte 233,66,255,255,255 // jmpq bef1 <_sk_load_4444_dst_hsw+0x25> + .byte 233,66,255,255,255 // jmpq c24d <_sk_load_4444_dst_hsw+0x25> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4 .byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5 .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4 - .byte 233,37,255,255,255 // jmpq bef1 <_sk_load_4444_dst_hsw+0x25> + .byte 233,37,255,255,255 // jmpq c24d <_sk_load_4444_dst_hsw+0x25> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4 .byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4 .byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4 .byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5 .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4 - .byte 233,248,254,255,255 // jmpq bef1 <_sk_load_4444_dst_hsw+0x25> + .byte 233,248,254,255,255 // jmpq c24d <_sk_load_4444_dst_hsw+0x25> .byte 15,31,0 // nopl (%rax) .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 255 // (bad) @@ -11791,25 +11951,25 @@ _sk_gather_4444_hsw: .byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax .byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0 .byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3 - .byte 196,226,125,88,5,252,215,2,0 // vpbroadcastd 0x2d7fc(%rip),%ymm0 # 398fc <_sk_srcover_bgra_8888_sse2_lowp+0x3a8> + .byte 196,226,125,88,5,180,222,2,0 // vpbroadcastd 0x2deb4(%rip),%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8> .byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,13,239,215,2,0 // vbroadcastss 0x2d7ef(%rip),%ymm1 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac> + .byte 196,226,125,24,13,167,222,2,0 // vbroadcastss 0x2dea7(%rip),%ymm1 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 - .byte 196,226,125,88,13,230,215,2,0 // vpbroadcastd 0x2d7e6(%rip),%ymm1 # 39904 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0> + .byte 196,226,125,88,13,158,222,2,0 // vpbroadcastd 0x2de9e(%rip),%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0> .byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 - .byte 196,226,125,24,21,217,215,2,0 // vbroadcastss 0x2d7d9(%rip),%ymm2 # 39908 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4> + .byte 196,226,125,24,21,145,222,2,0 // vbroadcastss 0x2de91(%rip),%ymm2 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4> .byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1 - .byte 196,226,125,88,21,208,215,2,0 // vpbroadcastd 0x2d7d0(%rip),%ymm2 # 3990c <_sk_srcover_bgra_8888_sse2_lowp+0x3b8> + .byte 196,226,125,88,21,136,222,2,0 // vpbroadcastd 0x2de88(%rip),%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8> .byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 - .byte 196,98,125,24,5,195,215,2,0 // vbroadcastss 0x2d7c3(%rip),%ymm8 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc> + .byte 196,98,125,24,5,123,222,2,0 // vbroadcastss 0x2de7b(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc> .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 - .byte 196,98,125,88,5,185,215,2,0 // vpbroadcastd 0x2d7b9(%rip),%ymm8 # 39914 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0> + .byte 196,98,125,88,5,113,222,2,0 // vpbroadcastd 0x2de71(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0> .byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 - .byte 196,98,125,24,5,171,215,2,0 // vbroadcastss 0x2d7ab(%rip),%ymm8 # 39918 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4> + .byte 196,98,125,24,5,99,222,2,0 // vbroadcastss 0x2de63(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4> .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx @@ -11829,25 +11989,35 @@ _sk_store_4444_hsw: .byte 77,1,192 // add %r8,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 - .byte 196,98,125,24,5,128,215,2,0 // vbroadcastss 0x2d780(%rip),%ymm8 # 3991c <_sk_srcover_bgra_8888_sse2_lowp+0x3c8> - .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9 + .byte 196,98,125,24,21,23,221,2,0 // vbroadcastss 0x2dd17(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9 + .byte 196,98,125,24,29,33,222,2,0 // vbroadcastss 0x2de21(%rip),%ymm11 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8> + .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 .byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9 - .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10 - .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9 - .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10 - .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 + .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12 + .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9 + .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,29,114,244,4 // vpslld $0x4,%ymm12,%ymm12 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8 + .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 - .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8 + .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne c1ff <_sk_store_4444_hsw+0x82> + .byte 117,10 // jne c58d <_sk_store_4444_hsw+0xb4> .byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -11855,41 +12025,42 @@ _sk_store_4444_hsw: .byte 65,128,225,7 // and $0x7,%r9b .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,236 // ja c1fb <_sk_store_4444_hsw+0x7e> + .byte 119,236 // ja c589 <_sk_store_4444_hsw+0xb0> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # c25c <_sk_store_4444_hsw+0xdf> + .byte 76,141,21,68,0,0,0 // lea 0x44(%rip),%r10 # c5ec <_sk_store_4444_hsw+0x113> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2) - .byte 235,207 // jmp c1fb <_sk_store_4444_hsw+0x7e> + .byte 235,207 // jmp c589 <_sk_store_4444_hsw+0xb0> .byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2) .byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2) - .byte 235,191 // jmp c1fb <_sk_store_4444_hsw+0x7e> + .byte 235,191 // jmp c589 <_sk_store_4444_hsw+0xb0> .byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2) .byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2) .byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2) .byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2) - .byte 235,159 // jmp c1fb <_sk_store_4444_hsw+0x7e> - .byte 199 // (bad) - .byte 255 // (bad) + .byte 235,159 // jmp c589 <_sk_store_4444_hsw+0xb0> + .byte 102,144 // xchg %ax,%ax + .byte 197,255,255 // (bad) + .byte 255,214 // callq *%rsi .byte 255 // (bad) .byte 255 // (bad) - .byte 216,255 // fdivr %st(7),%st + .byte 255,206 // dec %esi .byte 255 // (bad) - .byte 255,208 // callq *%rax .byte 255 // (bad) + .byte 255,246 // push %rsi .byte 255 // (bad) .byte 255 // (bad) - .byte 248 // clc .byte 255 // (bad) + .byte 238 // out %al,(%dx) .byte 255 // (bad) - .byte 255,240 // push %rax .byte 255 // (bad) + .byte 255,230 // jmpq *%rsi .byte 255 // (bad) .byte 255 // (bad) - .byte 232,255,255,255,224 // callq ffffffffe100c274 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fd2d20> .byte 255 // (bad) + .byte 222,255 // fdivrp %st,%st(7) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -11905,16 +12076,16 @@ _sk_load_8888_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,86 // jne c2ea <_sk_load_8888_hsw+0x72> + .byte 117,86 // jne c67a <_sk_load_8888_hsw+0x72> .byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3 - .byte 197,229,219,5,94,216,2,0 // vpand 0x2d85e(%rip),%ymm3,%ymm0 # 39b00 <_sk_srcover_bgra_8888_sse2_lowp+0x5ac> + .byte 197,229,219,5,238,222,2,0 // vpand 0x2deee(%rip),%ymm3,%ymm0 # 3a520 <_sk_srcover_bgra_8888_sse2_lowp+0x5b8> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,98,125,24,5,205,213,2,0 // vbroadcastss 0x2d5cd(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,5,81,220,2,0 // vbroadcastss 0x2dc51(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 - .byte 196,226,101,0,13,99,216,2,0 // vpshufb 0x2d863(%rip),%ymm3,%ymm1 # 39b20 <_sk_srcover_bgra_8888_sse2_lowp+0x5cc> + .byte 196,226,101,0,13,243,222,2,0 // vpshufb 0x2def3(%rip),%ymm3,%ymm1 # 3a540 <_sk_srcover_bgra_8888_sse2_lowp+0x5d8> .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 - .byte 196,226,101,0,21,113,216,2,0 // vpshufb 0x2d871(%rip),%ymm3,%ymm2 # 39b40 <_sk_srcover_bgra_8888_sse2_lowp+0x5ec> + .byte 196,226,101,0,21,1,223,2,0 // vpshufb 0x2df01(%rip),%ymm3,%ymm2 # 3a560 <_sk_srcover_bgra_8888_sse2_lowp+0x5f8> .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3 @@ -11927,21 +12098,21 @@ _sk_load_8888_hsw: .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,156 // ja c29a <_sk_load_8888_hsw+0x22> + .byte 119,156 // ja c62a <_sk_load_8888_hsw+0x22> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c390 <_sk_load_8888_hsw+0x118> + .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c720 <_sk_load_8888_hsw+0x118> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3 - .byte 235,128 // jmp c29a <_sk_load_8888_hsw+0x22> + .byte 235,128 // jmp c62a <_sk_load_8888_hsw+0x22> .byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0 .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0 .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1 .byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3 .byte 196,129,122,126,4,152 // vmovq (%r8,%r11,4),%xmm0 .byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3 - .byte 233,89,255,255,255 // jmpq c29a <_sk_load_8888_hsw+0x22> + .byte 233,89,255,255,255 // jmpq c62a <_sk_load_8888_hsw+0x22> .byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0 .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0 .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1 @@ -11954,7 +12125,7 @@ _sk_load_8888_hsw: .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3 .byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0 .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3 - .byte 233,10,255,255,255 // jmpq c29a <_sk_load_8888_hsw+0x22> + .byte 233,10,255,255,255 // jmpq c62a <_sk_load_8888_hsw+0x22> .byte 130 // (bad) .byte 255 // (bad) .byte 255 // (bad) @@ -11988,16 +12159,16 @@ _sk_load_8888_dst_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,86 // jne c41e <_sk_load_8888_dst_hsw+0x72> + .byte 117,86 // jne c7ae <_sk_load_8888_dst_hsw+0x72> .byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7 - .byte 197,197,219,37,138,215,2,0 // vpand 0x2d78a(%rip),%ymm7,%ymm4 # 39b60 <_sk_srcover_bgra_8888_sse2_lowp+0x60c> + .byte 197,197,219,37,26,222,2,0 // vpand 0x2de1a(%rip),%ymm7,%ymm4 # 3a580 <_sk_srcover_bgra_8888_sse2_lowp+0x618> .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 196,98,125,24,5,153,212,2,0 // vbroadcastss 0x2d499(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,5,29,219,2,0 // vbroadcastss 0x2db1d(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4 - .byte 196,226,69,0,45,143,215,2,0 // vpshufb 0x2d78f(%rip),%ymm7,%ymm5 # 39b80 <_sk_srcover_bgra_8888_sse2_lowp+0x62c> + .byte 196,226,69,0,45,31,222,2,0 // vpshufb 0x2de1f(%rip),%ymm7,%ymm5 # 3a5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x638> .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 .byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5 - .byte 196,226,69,0,53,157,215,2,0 // vpshufb 0x2d79d(%rip),%ymm7,%ymm6 # 39ba0 <_sk_srcover_bgra_8888_sse2_lowp+0x64c> + .byte 196,226,69,0,53,45,222,2,0 // vpshufb 0x2de2d(%rip),%ymm7,%ymm6 # 3a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x658> .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6 .byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6 .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7 @@ -12010,21 +12181,21 @@ _sk_load_8888_dst_hsw: .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,156 // ja c3ce <_sk_load_8888_dst_hsw+0x22> + .byte 119,156 // ja c75e <_sk_load_8888_dst_hsw+0x22> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c4c4 <_sk_load_8888_dst_hsw+0x118> + .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c854 <_sk_load_8888_dst_hsw+0x118> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7 - .byte 235,128 // jmp c3ce <_sk_load_8888_dst_hsw+0x22> + .byte 235,128 // jmp c75e <_sk_load_8888_dst_hsw+0x22> .byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4 .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 .byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7 .byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4 .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7 - .byte 233,89,255,255,255 // jmpq c3ce <_sk_load_8888_dst_hsw+0x22> + .byte 233,89,255,255,255 // jmpq c75e <_sk_load_8888_dst_hsw+0x22> .byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4 .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -12037,7 +12208,7 @@ _sk_load_8888_dst_hsw: .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7 .byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4 .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7 - .byte 233,10,255,255,255 // jmpq c3ce <_sk_load_8888_dst_hsw+0x22> + .byte 233,10,255,255,255 // jmpq c75e <_sk_load_8888_dst_hsw+0x22> .byte 130 // (bad) .byte 255 // (bad) .byte 255 // (bad) @@ -12081,14 +12252,14 @@ _sk_gather_8888_hsw: .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0 .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0 .byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8 - .byte 197,189,219,5,137,214,2,0 // vpand 0x2d689(%rip),%ymm8,%ymm0 # 39bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x66c> + .byte 197,189,219,5,25,221,2,0 // vpand 0x2dd19(%rip),%ymm8,%ymm0 # 3a5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x678> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,29,56,211,2,0 // vbroadcastss 0x2d338(%rip),%ymm3 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,226,125,24,29,188,217,2,0 // vbroadcastss 0x2d9bc(%rip),%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0 - .byte 196,226,61,0,13,143,214,2,0 // vpshufb 0x2d68f(%rip),%ymm8,%ymm1 # 39be0 <_sk_srcover_bgra_8888_sse2_lowp+0x68c> + .byte 196,226,61,0,13,31,221,2,0 // vpshufb 0x2dd1f(%rip),%ymm8,%ymm1 # 3a600 <_sk_srcover_bgra_8888_sse2_lowp+0x698> .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1 - .byte 196,226,61,0,21,158,214,2,0 // vpshufb 0x2d69e(%rip),%ymm8,%ymm2 # 39c00 <_sk_srcover_bgra_8888_sse2_lowp+0x6ac> + .byte 196,226,61,0,21,46,221,2,0 // vpshufb 0x2dd2e(%rip),%ymm8,%ymm2 # 3a620 <_sk_srcover_bgra_8888_sse2_lowp+0x6b8> .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2 .byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8 @@ -12108,23 +12279,33 @@ _sk_store_8888_hsw: .byte 73,193,224,2 // shl $0x2,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 - .byte 196,98,125,24,5,147,210,2,0 // vbroadcastss 0x2d293(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9 + .byte 196,98,125,24,21,226,216,2,0 // vbroadcastss 0x2d8e2(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9 + .byte 196,98,125,24,29,0,217,2,0 // vbroadcastss 0x2d900(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 - .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10 - .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9 - .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,45,114,242,16 // vpslld $0x10,%ymm10,%ymm10 - .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 + .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12 + .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9 + .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,29,114,244,16 // vpslld $0x10,%ymm12,%ymm12 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8 + .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8 - .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8 + .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne c5f5 <_sk_store_8888_hsw+0x78> + .byte 117,10 // jne c9b7 <_sk_store_8888_hsw+0xaa> .byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -12132,17 +12313,17 @@ _sk_store_8888_hsw: .byte 65,128,225,7 // and $0x7,%r9b .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,236 // ja c5f1 <_sk_store_8888_hsw+0x74> + .byte 119,236 // ja c9b3 <_sk_store_8888_hsw+0xa6> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # c664 <_sk_store_8888_hsw+0xe7> + .byte 76,141,21,82,0,0,0 // lea 0x52(%rip),%r10 # ca24 <_sk_store_8888_hsw+0x117> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4) - .byte 235,208 // jmp c5f1 <_sk_store_8888_hsw+0x74> + .byte 235,208 // jmp c9b3 <_sk_store_8888_hsw+0xa6> .byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4) .byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4) - .byte 235,192 // jmp c5f1 <_sk_store_8888_hsw+0x74> + .byte 235,192 // jmp c9b3 <_sk_store_8888_hsw+0xa6> .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4) .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 @@ -12150,22 +12331,23 @@ _sk_store_8888_hsw: .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4) .byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4) - .byte 235,143 // jmp c5f1 <_sk_store_8888_hsw+0x74> - .byte 102,144 // xchg %ax,%ax - .byte 181,255 // mov $0xff,%ch + .byte 235,143 // jmp c9b3 <_sk_store_8888_hsw+0xa6> + .byte 183,255 // mov $0xff,%bh .byte 255 // (bad) - .byte 255,197 // inc %ebp + .byte 255,199 // inc %edi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 189,255,255,255,246 // mov $0xf6ffffff,%ebp + .byte 191,255,255,255,248 // mov $0xf8ffffff,%edi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 233,255,255,255,219 // jmpq ffffffffdc00c678 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfd3124> + .byte 235,255 // jmp ca35 <_sk_store_8888_hsw+0x128> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,205 // dec %ebp + .byte 221,255 // (bad) + .byte 255 // (bad) + .byte 255,207 // dec %edi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -12182,16 +12364,16 @@ _sk_load_bgra_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,86 // jne c6f2 <_sk_load_bgra_hsw+0x72> + .byte 117,86 // jne cab2 <_sk_load_bgra_hsw+0x72> .byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3 - .byte 197,229,219,5,118,213,2,0 // vpand 0x2d576(%rip),%ymm3,%ymm0 # 39c20 <_sk_srcover_bgra_8888_sse2_lowp+0x6cc> + .byte 197,229,219,5,214,219,2,0 // vpand 0x2dbd6(%rip),%ymm3,%ymm0 # 3a640 <_sk_srcover_bgra_8888_sse2_lowp+0x6d8> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,98,125,24,5,197,209,2,0 // vbroadcastss 0x2d1c5(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,5,25,216,2,0 // vbroadcastss 0x2d819(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2 - .byte 196,226,101,0,5,123,213,2,0 // vpshufb 0x2d57b(%rip),%ymm3,%ymm0 # 39c40 <_sk_srcover_bgra_8888_sse2_lowp+0x6ec> + .byte 196,226,101,0,5,219,219,2,0 // vpshufb 0x2dbdb(%rip),%ymm3,%ymm0 # 3a660 <_sk_srcover_bgra_8888_sse2_lowp+0x6f8> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1 - .byte 196,226,101,0,5,137,213,2,0 // vpshufb 0x2d589(%rip),%ymm3,%ymm0 # 39c60 <_sk_srcover_bgra_8888_sse2_lowp+0x70c> + .byte 196,226,101,0,5,233,219,2,0 // vpshufb 0x2dbe9(%rip),%ymm3,%ymm0 # 3a680 <_sk_srcover_bgra_8888_sse2_lowp+0x718> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3 @@ -12204,21 +12386,21 @@ _sk_load_bgra_hsw: .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,156 // ja c6a2 <_sk_load_bgra_hsw+0x22> + .byte 119,156 // ja ca62 <_sk_load_bgra_hsw+0x22> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c798 <_sk_load_bgra_hsw+0x118> + .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # cb58 <_sk_load_bgra_hsw+0x118> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3 - .byte 235,128 // jmp c6a2 <_sk_load_bgra_hsw+0x22> + .byte 235,128 // jmp ca62 <_sk_load_bgra_hsw+0x22> .byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0 .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0 .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1 .byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3 .byte 196,129,122,126,4,152 // vmovq (%r8,%r11,4),%xmm0 .byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3 - .byte 233,89,255,255,255 // jmpq c6a2 <_sk_load_bgra_hsw+0x22> + .byte 233,89,255,255,255 // jmpq ca62 <_sk_load_bgra_hsw+0x22> .byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0 .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0 .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1 @@ -12231,7 +12413,7 @@ _sk_load_bgra_hsw: .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3 .byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0 .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3 - .byte 233,10,255,255,255 // jmpq c6a2 <_sk_load_bgra_hsw+0x22> + .byte 233,10,255,255,255 // jmpq ca62 <_sk_load_bgra_hsw+0x22> .byte 130 // (bad) .byte 255 // (bad) .byte 255 // (bad) @@ -12265,16 +12447,16 @@ _sk_load_bgra_dst_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,86 // jne c826 <_sk_load_bgra_dst_hsw+0x72> + .byte 117,86 // jne cbe6 <_sk_load_bgra_dst_hsw+0x72> .byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7 - .byte 197,197,219,37,162,212,2,0 // vpand 0x2d4a2(%rip),%ymm7,%ymm4 # 39c80 <_sk_srcover_bgra_8888_sse2_lowp+0x72c> + .byte 197,197,219,37,2,219,2,0 // vpand 0x2db02(%rip),%ymm7,%ymm4 # 3a6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x738> .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 196,98,125,24,5,145,208,2,0 // vbroadcastss 0x2d091(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,5,229,214,2,0 // vbroadcastss 0x2d6e5(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6 - .byte 196,226,69,0,37,167,212,2,0 // vpshufb 0x2d4a7(%rip),%ymm7,%ymm4 # 39ca0 <_sk_srcover_bgra_8888_sse2_lowp+0x74c> + .byte 196,226,69,0,37,7,219,2,0 // vpshufb 0x2db07(%rip),%ymm7,%ymm4 # 3a6c0 <_sk_srcover_bgra_8888_sse2_lowp+0x758> .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 196,193,92,89,232 // vmulps %ymm8,%ymm4,%ymm5 - .byte 196,226,69,0,37,181,212,2,0 // vpshufb 0x2d4b5(%rip),%ymm7,%ymm4 # 39cc0 <_sk_srcover_bgra_8888_sse2_lowp+0x76c> + .byte 196,226,69,0,37,21,219,2,0 // vpshufb 0x2db15(%rip),%ymm7,%ymm4 # 3a6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x778> .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4 .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7 @@ -12287,21 +12469,21 @@ _sk_load_bgra_dst_hsw: .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,156 // ja c7d6 <_sk_load_bgra_dst_hsw+0x22> + .byte 119,156 // ja cb96 <_sk_load_bgra_dst_hsw+0x22> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # c8cc <_sk_load_bgra_dst_hsw+0x118> + .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # cc8c <_sk_load_bgra_dst_hsw+0x118> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7 - .byte 235,128 // jmp c7d6 <_sk_load_bgra_dst_hsw+0x22> + .byte 235,128 // jmp cb96 <_sk_load_bgra_dst_hsw+0x22> .byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4 .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 .byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7 .byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4 .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7 - .byte 233,89,255,255,255 // jmpq c7d6 <_sk_load_bgra_dst_hsw+0x22> + .byte 233,89,255,255,255 // jmpq cb96 <_sk_load_bgra_dst_hsw+0x22> .byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4 .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -12314,7 +12496,7 @@ _sk_load_bgra_dst_hsw: .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7 .byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4 .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7 - .byte 233,10,255,255,255 // jmpq c7d6 <_sk_load_bgra_dst_hsw+0x22> + .byte 233,10,255,255,255 // jmpq cb96 <_sk_load_bgra_dst_hsw+0x22> .byte 130 // (bad) .byte 255 // (bad) .byte 255 // (bad) @@ -12358,14 +12540,14 @@ _sk_gather_bgra_hsw: .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0 .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0 .byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8 - .byte 197,189,219,5,161,211,2,0 // vpand 0x2d3a1(%rip),%ymm8,%ymm0 # 39ce0 <_sk_srcover_bgra_8888_sse2_lowp+0x78c> + .byte 197,189,219,5,1,218,2,0 // vpand 0x2da01(%rip),%ymm8,%ymm0 # 3a700 <_sk_srcover_bgra_8888_sse2_lowp+0x798> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,29,48,207,2,0 // vbroadcastss 0x2cf30(%rip),%ymm3 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,226,125,24,29,132,213,2,0 // vbroadcastss 0x2d584(%rip),%ymm3 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2 - .byte 196,226,61,0,5,167,211,2,0 // vpshufb 0x2d3a7(%rip),%ymm8,%ymm0 # 39d00 <_sk_srcover_bgra_8888_sse2_lowp+0x7ac> + .byte 196,226,61,0,5,7,218,2,0 // vpshufb 0x2da07(%rip),%ymm8,%ymm0 # 3a720 <_sk_srcover_bgra_8888_sse2_lowp+0x7b8> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 197,252,89,203 // vmulps %ymm3,%ymm0,%ymm1 - .byte 196,226,61,0,5,182,211,2,0 // vpshufb 0x2d3b6(%rip),%ymm8,%ymm0 # 39d20 <_sk_srcover_bgra_8888_sse2_lowp+0x7cc> + .byte 196,226,61,0,5,22,218,2,0 // vpshufb 0x2da16(%rip),%ymm8,%ymm0 # 3a740 <_sk_srcover_bgra_8888_sse2_lowp+0x7d8> .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0 .byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8 @@ -12385,23 +12567,33 @@ _sk_store_bgra_hsw: .byte 73,193,224,2 // shl $0x2,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 - .byte 196,98,125,24,5,139,206,2,0 // vbroadcastss 0x2ce8b(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9 + .byte 196,98,125,24,21,170,212,2,0 // vbroadcastss 0x2d4aa(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9 + .byte 196,98,125,24,29,200,212,2,0 // vbroadcastss 0x2d4c8(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 - .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10 - .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9 - .byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,45,114,242,16 // vpslld $0x10,%ymm10,%ymm10 - .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 + .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12 + .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9 + .byte 197,60,95,224 // vmaxps %ymm0,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,29,114,244,16 // vpslld $0x10,%ymm12,%ymm12 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8 + .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8 - .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8 + .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne c9fd <_sk_store_bgra_hsw+0x78> + .byte 117,10 // jne cdef <_sk_store_bgra_hsw+0xaa> .byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -12409,17 +12601,17 @@ _sk_store_bgra_hsw: .byte 65,128,225,7 // and $0x7,%r9b .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,236 // ja c9f9 <_sk_store_bgra_hsw+0x74> + .byte 119,236 // ja cdeb <_sk_store_bgra_hsw+0xa6> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # ca6c <_sk_store_bgra_hsw+0xe7> + .byte 76,141,21,82,0,0,0 // lea 0x52(%rip),%r10 # ce5c <_sk_store_bgra_hsw+0x117> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4) - .byte 235,208 // jmp c9f9 <_sk_store_bgra_hsw+0x74> + .byte 235,208 // jmp cdeb <_sk_store_bgra_hsw+0xa6> .byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4) .byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4) - .byte 235,192 // jmp c9f9 <_sk_store_bgra_hsw+0x74> + .byte 235,192 // jmp cdeb <_sk_store_bgra_hsw+0xa6> .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4) .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 @@ -12427,22 +12619,23 @@ _sk_store_bgra_hsw: .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4) .byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4) - .byte 235,143 // jmp c9f9 <_sk_store_bgra_hsw+0x74> - .byte 102,144 // xchg %ax,%ax - .byte 181,255 // mov $0xff,%ch + .byte 235,143 // jmp cdeb <_sk_store_bgra_hsw+0xa6> + .byte 183,255 // mov $0xff,%bh .byte 255 // (bad) - .byte 255,197 // inc %ebp + .byte 255,199 // inc %edi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 189,255,255,255,246 // mov $0xf6ffffff,%ebp + .byte 191,255,255,255,248 // mov $0xf8ffffff,%edi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 233,255,255,255,219 // jmpq ffffffffdc00ca80 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfd352c> + .byte 235,255 // jmp ce6d <_sk_store_bgra_hsw+0x128> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,205 // dec %ebp + .byte 221,255 // (bad) + .byte 255 // (bad) + .byte 255,207 // dec %edi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -12459,7 +12652,7 @@ _sk_load_f16_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 117,101 // jne cb09 <_sk_load_f16_hsw+0x81> + .byte 117,101 // jne cef9 <_sk_load_f16_hsw+0x81> .byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8 .byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2 .byte 196,193,121,16,92,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm3 @@ -12485,29 +12678,29 @@ _sk_load_f16_hsw: .byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,85 // je cb6f <_sk_load_f16_hsw+0xe7> + .byte 116,85 // je cf5f <_sk_load_f16_hsw+0xe7> .byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,72 // jb cb6f <_sk_load_f16_hsw+0xe7> + .byte 114,72 // jb cf5f <_sk_load_f16_hsw+0xe7> .byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 116,72 // je cb7c <_sk_load_f16_hsw+0xf4> + .byte 116,72 // je cf6c <_sk_load_f16_hsw+0xf4> .byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,59 // jb cb7c <_sk_load_f16_hsw+0xf4> + .byte 114,59 // jb cf6c <_sk_load_f16_hsw+0xf4> .byte 196,193,123,16,92,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm3 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 15,132,109,255,255,255 // je cabf <_sk_load_f16_hsw+0x37> + .byte 15,132,109,255,255,255 // je ceaf <_sk_load_f16_hsw+0x37> .byte 196,193,97,22,92,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm3,%xmm3 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 15,130,92,255,255,255 // jb cabf <_sk_load_f16_hsw+0x37> + .byte 15,130,92,255,255,255 // jb ceaf <_sk_load_f16_hsw+0x37> .byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9 - .byte 233,80,255,255,255 // jmpq cabf <_sk_load_f16_hsw+0x37> + .byte 233,80,255,255,255 // jmpq ceaf <_sk_load_f16_hsw+0x37> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2 - .byte 233,67,255,255,255 // jmpq cabf <_sk_load_f16_hsw+0x37> + .byte 233,67,255,255,255 // jmpq ceaf <_sk_load_f16_hsw+0x37> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 - .byte 233,58,255,255,255 // jmpq cabf <_sk_load_f16_hsw+0x37> + .byte 233,58,255,255,255 // jmpq ceaf <_sk_load_f16_hsw+0x37> HIDDEN _sk_load_f16_dst_hsw .globl _sk_load_f16_dst_hsw @@ -12521,7 +12714,7 @@ _sk_load_f16_dst_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 117,101 // jne cc06 <_sk_load_f16_dst_hsw+0x81> + .byte 117,101 // jne cff6 <_sk_load_f16_dst_hsw+0x81> .byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8 .byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6 .byte 196,193,121,16,124,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm7 @@ -12547,29 +12740,29 @@ _sk_load_f16_dst_hsw: .byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,85 // je cc6c <_sk_load_f16_dst_hsw+0xe7> + .byte 116,85 // je d05c <_sk_load_f16_dst_hsw+0xe7> .byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,72 // jb cc6c <_sk_load_f16_dst_hsw+0xe7> + .byte 114,72 // jb d05c <_sk_load_f16_dst_hsw+0xe7> .byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 116,72 // je cc79 <_sk_load_f16_dst_hsw+0xf4> + .byte 116,72 // je d069 <_sk_load_f16_dst_hsw+0xf4> .byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,59 // jb cc79 <_sk_load_f16_dst_hsw+0xf4> + .byte 114,59 // jb d069 <_sk_load_f16_dst_hsw+0xf4> .byte 196,193,123,16,124,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm7 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 15,132,109,255,255,255 // je cbbc <_sk_load_f16_dst_hsw+0x37> + .byte 15,132,109,255,255,255 // je cfac <_sk_load_f16_dst_hsw+0x37> .byte 196,193,65,22,124,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm7,%xmm7 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 15,130,92,255,255,255 // jb cbbc <_sk_load_f16_dst_hsw+0x37> + .byte 15,130,92,255,255,255 // jb cfac <_sk_load_f16_dst_hsw+0x37> .byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9 - .byte 233,80,255,255,255 // jmpq cbbc <_sk_load_f16_dst_hsw+0x37> + .byte 233,80,255,255,255 // jmpq cfac <_sk_load_f16_dst_hsw+0x37> .byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7 .byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6 - .byte 233,67,255,255,255 // jmpq cbbc <_sk_load_f16_dst_hsw+0x37> + .byte 233,67,255,255,255 // jmpq cfac <_sk_load_f16_dst_hsw+0x37> .byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7 - .byte 233,58,255,255,255 // jmpq cbbc <_sk_load_f16_dst_hsw+0x37> + .byte 233,58,255,255,255 // jmpq cfac <_sk_load_f16_dst_hsw+0x37> HIDDEN _sk_gather_f16_hsw .globl _sk_gather_f16_hsw @@ -12642,7 +12835,7 @@ _sk_store_f16_hsw: .byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9 .byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,31 // jne cdb6 <_sk_store_f16_hsw+0x7b> + .byte 117,31 // jne d1a6 <_sk_store_f16_hsw+0x7b> .byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8) .byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8) .byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8) @@ -12651,22 +12844,22 @@ _sk_store_f16_hsw: .byte 255,224 // jmpq *%rax .byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8) .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,240 // je cdb2 <_sk_store_f16_hsw+0x77> + .byte 116,240 // je d1a2 <_sk_store_f16_hsw+0x77> .byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8) .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,227 // jb cdb2 <_sk_store_f16_hsw+0x77> + .byte 114,227 // jb d1a2 <_sk_store_f16_hsw+0x77> .byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8) - .byte 116,218 // je cdb2 <_sk_store_f16_hsw+0x77> + .byte 116,218 // je d1a2 <_sk_store_f16_hsw+0x77> .byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8) .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,205 // jb cdb2 <_sk_store_f16_hsw+0x77> + .byte 114,205 // jb d1a2 <_sk_store_f16_hsw+0x77> .byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8) - .byte 116,196 // je cdb2 <_sk_store_f16_hsw+0x77> + .byte 116,196 // je d1a2 <_sk_store_f16_hsw+0x77> .byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8) .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 114,183 // jb cdb2 <_sk_store_f16_hsw+0x77> + .byte 114,183 // jb d1a2 <_sk_store_f16_hsw+0x77> .byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8) - .byte 235,174 // jmp cdb2 <_sk_store_f16_hsw+0x77> + .byte 235,174 // jmp d1a2 <_sk_store_f16_hsw+0x77> HIDDEN _sk_load_u16_be_hsw .globl _sk_load_u16_be_hsw @@ -12681,7 +12874,7 @@ _sk_load_u16_be_hsw: .byte 76,3,0 // add (%rax),%r8 .byte 73,99,193 // movslq %r9d,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,204,0,0,0 // jne cef7 <_sk_load_u16_be_hsw+0xf3> + .byte 15,133,204,0,0,0 // jne d2e7 <_sk_load_u16_be_hsw+0xf3> .byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8 .byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2 .byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3 @@ -12700,7 +12893,7 @@ _sk_load_u16_be_hsw: .byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0 .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,98,125,24,21,12,202,2,0 // vbroadcastss 0x2ca0c(%rip),%ymm10 # 39898 <_sk_srcover_bgra_8888_sse2_lowp+0x344> + .byte 196,98,125,24,21,48,208,2,0 // vbroadcastss 0x2d030(%rip),%ymm10 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344> .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0 .byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1 .byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2 @@ -12728,29 +12921,29 @@ _sk_load_u16_be_hsw: .byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,85 // je cf5d <_sk_load_u16_be_hsw+0x159> + .byte 116,85 // je d34d <_sk_load_u16_be_hsw+0x159> .byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,72 // jb cf5d <_sk_load_u16_be_hsw+0x159> + .byte 114,72 // jb d34d <_sk_load_u16_be_hsw+0x159> .byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 116,72 // je cf6a <_sk_load_u16_be_hsw+0x166> + .byte 116,72 // je d35a <_sk_load_u16_be_hsw+0x166> .byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,59 // jb cf6a <_sk_load_u16_be_hsw+0x166> + .byte 114,59 // jb d35a <_sk_load_u16_be_hsw+0x166> .byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 15,132,6,255,255,255 // je ce46 <_sk_load_u16_be_hsw+0x42> + .byte 15,132,6,255,255,255 // je d236 <_sk_load_u16_be_hsw+0x42> .byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 15,130,245,254,255,255 // jb ce46 <_sk_load_u16_be_hsw+0x42> + .byte 15,130,245,254,255,255 // jb d236 <_sk_load_u16_be_hsw+0x42> .byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9 - .byte 233,233,254,255,255 // jmpq ce46 <_sk_load_u16_be_hsw+0x42> + .byte 233,233,254,255,255 // jmpq d236 <_sk_load_u16_be_hsw+0x42> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2 - .byte 233,220,254,255,255 // jmpq ce46 <_sk_load_u16_be_hsw+0x42> + .byte 233,220,254,255,255 // jmpq d236 <_sk_load_u16_be_hsw+0x42> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 - .byte 233,211,254,255,255 // jmpq ce46 <_sk_load_u16_be_hsw+0x42> + .byte 233,211,254,255,255 // jmpq d236 <_sk_load_u16_be_hsw+0x42> HIDDEN _sk_load_rgb_u16_be_hsw .globl _sk_load_rgb_u16_be_hsw @@ -12767,7 +12960,7 @@ _sk_load_rgb_u16_be_hsw: .byte 72,141,4,64 // lea (%rax,%rax,2),%rax .byte 72,193,248,32 // sar $0x20,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,205,0,0,0 // jne d06b <_sk_load_rgb_u16_be_hsw+0xf8> + .byte 15,133,205,0,0,0 // jne d45b <_sk_load_rgb_u16_be_hsw+0xf8> .byte 196,65,122,111,28,64 // vmovdqu (%r8,%rax,2),%xmm11 .byte 196,193,122,111,92,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm3 .byte 196,193,122,111,84,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm2 @@ -12792,7 +12985,7 @@ _sk_load_rgb_u16_be_hsw: .byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0 .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,98,125,24,13,123,200,2,0 // vbroadcastss 0x2c87b(%rip),%ymm9 # 39898 <_sk_srcover_bgra_8888_sse2_lowp+0x344> + .byte 196,98,125,24,13,159,206,2,0 // vbroadcastss 0x2ce9f(%rip),%ymm9 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344> .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 .byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1 .byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3 @@ -12808,69 +13001,69 @@ _sk_load_rgb_u16_be_hsw: .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,155,199,2,0 // vbroadcastss 0x2c79b(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,191,205,2,0 // vbroadcastss 0x2cdbf(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 255,224 // jmpq *%rax .byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,31 // jne d0a3 <_sk_load_rgb_u16_be_hsw+0x130> + .byte 117,31 // jne d493 <_sk_load_rgb_u16_be_hsw+0x130> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3 .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 - .byte 233,48,255,255,255 // jmpq cfd3 <_sk_load_rgb_u16_be_hsw+0x60> + .byte 233,48,255,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60> .byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,48 // jb d0ed <_sk_load_rgb_u16_be_hsw+0x17a> + .byte 114,48 // jb d4dd <_sk_load_rgb_u16_be_hsw+0x17a> .byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 117,48 // jne d107 <_sk_load_rgb_u16_be_hsw+0x194> + .byte 117,48 // jne d4f7 <_sk_load_rgb_u16_be_hsw+0x194> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 - .byte 233,230,254,255,255 // jmpq cfd3 <_sk_load_rgb_u16_be_hsw+0x60> + .byte 233,230,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3 - .byte 233,204,254,255,255 // jmpq cfd3 <_sk_load_rgb_u16_be_hsw+0x60> + .byte 233,204,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60> .byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,39 // jb d148 <_sk_load_rgb_u16_be_hsw+0x1d5> + .byte 114,39 // jb d538 <_sk_load_rgb_u16_be_hsw+0x1d5> .byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 117,30 // jne d159 <_sk_load_rgb_u16_be_hsw+0x1e6> + .byte 117,30 // jne d549 <_sk_load_rgb_u16_be_hsw+0x1e6> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 - .byte 233,139,254,255,255 // jmpq cfd3 <_sk_load_rgb_u16_be_hsw+0x60> + .byte 233,139,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 - .byte 233,122,254,255,255 // jmpq cfd3 <_sk_load_rgb_u16_be_hsw+0x60> + .byte 233,122,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60> .byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 114,25 // jb d18c <_sk_load_rgb_u16_be_hsw+0x219> + .byte 114,25 // jb d57c <_sk_load_rgb_u16_be_hsw+0x219> .byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0 - .byte 233,71,254,255,255 // jmpq cfd3 <_sk_load_rgb_u16_be_hsw+0x60> + .byte 233,71,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 - .byte 233,62,254,255,255 // jmpq cfd3 <_sk_load_rgb_u16_be_hsw+0x60> + .byte 233,62,254,255,255 // jmpq d3c3 <_sk_load_rgb_u16_be_hsw+0x60> HIDDEN _sk_store_u16_be_hsw .globl _sk_store_u16_be_hsw @@ -12884,45 +13077,55 @@ _sk_store_u16_be_hsw: .byte 77,1,192 // add %r8,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 73,99,193 // movslq %r9d,%rax - .byte 196,98,125,24,5,100,199,2,0 // vbroadcastss 0x2c764(%rip),%ymm8 # 39920 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc> - .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9 + .byte 196,98,125,24,21,99,204,2,0 // vbroadcastss 0x2cc63(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9 + .byte 196,98,125,24,29,113,205,2,0 // vbroadcastss 0x2cd71(%rip),%ymm11 # 3a334 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc> + .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 - .byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10 - .byte 196,66,49,43,202 // vpackusdw %xmm10,%xmm9,%xmm9 - .byte 196,193,41,113,241,8 // vpsllw $0x8,%xmm9,%xmm10 + .byte 196,67,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm12 + .byte 196,66,49,43,204 // vpackusdw %xmm12,%xmm9,%xmm9 + .byte 196,193,25,113,241,8 // vpsllw $0x8,%xmm9,%xmm12 .byte 196,193,49,113,209,8 // vpsrlw $0x8,%xmm9,%xmm9 - .byte 196,65,41,235,201 // vpor %xmm9,%xmm10,%xmm9 - .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,67,125,25,211,1 // vextractf128 $0x1,%ymm10,%xmm11 - .byte 196,66,41,43,211 // vpackusdw %xmm11,%xmm10,%xmm10 - .byte 196,193,33,113,242,8 // vpsllw $0x8,%xmm10,%xmm11 - .byte 196,193,41,113,210,8 // vpsrlw $0x8,%xmm10,%xmm10 - .byte 196,65,33,235,210 // vpor %xmm10,%xmm11,%xmm10 - .byte 196,65,108,89,216 // vmulps %ymm8,%ymm2,%ymm11 - .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 - .byte 196,67,125,25,220,1 // vextractf128 $0x1,%ymm11,%xmm12 - .byte 196,66,33,43,220 // vpackusdw %xmm12,%xmm11,%xmm11 - .byte 196,193,25,113,243,8 // vpsllw $0x8,%xmm11,%xmm12 - .byte 196,193,33,113,211,8 // vpsrlw $0x8,%xmm11,%xmm11 - .byte 196,65,25,235,219 // vpor %xmm11,%xmm12,%xmm11 - .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 + .byte 196,65,25,235,201 // vpor %xmm9,%xmm12,%xmm9 + .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13 + .byte 196,66,25,43,229 // vpackusdw %xmm13,%xmm12,%xmm12 + .byte 196,193,17,113,244,8 // vpsllw $0x8,%xmm12,%xmm13 + .byte 196,193,25,113,212,8 // vpsrlw $0x8,%xmm12,%xmm12 + .byte 196,65,17,235,228 // vpor %xmm12,%xmm13,%xmm12 + .byte 197,60,95,234 // vmaxps %ymm2,%ymm8,%ymm13 + .byte 196,65,20,93,234 // vminps %ymm10,%ymm13,%ymm13 + .byte 196,65,20,89,235 // vmulps %ymm11,%ymm13,%ymm13 + .byte 196,65,125,91,237 // vcvtps2dq %ymm13,%ymm13 + .byte 196,67,125,25,238,1 // vextractf128 $0x1,%ymm13,%xmm14 + .byte 196,66,17,43,238 // vpackusdw %xmm14,%xmm13,%xmm13 + .byte 196,193,9,113,245,8 // vpsllw $0x8,%xmm13,%xmm14 + .byte 196,193,17,113,213,8 // vpsrlw $0x8,%xmm13,%xmm13 + .byte 196,65,9,235,237 // vpor %xmm13,%xmm14,%xmm13 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8 + .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 - .byte 196,67,125,25,196,1 // vextractf128 $0x1,%ymm8,%xmm12 - .byte 196,66,57,43,196 // vpackusdw %xmm12,%xmm8,%xmm8 - .byte 196,193,25,113,240,8 // vpsllw $0x8,%xmm8,%xmm12 + .byte 196,67,125,25,194,1 // vextractf128 $0x1,%ymm8,%xmm10 + .byte 196,66,57,43,194 // vpackusdw %xmm10,%xmm8,%xmm8 + .byte 196,193,41,113,240,8 // vpsllw $0x8,%xmm8,%xmm10 .byte 196,193,57,113,208,8 // vpsrlw $0x8,%xmm8,%xmm8 - .byte 196,65,25,235,192 // vpor %xmm8,%xmm12,%xmm8 - .byte 196,65,49,97,226 // vpunpcklwd %xmm10,%xmm9,%xmm12 - .byte 196,65,49,105,234 // vpunpckhwd %xmm10,%xmm9,%xmm13 - .byte 196,65,33,97,200 // vpunpcklwd %xmm8,%xmm11,%xmm9 - .byte 196,65,33,105,192 // vpunpckhwd %xmm8,%xmm11,%xmm8 - .byte 196,65,25,98,217 // vpunpckldq %xmm9,%xmm12,%xmm11 - .byte 196,65,25,106,209 // vpunpckhdq %xmm9,%xmm12,%xmm10 - .byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9 - .byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8 + .byte 196,65,41,235,192 // vpor %xmm8,%xmm10,%xmm8 + .byte 196,65,49,97,212 // vpunpcklwd %xmm12,%xmm9,%xmm10 + .byte 196,65,49,105,228 // vpunpckhwd %xmm12,%xmm9,%xmm12 + .byte 196,65,17,97,200 // vpunpcklwd %xmm8,%xmm13,%xmm9 + .byte 196,65,17,105,192 // vpunpckhwd %xmm8,%xmm13,%xmm8 + .byte 196,65,41,98,217 // vpunpckldq %xmm9,%xmm10,%xmm11 + .byte 196,65,41,106,209 // vpunpckhdq %xmm9,%xmm10,%xmm10 + .byte 196,65,25,98,200 // vpunpckldq %xmm8,%xmm12,%xmm9 + .byte 196,65,25,106,192 // vpunpckhdq %xmm8,%xmm12,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,31 // jne d2a0 <_sk_store_u16_be_hsw+0x10b> + .byte 117,31 // jne d6c2 <_sk_store_u16_be_hsw+0x13d> .byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2) .byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2) .byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2) @@ -12931,22 +13134,22 @@ _sk_store_u16_be_hsw: .byte 255,224 // jmpq *%rax .byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2) .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,240 // je d29c <_sk_store_u16_be_hsw+0x107> + .byte 116,240 // je d6be <_sk_store_u16_be_hsw+0x139> .byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2) .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,227 // jb d29c <_sk_store_u16_be_hsw+0x107> + .byte 114,227 // jb d6be <_sk_store_u16_be_hsw+0x139> .byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2) - .byte 116,218 // je d29c <_sk_store_u16_be_hsw+0x107> + .byte 116,218 // je d6be <_sk_store_u16_be_hsw+0x139> .byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2) .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,205 // jb d29c <_sk_store_u16_be_hsw+0x107> + .byte 114,205 // jb d6be <_sk_store_u16_be_hsw+0x139> .byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2) - .byte 116,196 // je d29c <_sk_store_u16_be_hsw+0x107> + .byte 116,196 // je d6be <_sk_store_u16_be_hsw+0x139> .byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2) .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 114,183 // jb d29c <_sk_store_u16_be_hsw+0x107> + .byte 114,183 // jb d6be <_sk_store_u16_be_hsw+0x139> .byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2) - .byte 235,174 // jmp d29c <_sk_store_u16_be_hsw+0x107> + .byte 235,174 // jmp d6be <_sk_store_u16_be_hsw+0x139> HIDDEN _sk_load_f32_hsw .globl _sk_load_f32_hsw @@ -12955,7 +13158,7 @@ _sk_load_f32_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 15,135,97,1,0,0 // ja d45f <_sk_load_f32_hsw+0x171> + .byte 15,135,97,1,0,0 // ja d881 <_sk_load_f32_hsw+0x171> .byte 72,131,236,24 // sub $0x18,%rsp .byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp) .byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp) @@ -12968,7 +13171,7 @@ _sk_load_f32_hsw: .byte 73,193,224,2 // shl $0x2,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 77,99,201 // movslq %r9d,%r9 - .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # d470 <_sk_load_f32_hsw+0x182> + .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # d890 <_sk_load_f32_hsw+0x180> .byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax .byte 76,1,208 // add %r10,%rax .byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4 @@ -13031,19 +13234,21 @@ _sk_load_f32_hsw: .byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3 .byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10 .byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1 - .byte 235,203 // jmp d439 <_sk_load_f32_hsw+0x14b> - .byte 102,144 // xchg %ax,%ax - .byte 27,255 // sbb %edi,%edi + .byte 235,203 // jmp d85b <_sk_load_f32_hsw+0x14b> + .byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax .byte 255 // (bad) - .byte 255,161,255,255,255,140 // jmpq *-0x73000001(%rcx) .byte 255 // (bad) + .byte 255,142,255,255,255,121 // decl 0x79ffffff(%rsi) .byte 255 // (bad) - .byte 255,119,255 // pushq -0x1(%rdi) .byte 255 // (bad) - .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8) - .byte 255,70,255 // incl -0x1(%rsi) + .byte 255,94,255 // lcall *-0x1(%rsi) + .byte 255 // (bad) + .byte 255,72,255 // decl -0x1(%rax) + .byte 255 // (bad) + .byte 255,55 // pushq (%rdi) .byte 255 // (bad) - .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2900d48c <_sk_srcover_bgra_8888_sse2_lowp+0x28fd3f38> + .byte 255 // (bad) + .byte 255,42 // ljmp *(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -13055,7 +13260,7 @@ _sk_load_f32_dst_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 15,135,97,1,0,0 // ja d601 <_sk_load_f32_dst_hsw+0x171> + .byte 15,135,97,1,0,0 // ja da21 <_sk_load_f32_dst_hsw+0x171> .byte 72,131,236,24 // sub $0x18,%rsp .byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp) .byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp) @@ -13068,7 +13273,7 @@ _sk_load_f32_dst_hsw: .byte 73,193,224,2 // shl $0x2,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 77,99,201 // movslq %r9d,%r9 - .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # d610 <_sk_load_f32_dst_hsw+0x180> + .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # da30 <_sk_load_f32_dst_hsw+0x180> .byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax .byte 76,1,208 // add %r10,%rax .byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0 @@ -13131,7 +13336,7 @@ _sk_load_f32_dst_hsw: .byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7 .byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10 .byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5 - .byte 235,203 // jmp d5db <_sk_load_f32_dst_hsw+0x14b> + .byte 235,203 // jmp d9fb <_sk_load_f32_dst_hsw+0x14b> .byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax .byte 255 // (bad) .byte 255 // (bad) @@ -13171,7 +13376,7 @@ _sk_store_f32_hsw: .byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8 .byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,55 // jne d6af <_sk_store_f32_hsw+0x7f> + .byte 117,55 // jne dacf <_sk_store_f32_hsw+0x7f> .byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12 .byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13 .byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9 @@ -13184,22 +13389,22 @@ _sk_store_f32_hsw: .byte 255,224 // jmpq *%rax .byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4) .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,240 // je d6ab <_sk_store_f32_hsw+0x7b> + .byte 116,240 // je dacb <_sk_store_f32_hsw+0x7b> .byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4) .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,227 // jb d6ab <_sk_store_f32_hsw+0x7b> + .byte 114,227 // jb dacb <_sk_store_f32_hsw+0x7b> .byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4) - .byte 116,218 // je d6ab <_sk_store_f32_hsw+0x7b> + .byte 116,218 // je dacb <_sk_store_f32_hsw+0x7b> .byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4) .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,205 // jb d6ab <_sk_store_f32_hsw+0x7b> + .byte 114,205 // jb dacb <_sk_store_f32_hsw+0x7b> .byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4) - .byte 116,195 // je d6ab <_sk_store_f32_hsw+0x7b> + .byte 116,195 // je dacb <_sk_store_f32_hsw+0x7b> .byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4) .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 114,181 // jb d6ab <_sk_store_f32_hsw+0x7b> + .byte 114,181 // jb dacb <_sk_store_f32_hsw+0x7b> .byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4) - .byte 235,171 // jmp d6ab <_sk_store_f32_hsw+0x7b> + .byte 235,171 // jmp dacb <_sk_store_f32_hsw+0x7b> HIDDEN _sk_repeat_x_hsw .globl _sk_repeat_x_hsw @@ -13238,7 +13443,7 @@ _sk_mirror_x_hsw: .byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11 .byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0 .byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8 - .byte 197,178,89,5,153,192,2,0 // vmulss 0x2c099(%rip),%xmm9,%xmm0 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 197,178,89,5,141,198,2,0 // vmulss 0x2c68d(%rip),%xmm9,%xmm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0 .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0 .byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0 @@ -13261,7 +13466,7 @@ _sk_mirror_y_hsw: .byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11 .byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1 .byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8 - .byte 197,178,89,13,72,192,2,0 // vmulss 0x2c048(%rip),%xmm9,%xmm1 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 197,178,89,13,60,198,2,0 // vmulss 0x2c63c(%rip),%xmm9,%xmm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1 .byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1 .byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1 @@ -13279,7 +13484,7 @@ FUNCTION(_sk_clamp_x_1_hsw) _sk_clamp_x_1_hsw: .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0 - .byte 196,98,125,24,5,16,192,2,0 // vbroadcastss 0x2c010(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,4,198,2,0 // vbroadcastss 0x2c604(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -13292,7 +13497,7 @@ _sk_repeat_x_1_hsw: .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0 - .byte 196,98,125,24,5,234,191,2,0 // vbroadcastss 0x2bfea(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,222,197,2,0 // vbroadcastss 0x2c5de(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -13301,9 +13506,9 @@ HIDDEN _sk_mirror_x_1_hsw .globl _sk_mirror_x_1_hsw FUNCTION(_sk_mirror_x_1_hsw) _sk_mirror_x_1_hsw: - .byte 196,98,125,24,5,240,191,2,0 // vbroadcastss 0x2bff0(%rip),%ymm8 # 3981c <_sk_srcover_bgra_8888_sse2_lowp+0x2c8> + .byte 196,98,125,24,5,228,197,2,0 // vbroadcastss 0x2c5e4(%rip),%ymm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8> .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0 - .byte 196,98,125,24,13,198,191,2,0 // vbroadcastss 0x2bfc6(%rip),%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,13,186,197,2,0 // vbroadcastss 0x2c5ba(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9 .byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9 .byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9 @@ -13313,7 +13518,7 @@ _sk_mirror_x_1_hsw: .byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9 .byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0 .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0 - .byte 196,98,125,24,5,150,191,2,0 // vbroadcastss 0x2bf96(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,138,197,2,0 // vbroadcastss 0x2c58a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -13322,11 +13527,11 @@ HIDDEN _sk_luminance_to_alpha_hsw .globl _sk_luminance_to_alpha_hsw FUNCTION(_sk_luminance_to_alpha_hsw) _sk_luminance_to_alpha_hsw: - .byte 196,226,125,24,29,168,192,2,0 // vbroadcastss 0x2c0a8(%rip),%ymm3 # 39928 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4> - .byte 196,98,125,24,5,155,192,2,0 // vbroadcastss 0x2c09b(%rip),%ymm8 # 39924 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0> + .byte 196,226,125,24,29,156,198,2,0 // vbroadcastss 0x2c69c(%rip),%ymm3 # 3a33c <_sk_srcover_bgra_8888_sse2_lowp+0x3d4> + .byte 196,98,125,24,5,143,198,2,0 // vbroadcastss 0x2c68f(%rip),%ymm8 # 3a338 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0> .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 .byte 196,226,125,184,203 // vfmadd231ps %ymm3,%ymm0,%ymm1 - .byte 196,226,125,24,29,144,192,2,0 // vbroadcastss 0x2c090(%rip),%ymm3 # 3992c <_sk_srcover_bgra_8888_sse2_lowp+0x3d8> + .byte 196,226,125,24,29,132,198,2,0 // vbroadcastss 0x2c684(%rip),%ymm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8> .byte 196,226,109,168,217 // vfmadd213ps %ymm1,%ymm2,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 @@ -13525,9 +13730,9 @@ _sk_evenly_spaced_gradient_hsw: .byte 76,139,64,8 // mov 0x8(%rax),%r8 .byte 77,137,202 // mov %r9,%r10 .byte 73,255,202 // dec %r10 - .byte 120,7 // js db94 <_sk_evenly_spaced_gradient_hsw+0x18> + .byte 120,7 // js dfb4 <_sk_evenly_spaced_gradient_hsw+0x18> .byte 196,193,242,42,202 // vcvtsi2ss %r10,%xmm1,%xmm1 - .byte 235,22 // jmp dbaa <_sk_evenly_spaced_gradient_hsw+0x2e> + .byte 235,22 // jmp dfca <_sk_evenly_spaced_gradient_hsw+0x2e> .byte 77,137,211 // mov %r10,%r11 .byte 73,209,235 // shr %r11 .byte 65,131,226,1 // and $0x1,%r10d @@ -13538,7 +13743,7 @@ _sk_evenly_spaced_gradient_hsw: .byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1 .byte 197,126,91,225 // vcvttps2dq %ymm1,%ymm12 .byte 73,131,249,8 // cmp $0x8,%r9 - .byte 119,73 // ja dc06 <_sk_evenly_spaced_gradient_hsw+0x8a> + .byte 119,73 // ja e026 <_sk_evenly_spaced_gradient_hsw+0x8a> .byte 196,66,29,22,0 // vpermps (%r8),%ymm12,%ymm8 .byte 76,139,64,40 // mov 0x28(%rax),%r8 .byte 196,66,29,22,8 // vpermps (%r8),%ymm12,%ymm9 @@ -13554,7 +13759,7 @@ _sk_evenly_spaced_gradient_hsw: .byte 196,194,29,22,24 // vpermps (%r8),%ymm12,%ymm3 .byte 72,139,64,64 // mov 0x40(%rax),%rax .byte 196,98,29,22,16 // vpermps (%rax),%ymm12,%ymm10 - .byte 233,147,0,0,0 // jmpq dc99 <_sk_evenly_spaced_gradient_hsw+0x11d> + .byte 233,147,0,0,0 // jmpq e0b9 <_sk_evenly_spaced_gradient_hsw+0x11d> .byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14 .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10 .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1 @@ -13601,11 +13806,11 @@ _sk_gradient_hsw: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,0 // mov (%rax),%r8 .byte 73,131,248,1 // cmp $0x1,%r8 - .byte 15,134,220,0,0,0 // jbe dda0 <_sk_gradient_hsw+0xeb> + .byte 15,134,220,0,0,0 // jbe e1c0 <_sk_gradient_hsw+0xeb> .byte 76,139,72,72 // mov 0x48(%rax),%r9 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 65,186,1,0,0,0 // mov $0x1,%r10d - .byte 196,226,125,24,21,45,187,2,0 // vbroadcastss 0x2bb2d(%rip),%ymm2 # 39808 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4> + .byte 196,226,125,24,21,33,193,2,0 // vbroadcastss 0x2c121(%rip),%ymm2 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4> .byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9 .byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3 .byte 197,228,194,216,2 // vcmpleps %ymm0,%ymm3,%ymm3 @@ -13613,10 +13818,10 @@ _sk_gradient_hsw: .byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9 .byte 73,255,194 // inc %r10 .byte 77,57,208 // cmp %r10,%r8 - .byte 117,227 // jne dce0 <_sk_gradient_hsw+0x2b> + .byte 117,227 // jne e100 <_sk_gradient_hsw+0x2b> .byte 76,139,72,8 // mov 0x8(%rax),%r9 .byte 73,131,248,8 // cmp $0x8,%r8 - .byte 15,134,158,0,0,0 // jbe dda9 <_sk_gradient_hsw+0xf4> + .byte 15,134,158,0,0,0 // jbe e1c9 <_sk_gradient_hsw+0xf4> .byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14 .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 @@ -13648,7 +13853,7 @@ _sk_gradient_hsw: .byte 196,130,5,146,28,136 // vgatherdps %ymm15,(%r8,%ymm9,4),%ymm3 .byte 72,139,64,64 // mov 0x40(%rax),%rax .byte 196,34,13,146,28,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm11 - .byte 235,77 // jmp dded <_sk_gradient_hsw+0x138> + .byte 235,77 // jmp e20d <_sk_gradient_hsw+0x138> .byte 76,139,72,8 // mov 0x8(%rax),%r9 .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 .byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8 @@ -13708,24 +13913,24 @@ _sk_xy_to_unit_angle_hsw: .byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12 .byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11 .byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12 - .byte 196,98,125,24,45,168,186,2,0 // vbroadcastss 0x2baa8(%rip),%ymm13 # 39930 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc> - .byte 196,98,125,24,53,163,186,2,0 // vbroadcastss 0x2baa3(%rip),%ymm14 # 39934 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0> + .byte 196,98,125,24,45,156,192,2,0 // vbroadcastss 0x2c09c(%rip),%ymm13 # 3a344 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc> + .byte 196,98,125,24,53,151,192,2,0 // vbroadcastss 0x2c097(%rip),%ymm14 # 3a348 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0> .byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14 - .byte 196,98,125,24,45,153,186,2,0 // vbroadcastss 0x2ba99(%rip),%ymm13 # 39938 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4> + .byte 196,98,125,24,45,141,192,2,0 // vbroadcastss 0x2c08d(%rip),%ymm13 # 3a34c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4> .byte 196,66,29,184,238 // vfmadd231ps %ymm14,%ymm12,%ymm13 - .byte 196,98,125,24,53,143,186,2,0 // vbroadcastss 0x2ba8f(%rip),%ymm14 # 3993c <_sk_srcover_bgra_8888_sse2_lowp+0x3e8> + .byte 196,98,125,24,53,131,192,2,0 // vbroadcastss 0x2c083(%rip),%ymm14 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8> .byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14 .byte 196,65,36,89,222 // vmulps %ymm14,%ymm11,%ymm11 .byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9 - .byte 196,98,125,24,21,122,186,2,0 // vbroadcastss 0x2ba7a(%rip),%ymm10 # 39940 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec> + .byte 196,98,125,24,21,110,192,2,0 // vbroadcastss 0x2c06e(%rip),%ymm10 # 3a354 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec> .byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10 .byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9 .byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0 - .byte 196,98,125,24,21,32,185,2,0 // vbroadcastss 0x2b920(%rip),%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,21,20,191,2,0 // vbroadcastss 0x2bf14(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10 .byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0 .byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9 - .byte 196,98,125,24,21,10,185,2,0 // vbroadcastss 0x2b90a(%rip),%ymm10 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,21,254,190,2,0 // vbroadcastss 0x2befe(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10 .byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0 .byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9 @@ -13753,21 +13958,21 @@ _sk_xy_to_2pt_conical_quadratic_first_hsw: .byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10 .byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10 .byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10 - .byte 196,98,125,24,29,250,185,2,0 // vbroadcastss 0x2b9fa(%rip),%ymm11 # 39944 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0> + .byte 196,98,125,24,29,238,191,2,0 // vbroadcastss 0x2bfee(%rip),%ymm11 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0> .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10 .byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11 .byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11 .byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0 .byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0 .byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0 - .byte 196,98,125,24,13,217,185,2,0 // vbroadcastss 0x2b9d9(%rip),%ymm9 # 39948 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4> + .byte 196,98,125,24,13,205,191,2,0 // vbroadcastss 0x2bfcd(%rip),%ymm9 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0 .byte 197,252,81,192 // vsqrtps %ymm0,%ymm0 .byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8 .byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0 - .byte 196,98,125,24,13,107,184,2,0 // vbroadcastss 0x2b86b(%rip),%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,13,95,190,2,0 // vbroadcastss 0x2be5f(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax @@ -13783,23 +13988,23 @@ _sk_xy_to_2pt_conical_quadratic_second_hsw: .byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10 .byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10 .byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10 - .byte 196,98,125,24,29,125,185,2,0 // vbroadcastss 0x2b97d(%rip),%ymm11 # 39944 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0> + .byte 196,98,125,24,29,113,191,2,0 // vbroadcastss 0x2bf71(%rip),%ymm11 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0> .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10 .byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11 .byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11 .byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0 .byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0 .byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0 - .byte 196,98,125,24,13,92,185,2,0 // vbroadcastss 0x2b95c(%rip),%ymm9 # 39948 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4> + .byte 196,98,125,24,13,80,191,2,0 // vbroadcastss 0x2bf50(%rip),%ymm9 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0 .byte 197,252,81,192 // vsqrtps %ymm0,%ymm0 .byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8 - .byte 196,98,125,24,13,63,185,2,0 // vbroadcastss 0x2b93f(%rip),%ymm9 # 3994c <_sk_srcover_bgra_8888_sse2_lowp+0x3f8> + .byte 196,98,125,24,13,51,191,2,0 // vbroadcastss 0x2bf33(%rip),%ymm9 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8> .byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9 .byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0 - .byte 196,98,125,24,13,225,183,2,0 // vbroadcastss 0x2b7e1(%rip),%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,13,213,189,2,0 // vbroadcastss 0x2bdd5(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax @@ -13814,14 +14019,14 @@ _sk_xy_to_2pt_conical_linear_hsw: .byte 197,58,89,72,76 // vmulss 0x4c(%rax),%xmm8,%xmm9 .byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9 .byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9 - .byte 196,98,125,24,21,249,184,2,0 // vbroadcastss 0x2b8f9(%rip),%ymm10 # 39944 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0> + .byte 196,98,125,24,21,237,190,2,0 // vbroadcastss 0x2beed(%rip),%ymm10 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0> .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9 .byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10 .byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10 .byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0 .byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0 .byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0 - .byte 196,98,125,24,5,220,184,2,0 // vbroadcastss 0x2b8dc(%rip),%ymm8 # 3994c <_sk_srcover_bgra_8888_sse2_lowp+0x3f8> + .byte 196,98,125,24,5,208,190,2,0 // vbroadcastss 0x2bed0(%rip),%ymm8 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8> .byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0 .byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax @@ -13864,7 +14069,7 @@ HIDDEN _sk_save_xy_hsw FUNCTION(_sk_save_xy_hsw) _sk_save_xy_hsw: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,98,125,24,5,27,183,2,0 // vbroadcastss 0x2b71b(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,5,15,189,2,0 // vbroadcastss 0x2bd0f(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9 .byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10 .byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9 @@ -13898,9 +14103,9 @@ HIDDEN _sk_bilinear_nx_hsw FUNCTION(_sk_bilinear_nx_hsw) _sk_bilinear_nx_hsw: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,5,245,183,2,0 // vbroadcastss 0x2b7f5(%rip),%ymm0 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> + .byte 196,226,125,24,5,233,189,2,0 // vbroadcastss 0x2bde9(%rip),%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 - .byte 196,98,125,24,5,156,182,2,0 // vbroadcastss 0x2b69c(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,144,188,2,0 // vbroadcastss 0x2bc90(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8 .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -13911,7 +14116,7 @@ HIDDEN _sk_bilinear_px_hsw FUNCTION(_sk_bilinear_px_hsw) _sk_bilinear_px_hsw: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,5,121,182,2,0 // vbroadcastss 0x2b679(%rip),%ymm0 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,226,125,24,5,109,188,2,0 // vbroadcastss 0x2bc6d(%rip),%ymm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 .byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8 .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax) @@ -13923,9 +14128,9 @@ HIDDEN _sk_bilinear_ny_hsw FUNCTION(_sk_bilinear_ny_hsw) _sk_bilinear_ny_hsw: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,13,166,183,2,0 // vbroadcastss 0x2b7a6(%rip),%ymm1 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> + .byte 196,226,125,24,13,154,189,2,0 // vbroadcastss 0x2bd9a(%rip),%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1 - .byte 196,98,125,24,5,76,182,2,0 // vbroadcastss 0x2b64c(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,64,188,2,0 // vbroadcastss 0x2bc40(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8 .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -13936,7 +14141,7 @@ HIDDEN _sk_bilinear_py_hsw FUNCTION(_sk_bilinear_py_hsw) _sk_bilinear_py_hsw: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,13,41,182,2,0 // vbroadcastss 0x2b629(%rip),%ymm1 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,226,125,24,13,29,188,2,0 // vbroadcastss 0x2bc1d(%rip),%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1 .byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8 .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax) @@ -13948,13 +14153,13 @@ HIDDEN _sk_bicubic_n3x_hsw FUNCTION(_sk_bicubic_n3x_hsw) _sk_bicubic_n3x_hsw: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,5,89,183,2,0 // vbroadcastss 0x2b759(%rip),%ymm0 # 39954 <_sk_srcover_bgra_8888_sse2_lowp+0x400> + .byte 196,226,125,24,5,77,189,2,0 // vbroadcastss 0x2bd4d(%rip),%ymm0 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 - .byte 196,98,125,24,5,252,181,2,0 // vbroadcastss 0x2b5fc(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,240,187,2,0 // vbroadcastss 0x2bbf0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8 .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 - .byte 196,98,125,24,21,90,182,2,0 // vbroadcastss 0x2b65a(%rip),%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324> - .byte 196,98,125,24,29,49,183,2,0 // vbroadcastss 0x2b731(%rip),%ymm11 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404> + .byte 196,98,125,24,21,78,188,2,0 // vbroadcastss 0x2bc4e(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324> + .byte 196,98,125,24,29,37,189,2,0 // vbroadcastss 0x2bd25(%rip),%ymm11 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404> .byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11 .byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8 .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax) @@ -13966,16 +14171,16 @@ HIDDEN _sk_bicubic_n1x_hsw FUNCTION(_sk_bicubic_n1x_hsw) _sk_bicubic_n1x_hsw: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,5,8,183,2,0 // vbroadcastss 0x2b708(%rip),%ymm0 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> + .byte 196,226,125,24,5,252,188,2,0 // vbroadcastss 0x2bcfc(%rip),%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 - .byte 196,98,125,24,5,175,181,2,0 // vbroadcastss 0x2b5af(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,163,187,2,0 // vbroadcastss 0x2bba3(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8 - .byte 196,98,125,24,13,250,182,2,0 // vbroadcastss 0x2b6fa(%rip),%ymm9 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> - .byte 196,98,125,24,21,237,182,2,0 // vbroadcastss 0x2b6ed(%rip),%ymm10 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408> + .byte 196,98,125,24,13,238,188,2,0 // vbroadcastss 0x2bcee(%rip),%ymm9 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> + .byte 196,98,125,24,21,225,188,2,0 // vbroadcastss 0x2bce1(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408> .byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10 - .byte 196,98,125,24,13,131,181,2,0 // vbroadcastss 0x2b583(%rip),%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,13,119,187,2,0 // vbroadcastss 0x2bb77(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9 - .byte 196,98,125,24,21,217,182,2,0 // vbroadcastss 0x2b6d9(%rip),%ymm10 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410> + .byte 196,98,125,24,21,205,188,2,0 // vbroadcastss 0x2bccd(%rip),%ymm10 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410> .byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10 .byte 197,124,17,144,0,1,0,0 // vmovups %ymm10,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -13986,14 +14191,14 @@ HIDDEN _sk_bicubic_p1x_hsw FUNCTION(_sk_bicubic_p1x_hsw) _sk_bicubic_p1x_hsw: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,98,125,24,5,89,181,2,0 // vbroadcastss 0x2b559(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,5,77,187,2,0 // vbroadcastss 0x2bb4d(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0 .byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9 - .byte 196,98,125,24,21,164,182,2,0 // vbroadcastss 0x2b6a4(%rip),%ymm10 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> - .byte 196,98,125,24,29,151,182,2,0 // vbroadcastss 0x2b697(%rip),%ymm11 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408> + .byte 196,98,125,24,21,152,188,2,0 // vbroadcastss 0x2bc98(%rip),%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> + .byte 196,98,125,24,29,139,188,2,0 // vbroadcastss 0x2bc8b(%rip),%ymm11 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408> .byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11 .byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11 - .byte 196,98,125,24,5,140,182,2,0 // vbroadcastss 0x2b68c(%rip),%ymm8 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410> + .byte 196,98,125,24,5,128,188,2,0 // vbroadcastss 0x2bc80(%rip),%ymm8 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410> .byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8 .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -14004,12 +14209,12 @@ HIDDEN _sk_bicubic_p3x_hsw FUNCTION(_sk_bicubic_p3x_hsw) _sk_bicubic_p3x_hsw: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,5,108,182,2,0 // vbroadcastss 0x2b66c(%rip),%ymm0 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> + .byte 196,226,125,24,5,96,188,2,0 // vbroadcastss 0x2bc60(%rip),%ymm0 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 .byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8 .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 - .byte 196,98,125,24,21,106,181,2,0 // vbroadcastss 0x2b56a(%rip),%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324> - .byte 196,98,125,24,29,65,182,2,0 // vbroadcastss 0x2b641(%rip),%ymm11 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404> + .byte 196,98,125,24,21,94,187,2,0 // vbroadcastss 0x2bb5e(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324> + .byte 196,98,125,24,29,53,188,2,0 // vbroadcastss 0x2bc35(%rip),%ymm11 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404> .byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11 .byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8 .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax) @@ -14021,13 +14226,13 @@ HIDDEN _sk_bicubic_n3y_hsw FUNCTION(_sk_bicubic_n3y_hsw) _sk_bicubic_n3y_hsw: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,13,28,182,2,0 // vbroadcastss 0x2b61c(%rip),%ymm1 # 39954 <_sk_srcover_bgra_8888_sse2_lowp+0x400> + .byte 196,226,125,24,13,16,188,2,0 // vbroadcastss 0x2bc10(%rip),%ymm1 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400> .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1 - .byte 196,98,125,24,5,190,180,2,0 // vbroadcastss 0x2b4be(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,178,186,2,0 // vbroadcastss 0x2bab2(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8 .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 - .byte 196,98,125,24,21,28,181,2,0 // vbroadcastss 0x2b51c(%rip),%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324> - .byte 196,98,125,24,29,243,181,2,0 // vbroadcastss 0x2b5f3(%rip),%ymm11 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404> + .byte 196,98,125,24,21,16,187,2,0 // vbroadcastss 0x2bb10(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324> + .byte 196,98,125,24,29,231,187,2,0 // vbroadcastss 0x2bbe7(%rip),%ymm11 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404> .byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11 .byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8 .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax) @@ -14039,16 +14244,16 @@ HIDDEN _sk_bicubic_n1y_hsw FUNCTION(_sk_bicubic_n1y_hsw) _sk_bicubic_n1y_hsw: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,13,202,181,2,0 // vbroadcastss 0x2b5ca(%rip),%ymm1 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> + .byte 196,226,125,24,13,190,187,2,0 // vbroadcastss 0x2bbbe(%rip),%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1 - .byte 196,98,125,24,5,112,180,2,0 // vbroadcastss 0x2b470(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,100,186,2,0 // vbroadcastss 0x2ba64(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8 - .byte 196,98,125,24,13,187,181,2,0 // vbroadcastss 0x2b5bb(%rip),%ymm9 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> - .byte 196,98,125,24,21,174,181,2,0 // vbroadcastss 0x2b5ae(%rip),%ymm10 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408> + .byte 196,98,125,24,13,175,187,2,0 // vbroadcastss 0x2bbaf(%rip),%ymm9 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> + .byte 196,98,125,24,21,162,187,2,0 // vbroadcastss 0x2bba2(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408> .byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10 - .byte 196,98,125,24,13,68,180,2,0 // vbroadcastss 0x2b444(%rip),%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,13,56,186,2,0 // vbroadcastss 0x2ba38(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9 - .byte 196,98,125,24,21,154,181,2,0 // vbroadcastss 0x2b59a(%rip),%ymm10 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410> + .byte 196,98,125,24,21,142,187,2,0 // vbroadcastss 0x2bb8e(%rip),%ymm10 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410> .byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10 .byte 197,124,17,144,64,1,0,0 // vmovups %ymm10,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -14059,14 +14264,14 @@ HIDDEN _sk_bicubic_p1y_hsw FUNCTION(_sk_bicubic_p1y_hsw) _sk_bicubic_p1y_hsw: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,98,125,24,5,26,180,2,0 // vbroadcastss 0x2b41a(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,5,14,186,2,0 // vbroadcastss 0x2ba0e(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1 .byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9 - .byte 196,98,125,24,21,100,181,2,0 // vbroadcastss 0x2b564(%rip),%ymm10 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> - .byte 196,98,125,24,29,87,181,2,0 // vbroadcastss 0x2b557(%rip),%ymm11 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408> + .byte 196,98,125,24,21,88,187,2,0 // vbroadcastss 0x2bb58(%rip),%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> + .byte 196,98,125,24,29,75,187,2,0 // vbroadcastss 0x2bb4b(%rip),%ymm11 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408> .byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11 .byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11 - .byte 196,98,125,24,5,76,181,2,0 // vbroadcastss 0x2b54c(%rip),%ymm8 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410> + .byte 196,98,125,24,5,64,187,2,0 // vbroadcastss 0x2bb40(%rip),%ymm8 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410> .byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8 .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -14077,12 +14282,12 @@ HIDDEN _sk_bicubic_p3y_hsw FUNCTION(_sk_bicubic_p3y_hsw) _sk_bicubic_p3y_hsw: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,13,44,181,2,0 // vbroadcastss 0x2b52c(%rip),%ymm1 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> + .byte 196,226,125,24,13,32,187,2,0 // vbroadcastss 0x2bb20(%rip),%ymm1 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1 .byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8 .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 - .byte 196,98,125,24,21,41,180,2,0 // vbroadcastss 0x2b429(%rip),%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324> - .byte 196,98,125,24,29,0,181,2,0 // vbroadcastss 0x2b500(%rip),%ymm11 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404> + .byte 196,98,125,24,21,29,186,2,0 // vbroadcastss 0x2ba1d(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324> + .byte 196,98,125,24,29,244,186,2,0 // vbroadcastss 0x2baf4(%rip),%ymm11 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404> .byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11 .byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8 .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax) @@ -14222,7 +14427,7 @@ _sk_clut_3D_hsw: .byte 196,98,93,64,218 // vpmulld %ymm2,%ymm4,%ymm11 .byte 72,139,0 // mov (%rax),%rax .byte 197,165,254,193 // vpaddd %ymm1,%ymm11,%ymm0 - .byte 196,98,125,88,61,194,178,2,0 // vpbroadcastd 0x2b2c2(%rip),%ymm15 # 3996c <_sk_srcover_bgra_8888_sse2_lowp+0x418> + .byte 196,98,125,88,61,182,184,2,0 // vpbroadcastd 0x2b8b6(%rip),%ymm15 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418> .byte 196,194,125,64,199 // vpmulld %ymm15,%ymm0,%ymm0 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2 @@ -14234,13 +14439,13 @@ _sk_clut_3D_hsw: .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5 .byte 196,226,85,146,60,144 // vgatherdps %ymm5,(%rax,%ymm2,4),%ymm7 .byte 197,252,17,188,36,0,2,0,0 // vmovups %ymm7,0x200(%rsp) - .byte 196,226,125,88,61,32,177,2,0 // vpbroadcastd 0x2b120(%rip),%ymm7 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc> + .byte 196,226,125,88,61,20,183,2,0 // vpbroadcastd 0x2b714(%rip),%ymm7 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc> .byte 197,253,254,199 // vpaddd %ymm7,%ymm0,%ymm0 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5 .byte 196,226,85,146,20,128 // vgatherdps %ymm5,(%rax,%ymm0,4),%ymm2 .byte 197,252,17,148,36,32,1,0,0 // vmovups %ymm2,0x120(%rsp) - .byte 196,226,125,24,5,84,178,2,0 // vbroadcastss 0x2b254(%rip),%ymm0 # 39968 <_sk_srcover_bgra_8888_sse2_lowp+0x414> + .byte 196,226,125,24,5,72,184,2,0 // vbroadcastss 0x2b848(%rip),%ymm0 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414> .byte 197,172,88,232 // vaddps %ymm0,%ymm10,%ymm5 .byte 197,254,91,237 // vcvttps2dq %ymm5,%ymm5 .byte 196,226,93,64,213 // vpmulld %ymm5,%ymm4,%ymm2 @@ -14502,7 +14707,7 @@ _sk_clut_4D_hsw: .byte 197,254,127,132,36,0,1,0,0 // vmovdqu %ymm0,0x100(%rsp) .byte 196,98,109,64,200 // vpmulld %ymm0,%ymm2,%ymm9 .byte 197,181,254,199 // vpaddd %ymm7,%ymm9,%ymm0 - .byte 196,98,125,88,21,237,172,2,0 // vpbroadcastd 0x2aced(%rip),%ymm10 # 3996c <_sk_srcover_bgra_8888_sse2_lowp+0x418> + .byte 196,98,125,88,21,225,178,2,0 // vpbroadcastd 0x2b2e1(%rip),%ymm10 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418> .byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0 .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 @@ -14514,13 +14719,13 @@ _sk_clut_4D_hsw: .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11 .byte 196,98,61,146,28,168 // vgatherdps %ymm8,(%rax,%ymm5,4),%ymm11 .byte 197,124,17,156,36,192,0,0,0 // vmovups %ymm11,0xc0(%rsp) - .byte 196,98,125,88,29,72,171,2,0 // vpbroadcastd 0x2ab48(%rip),%ymm11 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc> + .byte 196,98,125,88,29,60,177,2,0 // vpbroadcastd 0x2b13c(%rip),%ymm11 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc> .byte 196,193,125,254,195 // vpaddd %ymm11,%ymm0,%ymm0 .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8 .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5 .byte 196,226,61,146,44,128 // vgatherdps %ymm8,(%rax,%ymm0,4),%ymm5 .byte 197,252,17,108,36,32 // vmovups %ymm5,0x20(%rsp) - .byte 196,226,125,24,5,125,172,2,0 // vbroadcastss 0x2ac7d(%rip),%ymm0 # 39968 <_sk_srcover_bgra_8888_sse2_lowp+0x414> + .byte 196,226,125,24,5,113,178,2,0 // vbroadcastss 0x2b271(%rip),%ymm0 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414> .byte 197,116,88,192 // vaddps %ymm0,%ymm1,%ymm8 .byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8 .byte 196,194,109,64,232 // vpmulld %ymm8,%ymm2,%ymm5 @@ -14953,7 +15158,7 @@ _sk_clut_4D_hsw: .byte 196,193,100,92,210 // vsubps %ymm10,%ymm3,%ymm2 .byte 196,194,77,168,210 // vfmadd213ps %ymm10,%ymm6,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,107,161,2,0 // vbroadcastss 0x2a16b(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,95,167,2,0 // vbroadcastss 0x2a75f(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,16,164,36,96,6,0,0 // vmovups 0x660(%rsp),%ymm4 .byte 197,252,16,172,36,128,6,0,0 // vmovups 0x680(%rsp),%ymm5 .byte 197,252,16,180,36,160,6,0,0 // vmovups 0x6a0(%rsp),%ymm6 @@ -14965,14 +15170,14 @@ HIDDEN _sk_gauss_a_to_rgba_hsw .globl _sk_gauss_a_to_rgba_hsw FUNCTION(_sk_gauss_a_to_rgba_hsw) _sk_gauss_a_to_rgba_hsw: - .byte 196,226,125,24,5,165,162,2,0 // vbroadcastss 0x2a2a5(%rip),%ymm0 # 39974 <_sk_srcover_bgra_8888_sse2_lowp+0x420> - .byte 196,226,125,24,13,152,162,2,0 // vbroadcastss 0x2a298(%rip),%ymm1 # 39970 <_sk_srcover_bgra_8888_sse2_lowp+0x41c> + .byte 196,226,125,24,5,153,168,2,0 // vbroadcastss 0x2a899(%rip),%ymm0 # 3a388 <_sk_srcover_bgra_8888_sse2_lowp+0x420> + .byte 196,226,125,24,13,140,168,2,0 // vbroadcastss 0x2a88c(%rip),%ymm1 # 3a384 <_sk_srcover_bgra_8888_sse2_lowp+0x41c> .byte 196,226,101,168,200 // vfmadd213ps %ymm0,%ymm3,%ymm1 - .byte 196,226,125,24,5,146,162,2,0 // vbroadcastss 0x2a292(%rip),%ymm0 # 39978 <_sk_srcover_bgra_8888_sse2_lowp+0x424> + .byte 196,226,125,24,5,134,168,2,0 // vbroadcastss 0x2a886(%rip),%ymm0 # 3a38c <_sk_srcover_bgra_8888_sse2_lowp+0x424> .byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0 - .byte 196,226,125,24,13,136,162,2,0 // vbroadcastss 0x2a288(%rip),%ymm1 # 3997c <_sk_srcover_bgra_8888_sse2_lowp+0x428> + .byte 196,226,125,24,13,124,168,2,0 // vbroadcastss 0x2a87c(%rip),%ymm1 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x428> .byte 196,226,101,184,200 // vfmadd231ps %ymm0,%ymm3,%ymm1 - .byte 196,226,125,24,5,126,162,2,0 // vbroadcastss 0x2a27e(%rip),%ymm0 # 39980 <_sk_srcover_bgra_8888_sse2_lowp+0x42c> + .byte 196,226,125,24,5,114,168,2,0 // vbroadcastss 0x2a872(%rip),%ymm0 # 3a394 <_sk_srcover_bgra_8888_sse2_lowp+0x42c> .byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 @@ -15002,13 +15207,13 @@ _sk_start_pipeline_avx: .byte 73,137,246 // mov %rsi,%r14 .byte 72,137,77,192 // mov %rcx,-0x40(%rbp) .byte 72,57,203 // cmp %rcx,%rbx - .byte 15,131,151,0,0,0 // jae f7e2 <_sk_start_pipeline_avx+0xca> + .byte 15,131,151,0,0,0 // jae fc02 <_sk_start_pipeline_avx+0xca> .byte 72,139,69,208 // mov -0x30(%rbp),%rax .byte 72,141,64,8 // lea 0x8(%rax),%rax .byte 72,137,69,200 // mov %rax,-0x38(%rbp) .byte 72,139,85,208 // mov -0x30(%rbp),%rdx .byte 76,57,125,200 // cmp %r15,-0x38(%rbp) - .byte 119,67 // ja f7a4 <_sk_start_pipeline_avx+0x8c> + .byte 119,67 // ja fbc4 <_sk_start_pipeline_avx+0x8c> .byte 76,139,101,208 // mov -0x30(%rbp),%r12 .byte 49,255 // xor %edi,%edi .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 @@ -15027,10 +15232,10 @@ _sk_start_pipeline_avx: .byte 73,131,196,16 // add $0x10,%r12 .byte 77,57,252 // cmp %r15,%r12 .byte 73,137,212 // mov %rdx,%r12 - .byte 118,193 // jbe f765 <_sk_start_pipeline_avx+0x4d> + .byte 118,193 // jbe fb85 <_sk_start_pipeline_avx+0x4d> .byte 76,137,255 // mov %r15,%rdi .byte 72,41,215 // sub %rdx,%rdi - .byte 116,41 // je f7d5 <_sk_start_pipeline_avx+0xbd> + .byte 116,41 // je fbf5 <_sk_start_pipeline_avx+0xbd> .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 @@ -15044,7 +15249,7 @@ _sk_start_pipeline_avx: .byte 65,255,213 // callq *%r13 .byte 72,255,195 // inc %rbx .byte 72,59,93,192 // cmp -0x40(%rbp),%rbx - .byte 15,133,117,255,255,255 // jne f757 <_sk_start_pipeline_avx+0x3f> + .byte 15,133,117,255,255,255 // jne fb77 <_sk_start_pipeline_avx+0x3f> .byte 72,131,196,24 // add $0x18,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 @@ -15075,10 +15280,10 @@ _sk_seed_shader_avx: .byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1 .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 - .byte 196,226,125,24,21,214,159,2,0 // vbroadcastss 0x29fd6(%rip),%ymm2 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,226,125,24,21,202,165,2,0 // vbroadcastss 0x2a5ca(%rip),%ymm2 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,21,203,159,2,0 // vbroadcastss 0x29fcb(%rip),%ymm2 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,21,191,165,2,0 // vbroadcastss 0x2a5bf(%rip),%ymm2 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3 .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4 .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5 @@ -15092,46 +15297,46 @@ FUNCTION(_sk_dither_avx) _sk_dither_avx: .byte 197,121,110,194 // vmovd %edx,%xmm8 .byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8 - .byte 197,57,254,13,159,168,2,0 // vpaddd 0x2a89f(%rip),%xmm8,%xmm9 # 3a100 <_sk_srcover_bgra_8888_sse2_lowp+0xbac> - .byte 197,57,254,5,167,168,2,0 // vpaddd 0x2a8a7(%rip),%xmm8,%xmm8 # 3a110 <_sk_srcover_bgra_8888_sse2_lowp+0xbbc> + .byte 197,57,254,13,159,174,2,0 // vpaddd 0x2ae9f(%rip),%xmm8,%xmm9 # 3ab20 <_sk_srcover_bgra_8888_sse2_lowp+0xbb8> + .byte 197,57,254,5,167,174,2,0 // vpaddd 0x2aea7(%rip),%xmm8,%xmm8 # 3ab30 <_sk_srcover_bgra_8888_sse2_lowp+0xbc8> .byte 196,67,53,24,208,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm10 .byte 197,121,110,217 // vmovd %ecx,%xmm11 .byte 196,65,121,112,219,0 // vpshufd $0x0,%xmm11,%xmm11 .byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11 .byte 196,65,36,87,218 // vxorps %ymm10,%ymm11,%ymm11 - .byte 196,98,125,24,21,123,159,2,0 // vbroadcastss 0x29f7b(%rip),%ymm10 # 39808 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4> + .byte 196,98,125,24,21,111,165,2,0 // vbroadcastss 0x2a56f(%rip),%ymm10 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4> .byte 196,65,36,84,210 // vandps %ymm10,%ymm11,%ymm10 .byte 196,193,25,114,242,5 // vpslld $0x5,%xmm10,%xmm12 .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 .byte 196,193,41,114,242,5 // vpslld $0x5,%xmm10,%xmm10 .byte 196,67,29,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm12,%ymm10 - .byte 197,123,18,37,158,176,2,0 // vmovddup 0x2b09e(%rip),%xmm12 # 3a950 <_sk_srcover_bgra_8888_sse2_lowp+0x13fc> + .byte 197,123,18,37,158,182,2,0 // vmovddup 0x2b69e(%rip),%xmm12 # 3b370 <_sk_srcover_bgra_8888_sse2_lowp+0x1408> .byte 196,65,49,219,236 // vpand %xmm12,%xmm9,%xmm13 .byte 196,193,17,114,245,4 // vpslld $0x4,%xmm13,%xmm13 .byte 196,65,57,219,228 // vpand %xmm12,%xmm8,%xmm12 .byte 196,193,25,114,244,4 // vpslld $0x4,%xmm12,%xmm12 .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12 - .byte 196,98,125,24,45,57,159,2,0 // vbroadcastss 0x29f39(%rip),%ymm13 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc> + .byte 196,98,125,24,45,45,165,2,0 // vbroadcastss 0x2a52d(%rip),%ymm13 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc> .byte 196,65,36,84,237 // vandps %ymm13,%ymm11,%ymm13 .byte 196,193,9,114,245,2 // vpslld $0x2,%xmm13,%xmm14 .byte 196,67,125,25,237,1 // vextractf128 $0x1,%ymm13,%xmm13 .byte 196,193,17,114,245,2 // vpslld $0x2,%xmm13,%xmm13 .byte 196,67,13,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm14,%ymm13 - .byte 197,123,18,53,92,176,2,0 // vmovddup 0x2b05c(%rip),%xmm14 # 3a958 <_sk_srcover_bgra_8888_sse2_lowp+0x1404> + .byte 197,123,18,53,92,182,2,0 // vmovddup 0x2b65c(%rip),%xmm14 # 3b378 <_sk_srcover_bgra_8888_sse2_lowp+0x1410> .byte 196,65,49,219,254 // vpand %xmm14,%xmm9,%xmm15 .byte 196,65,1,254,255 // vpaddd %xmm15,%xmm15,%xmm15 .byte 196,65,57,219,246 // vpand %xmm14,%xmm8,%xmm14 .byte 196,65,9,254,246 // vpaddd %xmm14,%xmm14,%xmm14 .byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14 .byte 196,65,12,86,228 // vorps %ymm12,%ymm14,%ymm12 - .byte 196,98,125,24,53,232,158,2,0 // vbroadcastss 0x29ee8(%rip),%ymm14 # 3980c <_sk_srcover_bgra_8888_sse2_lowp+0x2b8> + .byte 196,98,125,24,53,220,164,2,0 // vbroadcastss 0x2a4dc(%rip),%ymm14 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8> .byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11 .byte 196,193,9,114,211,1 // vpsrld $0x1,%xmm11,%xmm14 .byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11 .byte 196,193,33,114,211,1 // vpsrld $0x1,%xmm11,%xmm11 .byte 196,67,13,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm14,%ymm11 .byte 196,65,20,86,219 // vorps %ymm11,%ymm13,%ymm11 - .byte 197,123,18,45,18,176,2,0 // vmovddup 0x2b012(%rip),%xmm13 # 3a960 <_sk_srcover_bgra_8888_sse2_lowp+0x140c> + .byte 197,123,18,45,18,182,2,0 // vmovddup 0x2b612(%rip),%xmm13 # 3b380 <_sk_srcover_bgra_8888_sse2_lowp+0x1418> .byte 196,65,49,219,205 // vpand %xmm13,%xmm9,%xmm9 .byte 196,65,57,219,197 // vpand %xmm13,%xmm8,%xmm8 .byte 196,193,49,114,209,2 // vpsrld $0x2,%xmm9,%xmm9 @@ -15142,9 +15347,9 @@ _sk_dither_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 196,65,60,86,195 // vorps %ymm11,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 196,98,125,24,13,139,158,2,0 // vbroadcastss 0x29e8b(%rip),%ymm9 # 39814 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0> + .byte 196,98,125,24,13,127,164,2,0 // vbroadcastss 0x2a47f(%rip),%ymm9 # 3a228 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 - .byte 196,98,125,24,13,129,158,2,0 // vbroadcastss 0x29e81(%rip),%ymm9 # 39818 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4> + .byte 196,98,125,24,13,117,164,2,0 // vbroadcastss 0x2a475(%rip),%ymm9 # 3a22c <_sk_srcover_bgra_8888_sse2_lowp+0x2c4> .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9 .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 @@ -15178,7 +15383,7 @@ HIDDEN _sk_black_color_avx FUNCTION(_sk_black_color_avx) _sk_black_color_avx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,9,158,2,0 // vbroadcastss 0x29e09(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,253,163,2,0 // vbroadcastss 0x2a3fd(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 @@ -15189,7 +15394,7 @@ HIDDEN _sk_white_color_avx FUNCTION(_sk_white_color_avx) _sk_white_color_avx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,5,240,157,2,0 // vbroadcastss 0x29df0(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,5,228,163,2,0 // vbroadcastss 0x2a3e4(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 197,252,40,216 // vmovaps %ymm0,%ymm3 @@ -15235,7 +15440,7 @@ HIDDEN _sk_srcatop_avx FUNCTION(_sk_srcatop_avx) _sk_srcatop_avx: .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0 - .byte 196,98,125,24,5,143,157,2,0 // vbroadcastss 0x29d8f(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,131,163,2,0 // vbroadcastss 0x2a383(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9 .byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0 @@ -15256,7 +15461,7 @@ HIDDEN _sk_dstatop_avx FUNCTION(_sk_dstatop_avx) _sk_dstatop_avx: .byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8 - .byte 196,98,125,24,13,77,157,2,0 // vbroadcastss 0x29d4d(%rip),%ymm9 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,13,65,163,2,0 // vbroadcastss 0x2a341(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,52,92,207 // vsubps %ymm7,%ymm9,%ymm9 .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0 .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0 @@ -15298,7 +15503,7 @@ HIDDEN _sk_srcout_avx .globl _sk_srcout_avx FUNCTION(_sk_srcout_avx) _sk_srcout_avx: - .byte 196,98,125,24,5,232,156,2,0 // vbroadcastss 0x29ce8(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,220,162,2,0 // vbroadcastss 0x2a2dc(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 @@ -15311,7 +15516,7 @@ HIDDEN _sk_dstout_avx .globl _sk_dstout_avx FUNCTION(_sk_dstout_avx) _sk_dstout_avx: - .byte 196,226,125,24,5,199,156,2,0 // vbroadcastss 0x29cc7(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,5,187,162,2,0 // vbroadcastss 0x2a2bb(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3 .byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0 .byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1 @@ -15324,7 +15529,7 @@ HIDDEN _sk_srcover_avx .globl _sk_srcover_avx FUNCTION(_sk_srcover_avx) _sk_srcover_avx: - .byte 196,98,125,24,5,166,156,2,0 // vbroadcastss 0x29ca6(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,154,162,2,0 // vbroadcastss 0x2a29a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9 .byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0 @@ -15341,7 +15546,7 @@ HIDDEN _sk_dstover_avx .globl _sk_dstover_avx FUNCTION(_sk_dstover_avx) _sk_dstover_avx: - .byte 196,98,125,24,5,117,156,2,0 // vbroadcastss 0x29c75(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,105,162,2,0 // vbroadcastss 0x2a269(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0 @@ -15369,7 +15574,7 @@ HIDDEN _sk_multiply_avx .globl _sk_multiply_avx FUNCTION(_sk_multiply_avx) _sk_multiply_avx: - .byte 196,98,125,24,5,48,156,2,0 // vbroadcastss 0x29c30(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,36,162,2,0 // vbroadcastss 0x2a224(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 @@ -15400,7 +15605,7 @@ HIDDEN _sk_plus__avx FUNCTION(_sk_plus__avx) _sk_plus__avx: .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0 - .byte 196,98,125,24,5,191,155,2,0 // vbroadcastss 0x29bbf(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,179,161,2,0 // vbroadcastss 0x2a1b3(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1 .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1 @@ -15434,7 +15639,7 @@ HIDDEN _sk_xor__avx .globl _sk_xor__avx FUNCTION(_sk_xor__avx) _sk_xor__avx: - .byte 196,98,125,24,5,94,155,2,0 // vbroadcastss 0x29b5e(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,82,161,2,0 // vbroadcastss 0x2a152(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 @@ -15471,7 +15676,7 @@ _sk_darken_avx: .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9 .byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 - .byte 196,98,125,24,5,218,154,2,0 // vbroadcastss 0x29ada(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,206,160,2,0 // vbroadcastss 0x2a0ce(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3 @@ -15497,7 +15702,7 @@ _sk_lighten_avx: .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9 .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 - .byte 196,98,125,24,5,130,154,2,0 // vbroadcastss 0x29a82(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,118,160,2,0 // vbroadcastss 0x2a076(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3 @@ -15526,7 +15731,7 @@ _sk_difference_avx: .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2 .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 - .byte 196,98,125,24,5,30,154,2,0 // vbroadcastss 0x29a1e(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,18,160,2,0 // vbroadcastss 0x2a012(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3 @@ -15549,7 +15754,7 @@ _sk_exclusion_avx: .byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2 .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 - .byte 196,98,125,24,5,213,153,2,0 // vbroadcastss 0x299d5(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,201,159,2,0 // vbroadcastss 0x29fc9(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3 @@ -15560,7 +15765,7 @@ HIDDEN _sk_colorburn_avx .globl _sk_colorburn_avx FUNCTION(_sk_colorburn_avx) _sk_colorburn_avx: - .byte 196,98,125,24,5,188,153,2,0 // vbroadcastss 0x299bc(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,176,159,2,0 // vbroadcastss 0x29fb0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11 .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10 @@ -15622,7 +15827,7 @@ HIDDEN _sk_colordodge_avx FUNCTION(_sk_colordodge_avx) _sk_colordodge_avx: .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 - .byte 196,98,125,24,13,192,152,2,0 // vbroadcastss 0x298c0(%rip),%ymm9 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,13,180,158,2,0 // vbroadcastss 0x29eb4(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10 .byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11 .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9 @@ -15679,7 +15884,7 @@ HIDDEN _sk_hardlight_avx .globl _sk_hardlight_avx FUNCTION(_sk_hardlight_avx) _sk_hardlight_avx: - .byte 196,98,125,24,5,203,151,2,0 // vbroadcastss 0x297cb(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,191,157,2,0 // vbroadcastss 0x29dbf(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10 .byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 @@ -15734,7 +15939,7 @@ HIDDEN _sk_overlay_avx .globl _sk_overlay_avx FUNCTION(_sk_overlay_avx) _sk_overlay_avx: - .byte 196,98,125,24,5,240,150,2,0 // vbroadcastss 0x296f0(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,228,156,2,0 // vbroadcastss 0x29ce4(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10 .byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 @@ -15800,10 +16005,10 @@ _sk_softlight_avx: .byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8 .byte 196,65,60,89,216 // vmulps %ymm8,%ymm8,%ymm11 .byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8 - .byte 196,98,125,24,29,247,149,2,0 // vbroadcastss 0x295f7(%rip),%ymm11 # 3981c <_sk_srcover_bgra_8888_sse2_lowp+0x2c8> + .byte 196,98,125,24,29,235,155,2,0 // vbroadcastss 0x29beb(%rip),%ymm11 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8> .byte 196,65,28,88,235 // vaddps %ymm11,%ymm12,%ymm13 .byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8 - .byte 196,98,125,24,45,232,149,2,0 // vbroadcastss 0x295e8(%rip),%ymm13 # 39820 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc> + .byte 196,98,125,24,45,220,155,2,0 // vbroadcastss 0x29bdc(%rip),%ymm13 # 3a234 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc> .byte 196,65,28,89,245 // vmulps %ymm13,%ymm12,%ymm14 .byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8 .byte 196,65,124,82,244 // vrsqrtps %ymm12,%ymm14 @@ -15814,7 +16019,7 @@ _sk_softlight_avx: .byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15 .byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14 .byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15 - .byte 196,98,125,24,5,146,149,2,0 // vbroadcastss 0x29592(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,134,155,2,0 // vbroadcastss 0x29b86(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,65,60,92,228 // vsubps %ymm12,%ymm8,%ymm12 .byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0 .byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12 @@ -15941,12 +16146,12 @@ _sk_hue_avx: .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11 .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11 .byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12 - .byte 196,98,125,24,53,117,147,2,0 // vbroadcastss 0x29375(%rip),%ymm14 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> + .byte 196,98,125,24,53,105,153,2,0 // vbroadcastss 0x29969(%rip),%ymm14 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> .byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11 - .byte 196,98,125,24,61,107,147,2,0 // vbroadcastss 0x2936b(%rip),%ymm15 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> + .byte 196,98,125,24,61,95,153,2,0 // vbroadcastss 0x2995f(%rip),%ymm15 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> .byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13 .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11 - .byte 196,226,125,24,5,92,147,2,0 // vbroadcastss 0x2935c(%rip),%ymm0 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> + .byte 196,226,125,24,5,80,153,2,0 // vbroadcastss 0x29950(%rip),%ymm0 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> .byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13 .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11 .byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13 @@ -16007,7 +16212,7 @@ _sk_hue_avx: .byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10 .byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2 .byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2 - .byte 196,98,125,24,5,9,146,2,0 // vbroadcastss 0x29209(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,253,151,2,0 // vbroadcastss 0x297fd(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 @@ -16064,12 +16269,12 @@ _sk_saturation_avx: .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11 .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11 .byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12 - .byte 196,98,125,24,53,51,145,2,0 // vbroadcastss 0x29133(%rip),%ymm14 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> + .byte 196,98,125,24,53,39,151,2,0 // vbroadcastss 0x29727(%rip),%ymm14 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> .byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11 - .byte 196,98,125,24,61,41,145,2,0 // vbroadcastss 0x29129(%rip),%ymm15 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> + .byte 196,98,125,24,61,29,151,2,0 // vbroadcastss 0x2971d(%rip),%ymm15 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> .byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13 .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11 - .byte 196,226,125,24,5,26,145,2,0 // vbroadcastss 0x2911a(%rip),%ymm0 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> + .byte 196,226,125,24,5,14,151,2,0 // vbroadcastss 0x2970e(%rip),%ymm0 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> .byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13 .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11 .byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13 @@ -16130,7 +16335,7 @@ _sk_saturation_avx: .byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10 .byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2 .byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2 - .byte 196,98,125,24,5,199,143,2,0 // vbroadcastss 0x28fc7(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,187,149,2,0 // vbroadcastss 0x295bb(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9 .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1 .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 @@ -16159,12 +16364,12 @@ _sk_color_avx: .byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp) .byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8 .byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9 - .byte 196,98,125,24,45,121,143,2,0 // vbroadcastss 0x28f79(%rip),%ymm13 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> + .byte 196,98,125,24,45,109,149,2,0 // vbroadcastss 0x2956d(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> .byte 196,65,92,89,213 // vmulps %ymm13,%ymm4,%ymm10 - .byte 196,98,125,24,53,111,143,2,0 // vbroadcastss 0x28f6f(%rip),%ymm14 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> + .byte 196,98,125,24,53,99,149,2,0 // vbroadcastss 0x29563(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> .byte 196,65,84,89,222 // vmulps %ymm14,%ymm5,%ymm11 .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 - .byte 196,98,125,24,61,96,143,2,0 // vbroadcastss 0x28f60(%rip),%ymm15 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> + .byte 196,98,125,24,61,84,149,2,0 // vbroadcastss 0x29554(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> .byte 196,65,76,89,223 // vmulps %ymm15,%ymm6,%ymm11 .byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0 .byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11 @@ -16227,7 +16432,7 @@ _sk_color_avx: .byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9 .byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0 .byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8 - .byte 196,226,125,24,5,251,141,2,0 // vbroadcastss 0x28dfb(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,5,239,147,2,0 // vbroadcastss 0x293ef(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10 .byte 197,172,89,84,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm2 .byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11 @@ -16257,12 +16462,12 @@ _sk_luminosity_avx: .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8 .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9 - .byte 196,98,125,24,45,169,141,2,0 // vbroadcastss 0x28da9(%rip),%ymm13 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> + .byte 196,98,125,24,45,157,147,2,0 // vbroadcastss 0x2939d(%rip),%ymm13 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> .byte 196,65,108,89,213 // vmulps %ymm13,%ymm2,%ymm10 - .byte 196,98,125,24,53,159,141,2,0 // vbroadcastss 0x28d9f(%rip),%ymm14 # 39828 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> + .byte 196,98,125,24,53,147,147,2,0 // vbroadcastss 0x29393(%rip),%ymm14 # 3a23c <_sk_srcover_bgra_8888_sse2_lowp+0x2d4> .byte 196,65,116,89,222 // vmulps %ymm14,%ymm1,%ymm11 .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 - .byte 196,98,125,24,61,144,141,2,0 // vbroadcastss 0x28d90(%rip),%ymm15 # 3982c <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> + .byte 196,98,125,24,61,132,147,2,0 // vbroadcastss 0x29384(%rip),%ymm15 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8> .byte 196,65,28,89,223 // vmulps %ymm15,%ymm12,%ymm11 .byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0 .byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11 @@ -16325,7 +16530,7 @@ _sk_luminosity_avx: .byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9 .byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0 .byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8 - .byte 196,226,125,24,5,43,140,2,0 // vbroadcastss 0x28c2b(%rip),%ymm0 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,5,31,146,2,0 // vbroadcastss 0x2921f(%rip),%ymm0 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10 .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2 .byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11 @@ -16357,152 +16562,161 @@ _sk_srcover_rgba_8888_avx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,42,1,0,0 // jne 10d6e <_sk_srcover_rgba_8888_avx+0x14a> - .byte 196,1,125,16,4,152 // vmovupd (%r8,%r11,4),%ymm8 - .byte 197,125,40,13,238,144,2,0 // vmovapd 0x290ee(%rip),%ymm9 # 39d40 <_sk_srcover_bgra_8888_sse2_lowp+0x7ec> - .byte 196,193,61,84,225 // vandpd %ymm9,%ymm8,%ymm4 + .byte 15,133,87,1,0,0 // jne 111bb <_sk_srcover_rgba_8888_avx+0x177> + .byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9 + .byte 197,125,40,5,238,150,2,0 // vmovapd 0x296ee(%rip),%ymm8 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x7f8> + .byte 196,193,53,84,224 // vandpd %ymm8,%ymm9,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 196,193,81,114,208,8 // vpsrld $0x8,%xmm8,%xmm5 - .byte 196,99,125,25,199,1 // vextractf128 $0x1,%ymm8,%xmm7 + .byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5 + .byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7 .byte 197,201,114,215,8 // vpsrld $0x8,%xmm7,%xmm6 .byte 196,227,85,24,238,1 // vinsertf128 $0x1,%xmm6,%ymm5,%ymm5 - .byte 196,193,85,84,233 // vandpd %ymm9,%ymm5,%ymm5 + .byte 196,193,85,84,232 // vandpd %ymm8,%ymm5,%ymm5 .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 - .byte 196,193,41,114,208,16 // vpsrld $0x10,%xmm8,%xmm10 + .byte 196,193,41,114,209,16 // vpsrld $0x10,%xmm9,%xmm10 .byte 197,201,114,215,16 // vpsrld $0x10,%xmm7,%xmm6 .byte 196,227,45,24,246,1 // vinsertf128 $0x1,%xmm6,%ymm10,%ymm6 - .byte 196,193,77,84,241 // vandpd %ymm9,%ymm6,%ymm6 + .byte 196,193,77,84,240 // vandpd %ymm8,%ymm6,%ymm6 + .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8 .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6 - .byte 196,193,57,114,208,24 // vpsrld $0x18,%xmm8,%xmm8 + .byte 196,193,49,114,209,24 // vpsrld $0x18,%xmm9,%xmm9 .byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7 - .byte 196,227,61,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm8,%ymm7 + .byte 196,227,53,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm9,%ymm7 .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7 - .byte 196,98,125,24,5,81,139,2,0 // vbroadcastss 0x28b51(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> - .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 - .byte 196,98,125,24,13,112,139,2,0 // vbroadcastss 0x28b70(%rip),%ymm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,98,125,24,13,64,145,2,0 // vbroadcastss 0x29140(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 197,52,92,211 // vsubps %ymm3,%ymm9,%ymm10 + .byte 196,98,125,24,13,95,145,2,0 // vbroadcastss 0x2915f(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 - .byte 197,60,89,212 // vmulps %ymm4,%ymm8,%ymm10 - .byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0 + .byte 197,44,89,220 // vmulps %ymm4,%ymm10,%ymm11 + .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0 .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1 - .byte 197,60,89,213 // vmulps %ymm5,%ymm8,%ymm10 - .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1 + .byte 197,44,89,221 // vmulps %ymm5,%ymm10,%ymm11 + .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1 .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2 - .byte 197,60,89,214 // vmulps %ymm6,%ymm8,%ymm10 - .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2 + .byte 197,44,89,222 // vmulps %ymm6,%ymm10,%ymm11 + .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2 .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3 - .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 - .byte 196,193,100,88,216 // vaddps %ymm8,%ymm3,%ymm3 - .byte 197,125,91,192 // vcvtps2dq %ymm0,%ymm8 - .byte 197,125,91,201 // vcvtps2dq %ymm1,%ymm9 - .byte 196,193,41,114,241,8 // vpslld $0x8,%xmm9,%xmm10 - .byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9 - .byte 196,193,49,114,241,8 // vpslld $0x8,%xmm9,%xmm9 - .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9 - .byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8 - .byte 197,125,91,202 // vcvtps2dq %ymm2,%ymm9 - .byte 196,193,41,114,241,16 // vpslld $0x10,%xmm9,%xmm10 - .byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9 - .byte 196,193,49,114,241,16 // vpslld $0x10,%xmm9,%xmm9 - .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9 - .byte 197,125,91,211 // vcvtps2dq %ymm3,%ymm10 - .byte 196,193,33,114,242,24 // vpslld $0x18,%xmm10,%xmm11 - .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 - .byte 196,193,41,114,242,24 // vpslld $0x18,%xmm10,%xmm10 - .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10 - .byte 196,65,53,86,202 // vorpd %ymm10,%ymm9,%ymm9 - .byte 196,65,61,86,193 // vorpd %ymm9,%ymm8,%ymm8 + .byte 197,44,89,215 // vmulps %ymm7,%ymm10,%ymm10 + .byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3 + .byte 197,60,95,208 // vmaxps %ymm0,%ymm8,%ymm10 + .byte 196,65,44,93,209 // vminps %ymm9,%ymm10,%ymm10 + .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 + .byte 197,60,95,217 // vmaxps %ymm1,%ymm8,%ymm11 + .byte 196,65,36,93,217 // vminps %ymm9,%ymm11,%ymm11 + .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 + .byte 196,193,25,114,243,8 // vpslld $0x8,%xmm11,%xmm12 + .byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11 + .byte 196,193,33,114,243,8 // vpslld $0x8,%xmm11,%xmm11 + .byte 196,67,29,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm12,%ymm11 + .byte 196,65,37,86,210 // vorpd %ymm10,%ymm11,%ymm10 + .byte 197,60,95,218 // vmaxps %ymm2,%ymm8,%ymm11 + .byte 196,65,36,93,217 // vminps %ymm9,%ymm11,%ymm11 + .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 + .byte 196,193,25,114,243,16 // vpslld $0x10,%xmm11,%xmm12 + .byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11 + .byte 196,193,33,114,243,16 // vpslld $0x10,%xmm11,%xmm11 + .byte 196,67,29,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm12,%ymm11 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8 + .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 + .byte 196,193,49,114,240,24 // vpslld $0x18,%xmm8,%xmm9 + .byte 196,67,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm8 + .byte 196,193,57,114,240,24 // vpslld $0x18,%xmm8,%xmm8 + .byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8 + .byte 196,65,37,86,192 // vorpd %ymm8,%ymm11,%ymm8 + .byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,66 // jne 10da6 <_sk_srcover_rgba_8888_avx+0x182> + .byte 117,66 // jne 111f3 <_sk_srcover_rgba_8888_avx+0x1af> .byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,7 // and $0x7,%r9b - .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,195,254,255,255 // ja 10c4a <_sk_srcover_rgba_8888_avx+0x26> + .byte 15,135,150,254,255,255 // ja 1106a <_sk_srcover_rgba_8888_avx+0x26> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,6,1,0,0 // lea 0x106(%rip),%r10 # 10e98 <_sk_srcover_rgba_8888_avx+0x274> + .byte 76,141,21,5,1,0,0 // lea 0x105(%rip),%r10 # 112e4 <_sk_srcover_rgba_8888_avx+0x2a0> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax - .byte 196,1,122,16,4,152 // vmovss (%r8,%r11,4),%xmm8 - .byte 233,164,254,255,255 // jmpq 10c4a <_sk_srcover_rgba_8888_avx+0x26> + .byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9 + .byte 233,119,254,255,255 // jmpq 1106a <_sk_srcover_rgba_8888_avx+0x26> .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,7 // and $0x7,%r9b .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,180 // ja 10d6a <_sk_srcover_rgba_8888_avx+0x146> + .byte 119,180 // ja 111b7 <_sk_srcover_rgba_8888_avx+0x173> .byte 65,15,182,193 // movzbl %r9b,%eax - .byte 76,141,13,243,0,0,0 // lea 0xf3(%rip),%r9 # 10eb4 <_sk_srcover_rgba_8888_avx+0x290> + .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 11300 <_sk_srcover_rgba_8888_avx+0x2bc> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4) - .byte 235,152 // jmp 10d6a <_sk_srcover_rgba_8888_avx+0x146> + .byte 235,152 // jmp 111b7 <_sk_srcover_rgba_8888_avx+0x173> .byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4 .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4 .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5 - .byte 196,99,85,12,196,4 // vblendps $0x4,%ymm4,%ymm5,%ymm8 + .byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9 .byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4 - .byte 196,99,61,13,196,1 // vblendpd $0x1,%ymm4,%ymm8,%ymm8 - .byte 233,81,254,255,255 // jmpq 10c4a <_sk_srcover_rgba_8888_avx+0x26> + .byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9 + .byte 233,36,254,255,255 // jmpq 1106a <_sk_srcover_rgba_8888_avx+0x26> .byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4 .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4 .byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4 .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5 - .byte 196,99,85,12,196,64 // vblendps $0x40,%ymm4,%ymm5,%ymm8 - .byte 196,99,125,25,196,1 // vextractf128 $0x1,%ymm8,%xmm4 + .byte 196,99,85,12,204,64 // vblendps $0x40,%ymm4,%ymm5,%ymm9 + .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4 .byte 196,131,89,34,100,152,20,1 // vpinsrd $0x1,0x14(%r8,%r11,4),%xmm4,%xmm4 - .byte 196,99,61,24,196,1 // vinsertf128 $0x1,%xmm4,%ymm8,%ymm8 - .byte 196,99,125,25,196,1 // vextractf128 $0x1,%ymm8,%xmm4 + .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9 + .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4 .byte 196,131,89,34,100,152,16,0 // vpinsrd $0x0,0x10(%r8,%r11,4),%xmm4,%xmm4 - .byte 196,99,61,24,196,1 // vinsertf128 $0x1,%xmm4,%ymm8,%ymm8 + .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9 .byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4 - .byte 196,67,93,13,192,12 // vblendpd $0xc,%ymm8,%ymm4,%ymm8 - .byte 233,252,253,255,255 // jmpq 10c4a <_sk_srcover_rgba_8888_avx+0x26> + .byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9 + .byte 233,207,253,255,255 // jmpq 1106a <_sk_srcover_rgba_8888_avx+0x26> .byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4) .byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4) - .byte 233,9,255,255,255 // jmpq 10d6a <_sk_srcover_rgba_8888_avx+0x146> + .byte 233,9,255,255,255 // jmpq 111b7 <_sk_srcover_rgba_8888_avx+0x173> .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 .byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4) .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 .byte 196,3,121,22,76,152,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%r11,4) .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 - .byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4) + .byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4) .byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4) - .byte 233,213,254,255,255 // jmpq 10d6a <_sk_srcover_rgba_8888_avx+0x146> - .byte 15,31,0 // nopl (%rax) - .byte 3,255 // add %edi,%edi + .byte 233,213,254,255,255 // jmpq 111b7 <_sk_srcover_rgba_8888_avx+0x173> + .byte 102,144 // xchg %ax,%ax + .byte 4,255 // add $0xff,%al .byte 255 // (bad) - .byte 255,80,255 // callq *-0x1(%rax) + .byte 255,81,255 // callq *-0x1(%rcx) .byte 255 // (bad) .byte 255 // (bad) - .byte 58,255 // cmp %bh,%bh + .byte 59,255 // cmp %edi,%edi .byte 255 // (bad) - .byte 255,165,255,255,255,145 // jmpq *-0x6e000001(%rbp) + .byte 255,166,255,255,255,146 // jmpq *-0x6d000001(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 125,255 // jge 10ead <_sk_srcover_rgba_8888_avx+0x289> + .byte 126,255 // jle 112f9 <_sk_srcover_rgba_8888_avx+0x2b5> .byte 255 // (bad) - .byte 255,97,255 // jmpq *-0x1(%rcx) + .byte 255,98,255 // jmpq *-0x1(%rdx) .byte 255 // (bad) - .byte 255,22 // callq *(%rsi) + .byte 255,23 // callq *(%rdi) .byte 255 // (bad) .byte 255 // (bad) - .byte 255,162,255,255,255,154 // jmpq *-0x65000001(%rdx) + .byte 255,163,255,255,255,155 // jmpq *-0x64000001(%rbx) .byte 255 // (bad) .byte 255 // (bad) - .byte 255,214 // callq *%rsi + .byte 255,215 // callq *%rdi .byte 255 // (bad) .byte 255 // (bad) - .byte 255,201 // dec %ecx + .byte 255,202 // dec %edx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 187,255,255,255,173 // mov $0xadffffff,%ebx + .byte 188,255,255,255,174 // mov $0xaeffffff,%esp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -16519,152 +16733,161 @@ _sk_srcover_bgra_8888_avx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,42,1,0,0 // jne 1101a <_sk_srcover_bgra_8888_avx+0x14a> - .byte 196,1,125,16,4,152 // vmovupd (%r8,%r11,4),%ymm8 - .byte 197,125,40,13,98,142,2,0 // vmovapd 0x28e62(%rip),%ymm9 # 39d60 <_sk_srcover_bgra_8888_sse2_lowp+0x80c> - .byte 196,193,61,84,233 // vandpd %ymm9,%ymm8,%ymm5 + .byte 15,133,87,1,0,0 // jne 11493 <_sk_srcover_bgra_8888_avx+0x177> + .byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9 + .byte 197,125,40,5,54,148,2,0 // vmovapd 0x29436(%rip),%ymm8 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x818> + .byte 196,193,53,84,232 // vandpd %ymm8,%ymm9,%ymm5 .byte 197,252,91,245 // vcvtdq2ps %ymm5,%ymm6 - .byte 196,193,81,114,208,8 // vpsrld $0x8,%xmm8,%xmm5 - .byte 196,99,125,25,199,1 // vextractf128 $0x1,%ymm8,%xmm7 + .byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5 + .byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7 .byte 197,217,114,215,8 // vpsrld $0x8,%xmm7,%xmm4 .byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4 - .byte 196,193,93,84,225 // vandpd %ymm9,%ymm4,%ymm4 + .byte 196,193,93,84,224 // vandpd %ymm8,%ymm4,%ymm4 .byte 197,252,91,236 // vcvtdq2ps %ymm4,%ymm5 - .byte 196,193,41,114,208,16 // vpsrld $0x10,%xmm8,%xmm10 + .byte 196,193,41,114,209,16 // vpsrld $0x10,%xmm9,%xmm10 .byte 197,217,114,215,16 // vpsrld $0x10,%xmm7,%xmm4 .byte 196,227,45,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm10,%ymm4 - .byte 196,193,93,84,225 // vandpd %ymm9,%ymm4,%ymm4 + .byte 196,193,93,84,224 // vandpd %ymm8,%ymm4,%ymm4 + .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 196,193,57,114,208,24 // vpsrld $0x18,%xmm8,%xmm8 + .byte 196,193,49,114,209,24 // vpsrld $0x18,%xmm9,%xmm9 .byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7 - .byte 196,227,61,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm8,%ymm7 + .byte 196,227,53,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm9,%ymm7 .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7 - .byte 196,98,125,24,5,165,136,2,0 // vbroadcastss 0x288a5(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> - .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8 - .byte 196,98,125,24,13,196,136,2,0 // vbroadcastss 0x288c4(%rip),%ymm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,98,125,24,13,104,142,2,0 // vbroadcastss 0x28e68(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 197,52,92,211 // vsubps %ymm3,%ymm9,%ymm10 + .byte 196,98,125,24,13,135,142,2,0 // vbroadcastss 0x28e87(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 - .byte 197,60,89,212 // vmulps %ymm4,%ymm8,%ymm10 - .byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0 + .byte 197,44,89,220 // vmulps %ymm4,%ymm10,%ymm11 + .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0 .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1 - .byte 197,60,89,213 // vmulps %ymm5,%ymm8,%ymm10 - .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1 + .byte 197,44,89,221 // vmulps %ymm5,%ymm10,%ymm11 + .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1 .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2 - .byte 197,60,89,214 // vmulps %ymm6,%ymm8,%ymm10 - .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2 + .byte 197,44,89,222 // vmulps %ymm6,%ymm10,%ymm11 + .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2 .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3 - .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8 - .byte 196,193,100,88,216 // vaddps %ymm8,%ymm3,%ymm3 - .byte 197,125,91,194 // vcvtps2dq %ymm2,%ymm8 - .byte 197,125,91,201 // vcvtps2dq %ymm1,%ymm9 - .byte 196,193,41,114,241,8 // vpslld $0x8,%xmm9,%xmm10 - .byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9 - .byte 196,193,49,114,241,8 // vpslld $0x8,%xmm9,%xmm9 - .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9 - .byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8 - .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9 - .byte 196,193,41,114,241,16 // vpslld $0x10,%xmm9,%xmm10 - .byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9 - .byte 196,193,49,114,241,16 // vpslld $0x10,%xmm9,%xmm9 - .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9 - .byte 197,125,91,211 // vcvtps2dq %ymm3,%ymm10 - .byte 196,193,33,114,242,24 // vpslld $0x18,%xmm10,%xmm11 - .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 - .byte 196,193,41,114,242,24 // vpslld $0x18,%xmm10,%xmm10 - .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10 - .byte 196,65,53,86,202 // vorpd %ymm10,%ymm9,%ymm9 - .byte 196,65,61,86,193 // vorpd %ymm9,%ymm8,%ymm8 + .byte 197,44,89,215 // vmulps %ymm7,%ymm10,%ymm10 + .byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3 + .byte 197,60,95,210 // vmaxps %ymm2,%ymm8,%ymm10 + .byte 196,65,44,93,209 // vminps %ymm9,%ymm10,%ymm10 + .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 + .byte 197,60,95,217 // vmaxps %ymm1,%ymm8,%ymm11 + .byte 196,65,36,93,217 // vminps %ymm9,%ymm11,%ymm11 + .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 + .byte 196,193,25,114,243,8 // vpslld $0x8,%xmm11,%xmm12 + .byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11 + .byte 196,193,33,114,243,8 // vpslld $0x8,%xmm11,%xmm11 + .byte 196,67,29,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm12,%ymm11 + .byte 196,65,37,86,210 // vorpd %ymm10,%ymm11,%ymm10 + .byte 197,60,95,216 // vmaxps %ymm0,%ymm8,%ymm11 + .byte 196,65,36,93,217 // vminps %ymm9,%ymm11,%ymm11 + .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 + .byte 196,193,25,114,243,16 // vpslld $0x10,%xmm11,%xmm12 + .byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11 + .byte 196,193,33,114,243,16 // vpslld $0x10,%xmm11,%xmm11 + .byte 196,67,29,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm12,%ymm11 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8 + .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 + .byte 196,193,49,114,240,24 // vpslld $0x18,%xmm8,%xmm9 + .byte 196,67,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm8 + .byte 196,193,57,114,240,24 // vpslld $0x18,%xmm8,%xmm8 + .byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8 + .byte 196,65,37,86,192 // vorpd %ymm8,%ymm11,%ymm8 + .byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,66 // jne 11052 <_sk_srcover_bgra_8888_avx+0x182> + .byte 117,66 // jne 114cb <_sk_srcover_bgra_8888_avx+0x1af> .byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,7 // and $0x7,%r9b - .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,195,254,255,255 // ja 10ef6 <_sk_srcover_bgra_8888_avx+0x26> + .byte 15,135,150,254,255,255 // ja 11342 <_sk_srcover_bgra_8888_avx+0x26> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,6,1,0,0 // lea 0x106(%rip),%r10 # 11144 <_sk_srcover_bgra_8888_avx+0x274> + .byte 76,141,21,5,1,0,0 // lea 0x105(%rip),%r10 # 115bc <_sk_srcover_bgra_8888_avx+0x2a0> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax - .byte 196,1,122,16,4,152 // vmovss (%r8,%r11,4),%xmm8 - .byte 233,164,254,255,255 // jmpq 10ef6 <_sk_srcover_bgra_8888_avx+0x26> + .byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9 + .byte 233,119,254,255,255 // jmpq 11342 <_sk_srcover_bgra_8888_avx+0x26> .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,7 // and $0x7,%r9b .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,180 // ja 11016 <_sk_srcover_bgra_8888_avx+0x146> + .byte 119,180 // ja 1148f <_sk_srcover_bgra_8888_avx+0x173> .byte 65,15,182,193 // movzbl %r9b,%eax - .byte 76,141,13,243,0,0,0 // lea 0xf3(%rip),%r9 # 11160 <_sk_srcover_bgra_8888_avx+0x290> + .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 115d8 <_sk_srcover_bgra_8888_avx+0x2bc> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4) - .byte 235,152 // jmp 11016 <_sk_srcover_bgra_8888_avx+0x146> + .byte 235,152 // jmp 1148f <_sk_srcover_bgra_8888_avx+0x173> .byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4 .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4 .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5 - .byte 196,99,85,12,196,4 // vblendps $0x4,%ymm4,%ymm5,%ymm8 + .byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9 .byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4 - .byte 196,99,61,13,196,1 // vblendpd $0x1,%ymm4,%ymm8,%ymm8 - .byte 233,81,254,255,255 // jmpq 10ef6 <_sk_srcover_bgra_8888_avx+0x26> + .byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9 + .byte 233,36,254,255,255 // jmpq 11342 <_sk_srcover_bgra_8888_avx+0x26> .byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4 .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4 .byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4 .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5 - .byte 196,99,85,12,196,64 // vblendps $0x40,%ymm4,%ymm5,%ymm8 - .byte 196,99,125,25,196,1 // vextractf128 $0x1,%ymm8,%xmm4 + .byte 196,99,85,12,204,64 // vblendps $0x40,%ymm4,%ymm5,%ymm9 + .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4 .byte 196,131,89,34,100,152,20,1 // vpinsrd $0x1,0x14(%r8,%r11,4),%xmm4,%xmm4 - .byte 196,99,61,24,196,1 // vinsertf128 $0x1,%xmm4,%ymm8,%ymm8 - .byte 196,99,125,25,196,1 // vextractf128 $0x1,%ymm8,%xmm4 + .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9 + .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4 .byte 196,131,89,34,100,152,16,0 // vpinsrd $0x0,0x10(%r8,%r11,4),%xmm4,%xmm4 - .byte 196,99,61,24,196,1 // vinsertf128 $0x1,%xmm4,%ymm8,%ymm8 + .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9 .byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4 - .byte 196,67,93,13,192,12 // vblendpd $0xc,%ymm8,%ymm4,%ymm8 - .byte 233,252,253,255,255 // jmpq 10ef6 <_sk_srcover_bgra_8888_avx+0x26> + .byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9 + .byte 233,207,253,255,255 // jmpq 11342 <_sk_srcover_bgra_8888_avx+0x26> .byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4) .byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4) - .byte 233,9,255,255,255 // jmpq 11016 <_sk_srcover_bgra_8888_avx+0x146> + .byte 233,9,255,255,255 // jmpq 1148f <_sk_srcover_bgra_8888_avx+0x173> .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 .byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4) .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 .byte 196,3,121,22,76,152,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%r11,4) .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 - .byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4) + .byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4) .byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4) - .byte 233,213,254,255,255 // jmpq 11016 <_sk_srcover_bgra_8888_avx+0x146> - .byte 15,31,0 // nopl (%rax) - .byte 3,255 // add %edi,%edi + .byte 233,213,254,255,255 // jmpq 1148f <_sk_srcover_bgra_8888_avx+0x173> + .byte 102,144 // xchg %ax,%ax + .byte 4,255 // add $0xff,%al .byte 255 // (bad) - .byte 255,80,255 // callq *-0x1(%rax) + .byte 255,81,255 // callq *-0x1(%rcx) .byte 255 // (bad) .byte 255 // (bad) - .byte 58,255 // cmp %bh,%bh + .byte 59,255 // cmp %edi,%edi .byte 255 // (bad) - .byte 255,165,255,255,255,145 // jmpq *-0x6e000001(%rbp) + .byte 255,166,255,255,255,146 // jmpq *-0x6d000001(%rsi) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 125,255 // jge 11159 <_sk_srcover_bgra_8888_avx+0x289> + .byte 126,255 // jle 115d1 <_sk_srcover_bgra_8888_avx+0x2b5> .byte 255 // (bad) - .byte 255,97,255 // jmpq *-0x1(%rcx) + .byte 255,98,255 // jmpq *-0x1(%rdx) .byte 255 // (bad) - .byte 255,22 // callq *(%rsi) + .byte 255,23 // callq *(%rdi) .byte 255 // (bad) .byte 255 // (bad) - .byte 255,162,255,255,255,154 // jmpq *-0x65000001(%rdx) + .byte 255,163,255,255,255,155 // jmpq *-0x64000001(%rbx) .byte 255 // (bad) .byte 255 // (bad) - .byte 255,214 // callq *%rsi + .byte 255,215 // callq *%rdi .byte 255 // (bad) .byte 255 // (bad) - .byte 255,201 // dec %ecx + .byte 255,202 // dec %edx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 187,255,255,255,173 // mov $0xadffffff,%ebx + .byte 188,255,255,255,174 // mov $0xaeffffff,%esp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -16685,7 +16908,7 @@ HIDDEN _sk_clamp_1_avx .globl _sk_clamp_1_avx FUNCTION(_sk_clamp_1_avx) _sk_clamp_1_avx: - .byte 196,98,125,24,5,98,134,2,0 // vbroadcastss 0x28662(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,254,139,2,0 // vbroadcastss 0x28bfe(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1 .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2 @@ -16697,7 +16920,7 @@ HIDDEN _sk_clamp_a_avx .globl _sk_clamp_a_avx FUNCTION(_sk_clamp_a_avx) _sk_clamp_a_avx: - .byte 196,98,125,24,5,65,134,2,0 // vbroadcastss 0x28641(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,221,139,2,0 // vbroadcastss 0x28bdd(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3 .byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0 .byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1 @@ -16709,7 +16932,7 @@ HIDDEN _sk_clamp_a_dst_avx .globl _sk_clamp_a_dst_avx FUNCTION(_sk_clamp_a_dst_avx) _sk_clamp_a_dst_avx: - .byte 196,98,125,24,5,35,134,2,0 // vbroadcastss 0x28623(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,191,139,2,0 // vbroadcastss 0x28bbf(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7 .byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4 .byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5 @@ -16742,7 +16965,7 @@ HIDDEN _sk_invert_avx .globl _sk_invert_avx FUNCTION(_sk_invert_avx) _sk_invert_avx: - .byte 196,98,125,24,5,222,133,2,0 // vbroadcastss 0x285de(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,122,139,2,0 // vbroadcastss 0x28b7a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0 .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1 .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2 @@ -16796,9 +17019,9 @@ HIDDEN _sk_unpremul_avx .globl _sk_unpremul_avx FUNCTION(_sk_unpremul_avx) _sk_unpremul_avx: - .byte 196,98,125,24,5,121,133,2,0 // vbroadcastss 0x28579(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,21,139,2,0 // vbroadcastss 0x28b15(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8 - .byte 196,98,125,24,13,156,133,2,0 // vbroadcastss 0x2859c(%rip),%ymm9 # 39834 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0> + .byte 196,98,125,24,13,56,139,2,0 // vbroadcastss 0x28b38(%rip),%ymm9 # 3a248 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0> .byte 196,65,60,194,201,1 // vcmpltps %ymm9,%ymm8,%ymm9 .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10 .byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8 @@ -16812,17 +17035,17 @@ HIDDEN _sk_from_srgb_avx .globl _sk_from_srgb_avx FUNCTION(_sk_from_srgb_avx) _sk_from_srgb_avx: - .byte 196,98,125,24,5,118,133,2,0 // vbroadcastss 0x28576(%rip),%ymm8 # 39838 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4> + .byte 196,98,125,24,5,18,139,2,0 // vbroadcastss 0x28b12(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4> .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 .byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10 - .byte 196,98,125,24,29,80,133,2,0 // vbroadcastss 0x28550(%rip),%ymm11 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> + .byte 196,98,125,24,29,236,138,2,0 // vbroadcastss 0x28aec(%rip),%ymm11 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> .byte 196,65,124,89,227 // vmulps %ymm11,%ymm0,%ymm12 - .byte 196,98,125,24,45,90,133,2,0 // vbroadcastss 0x2855a(%rip),%ymm13 # 3983c <_sk_srcover_bgra_8888_sse2_lowp+0x2e8> + .byte 196,98,125,24,45,246,138,2,0 // vbroadcastss 0x28af6(%rip),%ymm13 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8> .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12 .byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10 - .byte 196,98,125,24,37,75,133,2,0 // vbroadcastss 0x2854b(%rip),%ymm12 # 39840 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec> + .byte 196,98,125,24,37,231,138,2,0 // vbroadcastss 0x28ae7(%rip),%ymm12 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec> .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10 - .byte 196,98,125,24,53,65,133,2,0 // vbroadcastss 0x28541(%rip),%ymm14 # 39844 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0> + .byte 196,98,125,24,53,221,138,2,0 // vbroadcastss 0x28add(%rip),%ymm14 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0> .byte 196,193,124,194,198,1 // vcmpltps %ymm14,%ymm0,%ymm0 .byte 196,195,45,74,193,0 // vblendvps %ymm0,%ymm9,%ymm10,%ymm0 .byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9 @@ -16848,17 +17071,17 @@ HIDDEN _sk_from_srgb_dst_avx .globl _sk_from_srgb_dst_avx FUNCTION(_sk_from_srgb_dst_avx) _sk_from_srgb_dst_avx: - .byte 196,98,125,24,5,202,132,2,0 // vbroadcastss 0x284ca(%rip),%ymm8 # 39838 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4> + .byte 196,98,125,24,5,102,138,2,0 // vbroadcastss 0x28a66(%rip),%ymm8 # 3a24c <_sk_srcover_bgra_8888_sse2_lowp+0x2e4> .byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9 .byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10 - .byte 196,98,125,24,29,164,132,2,0 // vbroadcastss 0x284a4(%rip),%ymm11 # 39824 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> + .byte 196,98,125,24,29,64,138,2,0 // vbroadcastss 0x28a40(%rip),%ymm11 # 3a238 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0> .byte 196,65,92,89,227 // vmulps %ymm11,%ymm4,%ymm12 - .byte 196,98,125,24,45,174,132,2,0 // vbroadcastss 0x284ae(%rip),%ymm13 # 3983c <_sk_srcover_bgra_8888_sse2_lowp+0x2e8> + .byte 196,98,125,24,45,74,138,2,0 // vbroadcastss 0x28a4a(%rip),%ymm13 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8> .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12 .byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10 - .byte 196,98,125,24,37,159,132,2,0 // vbroadcastss 0x2849f(%rip),%ymm12 # 39840 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec> + .byte 196,98,125,24,37,59,138,2,0 // vbroadcastss 0x28a3b(%rip),%ymm12 # 3a254 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec> .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10 - .byte 196,98,125,24,53,149,132,2,0 // vbroadcastss 0x28495(%rip),%ymm14 # 39844 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0> + .byte 196,98,125,24,53,49,138,2,0 // vbroadcastss 0x28a31(%rip),%ymm14 # 3a258 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0> .byte 196,193,92,194,230,1 // vcmpltps %ymm14,%ymm4,%ymm4 .byte 196,195,45,74,225,64 // vblendvps %ymm4,%ymm9,%ymm10,%ymm4 .byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9 @@ -16885,20 +17108,20 @@ HIDDEN _sk_to_srgb_avx FUNCTION(_sk_to_srgb_avx) _sk_to_srgb_avx: .byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9 - .byte 196,98,125,24,5,42,132,2,0 // vbroadcastss 0x2842a(%rip),%ymm8 # 39848 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4> + .byte 196,98,125,24,5,198,137,2,0 // vbroadcastss 0x289c6(%rip),%ymm8 # 3a25c <_sk_srcover_bgra_8888_sse2_lowp+0x2f4> .byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10 - .byte 196,98,125,24,29,36,132,2,0 // vbroadcastss 0x28424(%rip),%ymm11 # 39850 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc> + .byte 196,98,125,24,29,192,137,2,0 // vbroadcastss 0x289c0(%rip),%ymm11 # 3a264 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc> .byte 196,65,52,89,227 // vmulps %ymm11,%ymm9,%ymm12 - .byte 196,98,125,24,45,18,132,2,0 // vbroadcastss 0x28412(%rip),%ymm13 # 3984c <_sk_srcover_bgra_8888_sse2_lowp+0x2f8> + .byte 196,98,125,24,45,174,137,2,0 // vbroadcastss 0x289ae(%rip),%ymm13 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8> .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12 .byte 196,65,52,89,228 // vmulps %ymm12,%ymm9,%ymm12 - .byte 196,98,125,24,53,55,133,2,0 // vbroadcastss 0x28537(%rip),%ymm14 # 39984 <_sk_srcover_bgra_8888_sse2_lowp+0x430> + .byte 196,98,125,24,53,211,138,2,0 // vbroadcastss 0x28ad3(%rip),%ymm14 # 3a398 <_sk_srcover_bgra_8888_sse2_lowp+0x430> .byte 196,65,28,88,230 // vaddps %ymm14,%ymm12,%ymm12 - .byte 196,98,125,24,61,45,133,2,0 // vbroadcastss 0x2852d(%rip),%ymm15 # 39988 <_sk_srcover_bgra_8888_sse2_lowp+0x434> + .byte 196,98,125,24,61,201,138,2,0 // vbroadcastss 0x28ac9(%rip),%ymm15 # 3a39c <_sk_srcover_bgra_8888_sse2_lowp+0x434> .byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9 .byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9 .byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9 - .byte 196,98,125,24,37,233,131,2,0 // vbroadcastss 0x283e9(%rip),%ymm12 # 3985c <_sk_srcover_bgra_8888_sse2_lowp+0x308> + .byte 196,98,125,24,37,133,137,2,0 // vbroadcastss 0x28985(%rip),%ymm12 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0x308> .byte 196,193,124,194,196,1 // vcmpltps %ymm12,%ymm0,%ymm0 .byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0 .byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9 @@ -16935,7 +17158,7 @@ _sk_rgb_to_hsl_avx: .byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9 .byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9 .byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10 - .byte 196,98,125,24,29,241,130,2,0 // vbroadcastss 0x282f1(%rip),%ymm11 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,29,141,136,2,0 // vbroadcastss 0x2888d(%rip),%ymm11 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11 .byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12 .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 @@ -16945,19 +17168,19 @@ _sk_rgb_to_hsl_avx: .byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2 .byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1 .byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1 - .byte 196,98,125,24,29,34,131,2,0 // vbroadcastss 0x28322(%rip),%ymm11 # 39868 <_sk_srcover_bgra_8888_sse2_lowp+0x314> + .byte 196,98,125,24,29,190,136,2,0 // vbroadcastss 0x288be(%rip),%ymm11 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314> .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1 - .byte 196,98,125,24,29,16,131,2,0 // vbroadcastss 0x28310(%rip),%ymm11 # 39864 <_sk_srcover_bgra_8888_sse2_lowp+0x310> + .byte 196,98,125,24,29,172,136,2,0 // vbroadcastss 0x288ac(%rip),%ymm11 # 3a278 <_sk_srcover_bgra_8888_sse2_lowp+0x310> .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2 .byte 196,227,117,74,202,224 // vblendvps %ymm14,%ymm2,%ymm1,%ymm1 - .byte 196,226,125,24,21,248,130,2,0 // vbroadcastss 0x282f8(%rip),%ymm2 # 39860 <_sk_srcover_bgra_8888_sse2_lowp+0x30c> + .byte 196,226,125,24,21,148,136,2,0 // vbroadcastss 0x28894(%rip),%ymm2 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c> .byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14 .byte 196,227,13,74,210,208 // vblendvps %ymm13,%ymm2,%ymm14,%ymm2 .byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0 .byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2 .byte 196,227,117,74,194,0 // vblendvps %ymm0,%ymm2,%ymm1,%ymm0 .byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1 - .byte 196,98,125,24,37,111,130,2,0 // vbroadcastss 0x2826f(%rip),%ymm12 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,37,11,136,2,0 // vbroadcastss 0x2880b(%rip),%ymm12 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2 .byte 197,28,194,226,1 // vcmpltps %ymm2,%ymm12,%ymm12 .byte 196,65,36,92,216 // vsubps %ymm8,%ymm11,%ymm11 @@ -16967,7 +17190,7 @@ _sk_rgb_to_hsl_avx: .byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1 .byte 196,195,125,74,198,128 // vblendvps %ymm8,%ymm14,%ymm0,%ymm0 .byte 196,195,117,74,206,128 // vblendvps %ymm8,%ymm14,%ymm1,%ymm1 - .byte 196,98,125,24,5,162,130,2,0 // vbroadcastss 0x282a2(%rip),%ymm8 # 3986c <_sk_srcover_bgra_8888_sse2_lowp+0x318> + .byte 196,98,125,24,5,62,136,2,0 // vbroadcastss 0x2883e(%rip),%ymm8 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -16984,7 +17207,7 @@ _sk_hsl_to_rgb_avx: .byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp) .byte 197,252,40,225 // vmovaps %ymm1,%ymm4 .byte 197,252,40,216 // vmovaps %ymm0,%ymm3 - .byte 196,98,125,24,5,251,129,2,0 // vbroadcastss 0x281fb(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,5,151,135,2,0 // vbroadcastss 0x28797(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9 .byte 197,92,89,210 // vmulps %ymm2,%ymm4,%ymm10 .byte 196,65,92,92,218 // vsubps %ymm10,%ymm4,%ymm11 @@ -16992,23 +17215,23 @@ _sk_hsl_to_rgb_avx: .byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10 .byte 197,108,88,202 // vaddps %ymm2,%ymm2,%ymm9 .byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9 - .byte 196,98,125,24,29,65,130,2,0 // vbroadcastss 0x28241(%rip),%ymm11 # 39870 <_sk_srcover_bgra_8888_sse2_lowp+0x31c> + .byte 196,98,125,24,29,221,135,2,0 // vbroadcastss 0x287dd(%rip),%ymm11 # 3a284 <_sk_srcover_bgra_8888_sse2_lowp+0x31c> .byte 196,65,100,88,219 // vaddps %ymm11,%ymm3,%ymm11 .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12 .byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15 .byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11 - .byte 196,98,125,24,37,19,130,2,0 // vbroadcastss 0x28213(%rip),%ymm12 # 39860 <_sk_srcover_bgra_8888_sse2_lowp+0x30c> + .byte 196,98,125,24,37,175,135,2,0 // vbroadcastss 0x287af(%rip),%ymm12 # 3a274 <_sk_srcover_bgra_8888_sse2_lowp+0x30c> .byte 196,193,4,89,196 // vmulps %ymm12,%ymm15,%ymm0 - .byte 196,98,125,24,45,13,130,2,0 // vbroadcastss 0x2820d(%rip),%ymm13 # 39868 <_sk_srcover_bgra_8888_sse2_lowp+0x314> + .byte 196,98,125,24,45,169,135,2,0 // vbroadcastss 0x287a9(%rip),%ymm13 # 3a27c <_sk_srcover_bgra_8888_sse2_lowp+0x314> .byte 197,20,92,240 // vsubps %ymm0,%ymm13,%ymm14 .byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14 .byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14 - .byte 196,226,125,24,13,2,130,2,0 // vbroadcastss 0x28202(%rip),%ymm1 # 39874 <_sk_srcover_bgra_8888_sse2_lowp+0x320> + .byte 196,226,125,24,13,158,135,2,0 // vbroadcastss 0x2879e(%rip),%ymm1 # 3a288 <_sk_srcover_bgra_8888_sse2_lowp+0x320> .byte 196,193,116,194,255,2 // vcmpleps %ymm15,%ymm1,%ymm7 .byte 196,195,13,74,249,112 // vblendvps %ymm7,%ymm9,%ymm14,%ymm7 .byte 196,65,60,194,247,2 // vcmpleps %ymm15,%ymm8,%ymm14 .byte 196,227,45,74,255,224 // vblendvps %ymm14,%ymm7,%ymm10,%ymm7 - .byte 196,98,125,24,53,217,129,2,0 // vbroadcastss 0x281d9(%rip),%ymm14 # 3986c <_sk_srcover_bgra_8888_sse2_lowp+0x318> + .byte 196,98,125,24,53,117,135,2,0 // vbroadcastss 0x28775(%rip),%ymm14 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0x318> .byte 196,65,12,194,255,2 // vcmpleps %ymm15,%ymm14,%ymm15 .byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0 .byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0 @@ -17027,7 +17250,7 @@ _sk_hsl_to_rgb_avx: .byte 197,164,89,247 // vmulps %ymm7,%ymm11,%ymm6 .byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6 .byte 196,227,77,74,237,0 // vblendvps %ymm0,%ymm5,%ymm6,%ymm5 - .byte 196,226,125,24,5,131,129,2,0 // vbroadcastss 0x28183(%rip),%ymm0 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324> + .byte 196,226,125,24,5,31,135,2,0 // vbroadcastss 0x2871f(%rip),%ymm0 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324> .byte 197,228,88,192 // vaddps %ymm0,%ymm3,%ymm0 .byte 196,227,125,8,216,1 // vroundps $0x1,%ymm0,%ymm3 .byte 197,252,92,195 // vsubps %ymm3,%ymm0,%ymm0 @@ -17081,15 +17304,15 @@ _sk_scale_u8_avx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,75 // jne 117fb <_sk_scale_u8_avx+0x63> + .byte 117,75 // jne 11c73 <_sk_scale_u8_avx+0x63> .byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8 - .byte 197,57,219,5,18,137,2,0 // vpand 0x28912(%rip),%xmm8,%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,57,219,5,186,142,2,0 // vpand 0x28eba(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9 .byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8 .byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8 .byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 196,98,125,24,13,154,128,2,0 // vbroadcastss 0x2809a(%rip),%ymm9 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,13,54,134,2,0 // vbroadcastss 0x28636(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 @@ -17102,15 +17325,15 @@ _sk_scale_u8_avx: .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,166 // ja 117b6 <_sk_scale_u8_avx+0x1e> + .byte 119,166 // ja 11c2e <_sk_scale_u8_avx+0x1e> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 11894 <_sk_scale_u8_avx+0xfc> + .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 11d0c <_sk_scale_u8_avx+0xfc> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 - .byte 235,135 // jmp 117b6 <_sk_scale_u8_avx+0x1e> + .byte 235,135 // jmp 11c2e <_sk_scale_u8_avx+0x1e> .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8 @@ -17118,7 +17341,7 @@ _sk_scale_u8_avx: .byte 197,121,110,200 // vmovd %eax,%xmm9 .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9 .byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8 - .byte 233,94,255,255,255 // jmpq 117b6 <_sk_scale_u8_avx+0x1e> + .byte 233,94,255,255,255 // jmpq 11c2e <_sk_scale_u8_avx+0x1e> .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8 @@ -17129,7 +17352,7 @@ _sk_scale_u8_avx: .byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9 .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9 .byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8 - .byte 233,34,255,255,255 // jmpq 117b6 <_sk_scale_u8_avx+0x1e> + .byte 233,34,255,255,255 // jmpq 11c2e <_sk_scale_u8_avx+0x1e> .byte 144 // nop .byte 255 // (bad) .byte 255 // (bad) @@ -17163,26 +17386,26 @@ _sk_scale_565_avx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,178,0,0,0 // jne 11981 <_sk_scale_565_avx+0xd1> + .byte 15,133,178,0,0,0 // jne 11df9 <_sk_scale_565_avx+0xd1> .byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8 .byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9 .byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8 .byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8 .byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8 - .byte 196,98,125,24,13,140,127,2,0 // vbroadcastss 0x27f8c(%rip),%ymm9 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> + .byte 196,98,125,24,13,40,133,2,0 // vbroadcastss 0x28528(%rip),%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> .byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9 .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9 - .byte 196,98,125,24,21,125,127,2,0 // vbroadcastss 0x27f7d(%rip),%ymm10 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330> + .byte 196,98,125,24,21,25,133,2,0 // vbroadcastss 0x28519(%rip),%ymm10 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330> .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9 - .byte 196,98,125,24,21,115,127,2,0 // vbroadcastss 0x27f73(%rip),%ymm10 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334> + .byte 196,98,125,24,21,15,133,2,0 // vbroadcastss 0x2850f(%rip),%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334> .byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10 .byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10 - .byte 196,98,125,24,29,100,127,2,0 // vbroadcastss 0x27f64(%rip),%ymm11 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338> + .byte 196,98,125,24,29,0,133,2,0 // vbroadcastss 0x28500(%rip),%ymm11 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338> .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10 - .byte 196,98,125,24,29,90,127,2,0 // vbroadcastss 0x27f5a(%rip),%ymm11 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> + .byte 196,98,125,24,29,246,132,2,0 // vbroadcastss 0x284f6(%rip),%ymm11 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> .byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 196,98,125,24,29,75,127,2,0 // vbroadcastss 0x27f4b(%rip),%ymm11 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340> + .byte 196,98,125,24,29,231,132,2,0 // vbroadcastss 0x284e7(%rip),%ymm11 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340> .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11 .byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12 @@ -17201,27 +17424,27 @@ _sk_scale_565_avx: .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,59,255,255,255 // ja 118d5 <_sk_scale_565_avx+0x25> + .byte 15,135,59,255,255,255 // ja 11d4d <_sk_scale_565_avx+0x25> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 11a08 <_sk_scale_565_avx+0x158> + .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 11e80 <_sk_scale_565_avx+0x158> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 - .byte 233,25,255,255,255 // jmpq 118d5 <_sk_scale_565_avx+0x25> + .byte 233,25,255,255,255 // jmpq 11d4d <_sk_scale_565_avx+0x25> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8 .byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9 .byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8 - .byte 233,251,254,255,255 // jmpq 118d5 <_sk_scale_565_avx+0x25> + .byte 233,251,254,255,255 // jmpq 11d4d <_sk_scale_565_avx+0x25> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8 .byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8 .byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8 .byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9 .byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8 - .byte 233,205,254,255,255 // jmpq 118d5 <_sk_scale_565_avx+0x25> + .byte 233,205,254,255,255 // jmpq 11d4d <_sk_scale_565_avx+0x25> .byte 166 // cmpsb %es:(%rdi),%ds:(%rsi) .byte 255 // (bad) .byte 255 // (bad) @@ -17273,15 +17496,15 @@ _sk_lerp_u8_avx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,111 // jne 11aea <_sk_lerp_u8_avx+0x87> + .byte 117,111 // jne 11f62 <_sk_lerp_u8_avx+0x87> .byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8 - .byte 197,57,219,5,71,134,2,0 // vpand 0x28647(%rip),%xmm8,%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,57,219,5,239,139,2,0 // vpand 0x28bef(%rip),%xmm8,%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9 .byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8 .byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8 .byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 196,98,125,24,13,207,125,2,0 // vbroadcastss 0x27dcf(%rip),%ymm9 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,13,107,131,2,0 // vbroadcastss 0x2836b(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0 .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 @@ -17302,15 +17525,15 @@ _sk_lerp_u8_avx: .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,130 // ja 11a81 <_sk_lerp_u8_avx+0x1e> + .byte 119,130 // ja 11ef9 <_sk_lerp_u8_avx+0x1e> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 11b88 <_sk_lerp_u8_avx+0x125> + .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 12000 <_sk_lerp_u8_avx+0x125> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 - .byte 233,96,255,255,255 // jmpq 11a81 <_sk_lerp_u8_avx+0x1e> + .byte 233,96,255,255,255 // jmpq 11ef9 <_sk_lerp_u8_avx+0x1e> .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8 @@ -17318,7 +17541,7 @@ _sk_lerp_u8_avx: .byte 197,121,110,200 // vmovd %eax,%xmm9 .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9 .byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8 - .byte 233,55,255,255,255 // jmpq 11a81 <_sk_lerp_u8_avx+0x1e> + .byte 233,55,255,255,255 // jmpq 11ef9 <_sk_lerp_u8_avx+0x1e> .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8 @@ -17329,7 +17552,7 @@ _sk_lerp_u8_avx: .byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9 .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9 .byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8 - .byte 233,251,254,255,255 // jmpq 11a81 <_sk_lerp_u8_avx+0x1e> + .byte 233,251,254,255,255 // jmpq 11ef9 <_sk_lerp_u8_avx+0x1e> .byte 102,144 // xchg %ax,%ax .byte 139,255 // mov %edi,%edi .byte 255 // (bad) @@ -17337,7 +17560,7 @@ _sk_lerp_u8_avx: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 232,255,255,255,221 // callq ffffffffde011b98 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd8644> + .byte 232,255,255,255,221 // callq ffffffffde012010 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd80a8> .byte 255 // (bad) .byte 255 // (bad) .byte 255,210 // callq *%rdx @@ -17360,26 +17583,26 @@ _sk_lerp_565_avx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,214,0,0,0 // jne 11c99 <_sk_lerp_565_avx+0xf5> + .byte 15,133,214,0,0,0 // jne 12111 <_sk_lerp_565_avx+0xf5> .byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8 .byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9 .byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8 .byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8 .byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8 - .byte 196,98,125,24,13,152,124,2,0 // vbroadcastss 0x27c98(%rip),%ymm9 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> + .byte 196,98,125,24,13,52,130,2,0 // vbroadcastss 0x28234(%rip),%ymm9 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> .byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9 .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9 - .byte 196,98,125,24,21,137,124,2,0 // vbroadcastss 0x27c89(%rip),%ymm10 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330> + .byte 196,98,125,24,21,37,130,2,0 // vbroadcastss 0x28225(%rip),%ymm10 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330> .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9 - .byte 196,98,125,24,21,127,124,2,0 // vbroadcastss 0x27c7f(%rip),%ymm10 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334> + .byte 196,98,125,24,21,27,130,2,0 // vbroadcastss 0x2821b(%rip),%ymm10 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334> .byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10 .byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10 - .byte 196,98,125,24,29,112,124,2,0 // vbroadcastss 0x27c70(%rip),%ymm11 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338> + .byte 196,98,125,24,29,12,130,2,0 // vbroadcastss 0x2820c(%rip),%ymm11 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338> .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10 - .byte 196,98,125,24,29,102,124,2,0 // vbroadcastss 0x27c66(%rip),%ymm11 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> + .byte 196,98,125,24,29,2,130,2,0 // vbroadcastss 0x28202(%rip),%ymm11 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> .byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 196,98,125,24,29,87,124,2,0 // vbroadcastss 0x27c57(%rip),%ymm11 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340> + .byte 196,98,125,24,29,243,129,2,0 // vbroadcastss 0x281f3(%rip),%ymm11 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340> .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11 .byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12 @@ -17406,27 +17629,27 @@ _sk_lerp_565_avx: .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,23,255,255,255 // ja 11bc9 <_sk_lerp_565_avx+0x25> + .byte 15,135,23,255,255,255 // ja 12041 <_sk_lerp_565_avx+0x25> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 11d20 <_sk_lerp_565_avx+0x17c> + .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 12198 <_sk_lerp_565_avx+0x17c> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 - .byte 233,245,254,255,255 // jmpq 11bc9 <_sk_lerp_565_avx+0x25> + .byte 233,245,254,255,255 // jmpq 12041 <_sk_lerp_565_avx+0x25> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8 .byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9 .byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8 - .byte 233,215,254,255,255 // jmpq 11bc9 <_sk_lerp_565_avx+0x25> + .byte 233,215,254,255,255 // jmpq 12041 <_sk_lerp_565_avx+0x25> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8 .byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8 .byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8 .byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9 .byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8 - .byte 233,169,254,255,255 // jmpq 11bc9 <_sk_lerp_565_avx+0x25> + .byte 233,169,254,255,255 // jmpq 12041 <_sk_lerp_565_avx+0x25> .byte 166 // cmpsb %es:(%rdi),%ds:(%rsi) .byte 255 // (bad) .byte 255 // (bad) @@ -17454,9 +17677,9 @@ _sk_load_tables_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,0 // mov (%rax),%r8 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,4,2,0,0 // jne 11f54 <_sk_load_tables_avx+0x218> + .byte 15,133,4,2,0,0 // jne 123cc <_sk_load_tables_avx+0x218> .byte 196,65,125,16,20,144 // vmovupd (%r8,%rdx,4),%ymm10 - .byte 197,125,40,13,34,128,2,0 // vmovapd 0x28022(%rip),%ymm9 # 39d80 <_sk_srcover_bgra_8888_sse2_lowp+0x82c> + .byte 197,125,40,13,202,133,2,0 // vmovapd 0x285ca(%rip),%ymm9 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x838> .byte 196,193,45,84,201 // vandpd %ymm9,%ymm10,%ymm1 .byte 196,227,125,25,200,1 // vextractf128 $0x1,%ymm1,%xmm0 .byte 196,193,249,126,192 // vmovq %xmm0,%r8 @@ -17548,7 +17771,7 @@ _sk_load_tables_avx: .byte 196,193,65,114,213,24 // vpsrld $0x18,%xmm13,%xmm7 .byte 196,227,101,24,223,1 // vinsertf128 $0x1,%xmm7,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 - .byte 196,226,125,24,61,54,121,2,0 // vbroadcastss 0x27936(%rip),%ymm7 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,226,125,24,61,210,126,2,0 // vbroadcastss 0x27ed2(%rip),%ymm7 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7 @@ -17558,21 +17781,21 @@ _sk_load_tables_avx: .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,233,253,255,255 // ja 11d56 <_sk_load_tables_avx+0x1a> + .byte 15,135,233,253,255,255 // ja 121ce <_sk_load_tables_avx+0x1a> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 1200c <_sk_load_tables_avx+0x2d0> + .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 12484 <_sk_load_tables_avx+0x2d0> .byte 79,99,12,138 // movslq (%r10,%r9,4),%r9 .byte 77,1,209 // add %r10,%r9 .byte 65,255,225 // jmpq *%r9 .byte 196,65,122,16,20,144 // vmovss (%r8,%rdx,4),%xmm10 - .byte 233,201,253,255,255 // jmpq 11d56 <_sk_load_tables_avx+0x1a> + .byte 233,201,253,255,255 // jmpq 121ce <_sk_load_tables_avx+0x1a> .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0 .byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 196,99,117,12,208,4 // vblendps $0x4,%ymm0,%ymm1,%ymm10 .byte 196,193,123,16,4,144 // vmovsd (%r8,%rdx,4),%xmm0 .byte 196,99,45,13,208,1 // vblendpd $0x1,%ymm0,%ymm10,%ymm10 - .byte 233,162,253,255,255 // jmpq 11d56 <_sk_load_tables_avx+0x1a> + .byte 233,162,253,255,255 // jmpq 121ce <_sk_load_tables_avx+0x1a> .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0 .byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0 .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0 @@ -17586,9 +17809,9 @@ _sk_load_tables_avx: .byte 196,99,45,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm10,%ymm10 .byte 196,193,121,16,4,144 // vmovupd (%r8,%rdx,4),%xmm0 .byte 196,67,125,13,210,12 // vblendpd $0xc,%ymm10,%ymm0,%ymm10 - .byte 233,77,253,255,255 // jmpq 11d56 <_sk_load_tables_avx+0x1a> + .byte 233,77,253,255,255 // jmpq 121ce <_sk_load_tables_avx+0x1a> .byte 15,31,0 // nopl (%rax) - .byte 118,255 // jbe 1200d <_sk_load_tables_avx+0x2d1> + .byte 118,255 // jbe 12485 <_sk_load_tables_avx+0x2d1> .byte 255 // (bad) .byte 255,151,255,255,255,129 // callq *-0x7e000001(%rdi) .byte 255 // (bad) @@ -17618,7 +17841,7 @@ _sk_load_tables_u16_be_avx: .byte 72,133,255 // test %rdi,%rdi .byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp) .byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp) - .byte 15,133,75,2,0,0 // jne 12295 <_sk_load_tables_u16_be_avx+0x26d> + .byte 15,133,75,2,0,0 // jne 1270d <_sk_load_tables_u16_be_avx+0x26d> .byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8 .byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2 .byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3 @@ -17634,7 +17857,7 @@ _sk_load_tables_u16_be_avx: .byte 197,177,108,208 // vpunpcklqdq %xmm0,%xmm9,%xmm2 .byte 197,49,109,232 // vpunpckhqdq %xmm0,%xmm9,%xmm13 .byte 196,65,57,108,212 // vpunpcklqdq %xmm12,%xmm8,%xmm10 - .byte 197,121,111,29,52,128,2,0 // vmovdqa 0x28034(%rip),%xmm11 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,121,111,29,220,133,2,0 // vmovdqa 0x285dc(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,193,105,219,195 // vpand %xmm11,%xmm2,%xmm0 .byte 197,249,112,208,78 // vpshufd $0x4e,%xmm0,%xmm2 .byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2 @@ -17728,7 +17951,7 @@ _sk_load_tables_u16_be_avx: .byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3 .byte 196,227,77,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm6,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 - .byte 196,226,125,24,53,23,118,2,0 // vbroadcastss 0x27617(%rip),%ymm6 # 39898 <_sk_srcover_bgra_8888_sse2_lowp+0x344> + .byte 196,226,125,24,53,179,123,2,0 // vbroadcastss 0x27bb3(%rip),%ymm6 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344> .byte 197,228,89,222 // vmulps %ymm6,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6 @@ -17737,29 +17960,29 @@ _sk_load_tables_u16_be_avx: .byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,85 // je 122fb <_sk_load_tables_u16_be_avx+0x2d3> + .byte 116,85 // je 12773 <_sk_load_tables_u16_be_avx+0x2d3> .byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,72 // jb 122fb <_sk_load_tables_u16_be_avx+0x2d3> + .byte 114,72 // jb 12773 <_sk_load_tables_u16_be_avx+0x2d3> .byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 116,72 // je 12308 <_sk_load_tables_u16_be_avx+0x2e0> + .byte 116,72 // je 12780 <_sk_load_tables_u16_be_avx+0x2e0> .byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,59 // jb 12308 <_sk_load_tables_u16_be_avx+0x2e0> + .byte 114,59 // jb 12780 <_sk_load_tables_u16_be_avx+0x2e0> .byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 15,132,135,253,255,255 // je 12065 <_sk_load_tables_u16_be_avx+0x3d> + .byte 15,132,135,253,255,255 // je 124dd <_sk_load_tables_u16_be_avx+0x3d> .byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 15,130,118,253,255,255 // jb 12065 <_sk_load_tables_u16_be_avx+0x3d> + .byte 15,130,118,253,255,255 // jb 124dd <_sk_load_tables_u16_be_avx+0x3d> .byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9 - .byte 233,106,253,255,255 // jmpq 12065 <_sk_load_tables_u16_be_avx+0x3d> + .byte 233,106,253,255,255 // jmpq 124dd <_sk_load_tables_u16_be_avx+0x3d> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2 - .byte 233,93,253,255,255 // jmpq 12065 <_sk_load_tables_u16_be_avx+0x3d> + .byte 233,93,253,255,255 // jmpq 124dd <_sk_load_tables_u16_be_avx+0x3d> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 - .byte 233,84,253,255,255 // jmpq 12065 <_sk_load_tables_u16_be_avx+0x3d> + .byte 233,84,253,255,255 // jmpq 124dd <_sk_load_tables_u16_be_avx+0x3d> HIDDEN _sk_load_tables_rgb_u16_be_avx .globl _sk_load_tables_rgb_u16_be_avx @@ -17771,7 +17994,7 @@ _sk_load_tables_rgb_u16_be_avx: .byte 72,133,255 // test %rdi,%rdi .byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp) .byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp) - .byte 15,133,54,2,0,0 // jne 12565 <_sk_load_tables_rgb_u16_be_avx+0x254> + .byte 15,133,54,2,0,0 // jne 129dd <_sk_load_tables_rgb_u16_be_avx+0x254> .byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11 .byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3 .byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2 @@ -17792,7 +18015,7 @@ _sk_load_tables_rgb_u16_be_avx: .byte 197,105,108,216 // vpunpcklqdq %xmm0,%xmm2,%xmm11 .byte 197,241,108,211 // vpunpcklqdq %xmm3,%xmm1,%xmm2 .byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1 - .byte 197,121,111,53,52,125,2,0 // vmovdqa 0x27d34(%rip),%xmm14 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,121,111,53,220,130,2,0 // vmovdqa 0x282dc(%rip),%xmm14 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,193,105,219,214 // vpand %xmm14,%xmm2,%xmm2 .byte 197,249,112,218,78 // vpshufd $0x4e,%xmm2,%xmm3 .byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3 @@ -17878,7 +18101,7 @@ _sk_load_tables_rgb_u16_be_avx: .byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2 .byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,173,114,2,0 // vbroadcastss 0x272ad(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,73,120,2,0 // vbroadcastss 0x27849(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6 .byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7 .byte 255,224 // jmpq *%rax @@ -17886,220 +18109,238 @@ _sk_load_tables_rgb_u16_be_avx: .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,31 // jne 1259d <_sk_load_tables_rgb_u16_be_avx+0x28c> + .byte 117,31 // jne 12a15 <_sk_load_tables_rgb_u16_be_avx+0x28c> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3 .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 - .byte 233,199,253,255,255 // jmpq 12364 <_sk_load_tables_rgb_u16_be_avx+0x53> + .byte 233,199,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53> .byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,48 // jb 125e7 <_sk_load_tables_rgb_u16_be_avx+0x2d6> + .byte 114,48 // jb 12a5f <_sk_load_tables_rgb_u16_be_avx+0x2d6> .byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 117,48 // jne 12601 <_sk_load_tables_rgb_u16_be_avx+0x2f0> + .byte 117,48 // jne 12a79 <_sk_load_tables_rgb_u16_be_avx+0x2f0> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 - .byte 233,125,253,255,255 // jmpq 12364 <_sk_load_tables_rgb_u16_be_avx+0x53> + .byte 233,125,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3 - .byte 233,99,253,255,255 // jmpq 12364 <_sk_load_tables_rgb_u16_be_avx+0x53> + .byte 233,99,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53> .byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,39 // jb 12642 <_sk_load_tables_rgb_u16_be_avx+0x331> + .byte 114,39 // jb 12aba <_sk_load_tables_rgb_u16_be_avx+0x331> .byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 117,30 // jne 12653 <_sk_load_tables_rgb_u16_be_avx+0x342> + .byte 117,30 // jne 12acb <_sk_load_tables_rgb_u16_be_avx+0x342> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 - .byte 233,34,253,255,255 // jmpq 12364 <_sk_load_tables_rgb_u16_be_avx+0x53> + .byte 233,34,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 - .byte 233,17,253,255,255 // jmpq 12364 <_sk_load_tables_rgb_u16_be_avx+0x53> + .byte 233,17,253,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53> .byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 114,25 // jb 12686 <_sk_load_tables_rgb_u16_be_avx+0x375> + .byte 114,25 // jb 12afe <_sk_load_tables_rgb_u16_be_avx+0x375> .byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0 - .byte 233,222,252,255,255 // jmpq 12364 <_sk_load_tables_rgb_u16_be_avx+0x53> + .byte 233,222,252,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 - .byte 233,213,252,255,255 // jmpq 12364 <_sk_load_tables_rgb_u16_be_avx+0x53> + .byte 233,213,252,255,255 // jmpq 127dc <_sk_load_tables_rgb_u16_be_avx+0x53> HIDDEN _sk_byte_tables_avx .globl _sk_byte_tables_avx FUNCTION(_sk_byte_tables_avx) _sk_byte_tables_avx: + .byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp) + .byte 197,252,40,254 // vmovaps %ymm6,%ymm7 + .byte 197,252,40,245 // vmovaps %ymm5,%ymm6 + .byte 197,252,40,236 // vmovaps %ymm4,%ymm5 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,98,125,24,5,150,113,2,0 // vbroadcastss 0x27196(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 - .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9 - .byte 196,65,249,126,200 // vmovq %xmm9,%r8 + .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 + .byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0 + .byte 196,98,125,24,5,235,118,2,0 // vbroadcastss 0x276eb(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 + .byte 196,98,125,24,21,9,119,2,0 // vbroadcastss 0x27709(%rip),%ymm10 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0 + .byte 197,125,91,216 // vcvtps2dq %ymm0,%ymm11 + .byte 196,65,249,126,216 // vmovq %xmm11,%r8 .byte 69,137,193 // mov %r8d,%r9d .byte 76,139,16 // mov (%rax),%r10 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d .byte 196,193,121,110,193 // vmovd %r9d,%xmm0 - .byte 196,67,249,22,201,1 // vpextrq $0x1,%xmm9,%r9 + .byte 196,67,249,22,217,1 // vpextrq $0x1,%xmm11,%r9 .byte 73,193,232,32 // shr $0x20,%r8 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d - .byte 196,67,121,32,208,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm10 + .byte 196,67,121,32,224,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm12 .byte 69,137,200 // mov %r9d,%r8d .byte 73,193,233,32 // shr $0x20,%r9 - .byte 196,99,125,25,200,1 // vextractf128 $0x1,%ymm9,%xmm0 + .byte 196,99,125,25,216,1 // vextractf128 $0x1,%ymm11,%xmm0 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d - .byte 196,67,41,32,200,2 // vpinsrb $0x2,%r8d,%xmm10,%xmm9 + .byte 196,67,25,32,216,2 // vpinsrb $0x2,%r8d,%xmm12,%xmm11 .byte 196,193,249,126,192 // vmovq %xmm0,%r8 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d - .byte 196,67,49,32,201,3 // vpinsrb $0x3,%r9d,%xmm9,%xmm9 + .byte 196,67,33,32,217,3 // vpinsrb $0x3,%r9d,%xmm11,%xmm11 .byte 69,137,193 // mov %r8d,%r9d .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d - .byte 196,65,121,110,209 // vmovd %r9d,%xmm10 + .byte 196,65,121,110,225 // vmovd %r9d,%xmm12 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 73,193,232,32 // shr $0x20,%r8 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d - .byte 196,195,41,32,192,1 // vpinsrb $0x1,%r8d,%xmm10,%xmm0 + .byte 196,195,25,32,192,1 // vpinsrb $0x1,%r8d,%xmm12,%xmm0 .byte 69,137,200 // mov %r9d,%r8d .byte 73,193,233,32 // shr $0x20,%r9 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d .byte 196,195,121,32,192,2 // vpinsrb $0x2,%r8d,%xmm0,%xmm0 .byte 76,139,64,8 // mov 0x8(%rax),%r8 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d - .byte 196,67,121,32,209,3 // vpinsrb $0x3,%r9d,%xmm0,%xmm10 - .byte 196,193,116,89,192 // vmulps %ymm8,%ymm1,%ymm0 - .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 - .byte 196,193,249,126,193 // vmovq %xmm0,%r9 + .byte 196,67,121,32,233,3 // vpinsrb $0x3,%r9d,%xmm0,%xmm13 + .byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1 + .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1 + .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1 + .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1 + .byte 196,193,249,126,201 // vmovq %xmm1,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d - .byte 196,193,121,110,202 // vmovd %r10d,%xmm1 - .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 + .byte 196,193,121,110,194 // vmovd %r10d,%xmm0 + .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10 .byte 73,193,233,32 // shr $0x20,%r9 .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d - .byte 196,195,113,32,201,1 // vpinsrb $0x1,%r9d,%xmm1,%xmm1 + .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0 .byte 69,137,209 // mov %r10d,%r9d .byte 73,193,234,32 // shr $0x20,%r10 - .byte 196,227,125,25,192,1 // vextractf128 $0x1,%ymm0,%xmm0 + .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1 .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d - .byte 196,195,113,32,201,2 // vpinsrb $0x2,%r9d,%xmm1,%xmm1 - .byte 196,193,249,126,193 // vmovq %xmm0,%r9 + .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0 + .byte 196,193,249,126,201 // vmovq %xmm1,%r9 .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d - .byte 196,67,113,32,226,3 // vpinsrb $0x3,%r10d,%xmm1,%xmm12 + .byte 196,67,121,32,226,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm12 .byte 69,137,202 // mov %r9d,%r10d .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d - .byte 196,193,121,110,202 // vmovd %r10d,%xmm1 - .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 + .byte 196,193,121,110,194 // vmovd %r10d,%xmm0 + .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10 .byte 73,193,233,32 // shr $0x20,%r9 .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d - .byte 196,195,113,32,193,1 // vpinsrb $0x1,%r9d,%xmm1,%xmm0 + .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0 .byte 69,137,209 // mov %r10d,%r9d .byte 73,193,234,32 // shr $0x20,%r10 .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0 .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d - .byte 196,67,121,32,232,3 // vpinsrb $0x3,%r8d,%xmm0,%xmm13 + .byte 196,67,121,32,240,3 // vpinsrb $0x3,%r8d,%xmm0,%xmm14 .byte 76,139,64,16 // mov 0x10(%rax),%r8 - .byte 196,193,108,89,200 // vmulps %ymm8,%ymm2,%ymm1 - .byte 197,253,91,209 // vcvtps2dq %ymm1,%ymm2 + .byte 197,180,95,194 // vmaxps %ymm2,%ymm9,%ymm0 + .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 + .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0 + .byte 197,253,91,208 // vcvtps2dq %ymm0,%ymm2 .byte 196,193,249,126,209 // vmovq %xmm2,%r9 .byte 69,137,202 // mov %r9d,%r10d .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d - .byte 196,193,121,110,202 // vmovd %r10d,%xmm1 + .byte 196,193,121,110,194 // vmovd %r10d,%xmm0 .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10 .byte 73,193,233,32 // shr $0x20,%r9 .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d - .byte 196,195,113,32,201,1 // vpinsrb $0x1,%r9d,%xmm1,%xmm1 + .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0 .byte 69,137,209 // mov %r10d,%r9d .byte 73,193,234,32 // shr $0x20,%r10 - .byte 196,227,125,25,210,1 // vextractf128 $0x1,%ymm2,%xmm2 + .byte 196,227,125,25,209,1 // vextractf128 $0x1,%ymm2,%xmm1 .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d - .byte 196,195,113,32,201,2 // vpinsrb $0x2,%r9d,%xmm1,%xmm1 - .byte 196,193,249,126,209 // vmovq %xmm2,%r9 + .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0 + .byte 196,193,249,126,201 // vmovq %xmm1,%r9 .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d - .byte 196,67,113,32,218,3 // vpinsrb $0x3,%r10d,%xmm1,%xmm11 + .byte 196,67,121,32,250,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm15 .byte 69,137,202 // mov %r9d,%r10d .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d - .byte 196,193,121,110,202 // vmovd %r10d,%xmm1 - .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10 + .byte 196,193,121,110,194 // vmovd %r10d,%xmm0 + .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10 .byte 73,193,233,32 // shr $0x20,%r9 .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d - .byte 196,195,113,32,201,1 // vpinsrb $0x1,%r9d,%xmm1,%xmm1 + .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0 .byte 69,137,209 // mov %r10d,%r9d .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d - .byte 196,195,113,32,201,2 // vpinsrb $0x2,%r9d,%xmm1,%xmm1 + .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0 + .byte 197,180,95,203 // vmaxps %ymm3,%ymm9,%ymm1 .byte 73,193,234,32 // shr $0x20,%r10 .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d - .byte 196,67,113,32,240,3 // vpinsrb $0x3,%r8d,%xmm1,%xmm14 + .byte 196,195,121,32,224,3 // vpinsrb $0x3,%r8d,%xmm0,%xmm4 .byte 76,139,72,24 // mov 0x18(%rax),%r9 - .byte 196,193,100,89,200 // vmulps %ymm8,%ymm3,%ymm1 - .byte 197,253,91,217 // vcvtps2dq %ymm1,%ymm3 - .byte 196,193,249,126,216 // vmovq %xmm3,%r8 + .byte 196,193,116,93,192 // vminps %ymm8,%ymm1,%ymm0 + .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0 + .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 + .byte 196,193,249,126,192 // vmovq %xmm0,%r8 .byte 68,137,192 // mov %r8d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 197,249,110,200 // vmovd %eax,%xmm1 - .byte 196,195,249,22,218,1 // vpextrq $0x1,%xmm3,%r10 + .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 .byte 73,193,232,32 // shr $0x20,%r8 .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax .byte 196,227,113,32,200,1 // vpinsrb $0x1,%eax,%xmm1,%xmm1 .byte 68,137,208 // mov %r10d,%eax .byte 73,193,234,32 // shr $0x20,%r10 - .byte 196,227,125,25,219,1 // vextractf128 $0x1,%ymm3,%xmm3 + .byte 196,227,125,25,192,1 // vextractf128 $0x1,%ymm0,%xmm0 .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 196,227,113,32,200,2 // vpinsrb $0x2,%eax,%xmm1,%xmm1 - .byte 196,193,249,126,216 // vmovq %xmm3,%r8 + .byte 196,193,249,126,192 // vmovq %xmm0,%r8 .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax .byte 196,99,113,32,192,3 // vpinsrb $0x3,%eax,%xmm1,%xmm8 .byte 68,137,192 // mov %r8d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax .byte 197,249,110,200 // vmovd %eax,%xmm1 - .byte 196,195,249,22,218,1 // vpextrq $0x1,%xmm3,%r10 + .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10 .byte 73,193,232,32 // shr $0x20,%r8 .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax - .byte 196,227,113,32,200,1 // vpinsrb $0x1,%eax,%xmm1,%xmm1 + .byte 196,227,113,32,192,1 // vpinsrb $0x1,%eax,%xmm1,%xmm0 .byte 68,137,208 // mov %r10d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax - .byte 196,99,113,32,248,2 // vpinsrb $0x2,%eax,%xmm1,%xmm15 + .byte 196,227,121,32,216,2 // vpinsrb $0x2,%eax,%xmm0,%xmm3 .byte 73,193,234,32 // shr $0x20,%r10 .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax - .byte 196,194,121,49,201 // vpmovzxbd %xmm9,%xmm1 - .byte 196,194,121,49,194 // vpmovzxbd %xmm10,%xmm0 - .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0 + .byte 196,194,121,49,195 // vpmovzxbd %xmm11,%xmm0 + .byte 196,194,121,49,205 // vpmovzxbd %xmm13,%xmm1 + .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 + .byte 196,98,125,24,13,186,116,2,0 // vbroadcastss 0x274ba(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 .byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1 - .byte 196,194,121,49,213 // vpmovzxbd %xmm13,%xmm2 + .byte 196,194,121,49,214 // vpmovzxbd %xmm14,%xmm2 .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1 - .byte 196,98,125,24,13,82,111,2,0 // vbroadcastss 0x26f52(%rip),%ymm9 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> - .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1 - .byte 196,194,121,49,211 // vpmovzxbd %xmm11,%xmm2 - .byte 196,194,121,49,222 // vpmovzxbd %xmm14,%xmm3 - .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2 + .byte 196,194,121,49,215 // vpmovzxbd %xmm15,%xmm2 + .byte 196,226,121,49,228 // vpmovzxbd %xmm4,%xmm4 + .byte 196,227,109,24,212,1 // vinsertf128 $0x1,%xmm4,%ymm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2 - .byte 196,66,121,49,192 // vpmovzxbd %xmm8,%xmm8 - .byte 196,227,1,32,216,3 // vpinsrb $0x3,%eax,%xmm15,%xmm3 + .byte 196,194,121,49,224 // vpmovzxbd %xmm8,%xmm4 + .byte 196,227,97,32,216,3 // vpinsrb $0x3,%eax,%xmm3,%xmm3 .byte 196,226,121,49,219 // vpmovzxbd %xmm3,%xmm3 - .byte 196,227,61,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm3 + .byte 196,227,93,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm4,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax + .byte 197,252,40,229 // vmovaps %ymm5,%ymm4 + .byte 197,252,40,238 // vmovaps %ymm6,%ymm5 + .byte 197,252,40,247 // vmovaps %ymm7,%ymm6 + .byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7 .byte 255,224 // jmpq *%rax HIDDEN _sk_byte_tables_rgb_avx @@ -18113,39 +18354,45 @@ _sk_byte_tables_rgb_avx: .byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8 .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 - .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9 - .byte 196,65,249,126,200 // vmovq %xmm9,%r8 + .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 + .byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0 + .byte 196,98,125,24,21,165,115,2,0 // vbroadcastss 0x273a5(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,193,124,93,194 // vminps %ymm10,%ymm0,%ymm0 + .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 + .byte 197,125,91,216 // vcvtps2dq %ymm0,%ymm11 + .byte 196,65,249,126,216 // vmovq %xmm11,%r8 .byte 69,137,193 // mov %r8d,%r9d .byte 76,139,16 // mov (%rax),%r10 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d .byte 196,193,121,110,193 // vmovd %r9d,%xmm0 - .byte 196,67,249,22,201,1 // vpextrq $0x1,%xmm9,%r9 + .byte 196,67,249,22,217,1 // vpextrq $0x1,%xmm11,%r9 .byte 73,193,232,32 // shr $0x20,%r8 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d - .byte 196,67,121,32,208,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm10 + .byte 196,67,121,32,224,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm12 .byte 69,137,200 // mov %r9d,%r8d .byte 73,193,233,32 // shr $0x20,%r9 - .byte 196,99,125,25,200,1 // vextractf128 $0x1,%ymm9,%xmm0 + .byte 196,99,125,25,216,1 // vextractf128 $0x1,%ymm11,%xmm0 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d - .byte 196,67,41,32,200,2 // vpinsrb $0x2,%r8d,%xmm10,%xmm9 + .byte 196,67,25,32,216,2 // vpinsrb $0x2,%r8d,%xmm12,%xmm11 .byte 196,193,249,126,192 // vmovq %xmm0,%r8 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d - .byte 196,67,49,32,201,3 // vpinsrb $0x3,%r9d,%xmm9,%xmm9 + .byte 196,67,33,32,217,3 // vpinsrb $0x3,%r9d,%xmm11,%xmm11 .byte 69,137,193 // mov %r8d,%r9d .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d - .byte 196,65,121,110,209 // vmovd %r9d,%xmm10 + .byte 196,65,121,110,225 // vmovd %r9d,%xmm12 .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9 .byte 73,193,232,32 // shr $0x20,%r8 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d - .byte 196,195,41,32,192,1 // vpinsrb $0x1,%r8d,%xmm10,%xmm0 + .byte 196,195,25,32,192,1 // vpinsrb $0x1,%r8d,%xmm12,%xmm0 .byte 69,137,200 // mov %r9d,%r8d .byte 73,193,233,32 // shr $0x20,%r9 .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d .byte 196,195,121,32,192,2 // vpinsrb $0x2,%r8d,%xmm0,%xmm0 .byte 76,139,64,8 // mov 0x8(%rax),%r8 .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d - .byte 196,67,121,32,217,3 // vpinsrb $0x3,%r9d,%xmm0,%xmm11 + .byte 196,67,121,32,233,3 // vpinsrb $0x3,%r9d,%xmm0,%xmm13 + .byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1 + .byte 196,193,116,93,202 // vminps %ymm10,%ymm1,%ymm1 .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1 .byte 196,193,249,126,201 // vmovq %xmm1,%r9 @@ -18163,7 +18410,7 @@ _sk_byte_tables_rgb_avx: .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0 .byte 196,193,249,126,201 // vmovq %xmm1,%r9 .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d - .byte 196,67,121,32,210,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm10 + .byte 196,67,121,32,226,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm12 .byte 69,137,202 // mov %r9d,%r10d .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d .byte 196,193,121,110,194 // vmovd %r10d,%xmm0 @@ -18176,9 +18423,11 @@ _sk_byte_tables_rgb_avx: .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0 .byte 73,193,234,32 // shr $0x20,%r10 .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d - .byte 196,67,121,32,224,3 // vpinsrb $0x3,%r8d,%xmm0,%xmm12 + .byte 196,67,121,32,240,3 // vpinsrb $0x3,%r8d,%xmm0,%xmm14 .byte 76,139,72,16 // mov 0x10(%rax),%r9 - .byte 197,188,89,194 // vmulps %ymm2,%ymm8,%ymm0 + .byte 197,180,95,194 // vmaxps %ymm2,%ymm9,%ymm0 + .byte 196,193,124,93,194 // vminps %ymm10,%ymm0,%ymm0 + .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 197,253,91,208 // vcvtps2dq %ymm0,%ymm2 .byte 196,193,249,126,208 // vmovq %xmm2,%r8 .byte 68,137,192 // mov %r8d,%eax @@ -18205,22 +18454,22 @@ _sk_byte_tables_rgb_avx: .byte 196,227,121,32,192,1 // vpinsrb $0x1,%eax,%xmm0,%xmm0 .byte 68,137,208 // mov %r10d,%eax .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax - .byte 196,99,121,32,232,2 // vpinsrb $0x2,%eax,%xmm0,%xmm13 + .byte 196,99,121,32,208,2 // vpinsrb $0x2,%eax,%xmm0,%xmm10 .byte 73,193,234,32 // shr $0x20,%r10 .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax - .byte 196,194,121,49,193 // vpmovzxbd %xmm9,%xmm0 - .byte 196,194,121,49,203 // vpmovzxbd %xmm11,%xmm1 + .byte 196,194,121,49,195 // vpmovzxbd %xmm11,%xmm0 + .byte 196,194,121,49,205 // vpmovzxbd %xmm13,%xmm1 .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,98,125,24,13,7,109,2,0 // vbroadcastss 0x26d07(%rip),%ymm9 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,13,35,114,2,0 // vbroadcastss 0x27223(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 - .byte 196,194,121,49,202 // vpmovzxbd %xmm10,%xmm1 - .byte 196,194,121,49,212 // vpmovzxbd %xmm12,%xmm2 + .byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1 + .byte 196,194,121,49,214 // vpmovzxbd %xmm14,%xmm2 .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1 .byte 196,66,121,49,192 // vpmovzxbd %xmm8,%xmm8 - .byte 196,227,17,32,208,3 // vpinsrb $0x3,%eax,%xmm13,%xmm2 + .byte 196,227,41,32,208,3 // vpinsrb $0x3,%eax,%xmm10,%xmm2 .byte 196,226,121,49,210 // vpmovzxbd %xmm2,%xmm2 .byte 196,227,61,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm8,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 @@ -18244,7 +18493,11 @@ _sk_table_r_avx: .byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8 .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 + .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 + .byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0 + .byte 196,98,125,24,13,50,113,2,0 // vbroadcastss 0x27132(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,193,124,93,193 // vminps %ymm9,%ymm0,%ymm0 + .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 .byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax .byte 65,137,193 // mov %eax,%r9d @@ -18295,7 +18548,11 @@ _sk_table_g_avx: .byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8 .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1 + .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 + .byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1 + .byte 196,98,125,24,13,89,112,2,0 // vbroadcastss 0x27059(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,193,116,93,201 // vminps %ymm9,%ymm1,%ymm1 + .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1 .byte 196,227,249,22,200,1 // vpextrq $0x1,%xmm1,%rax .byte 65,137,193 // mov %eax,%r9d @@ -18346,7 +18603,11 @@ _sk_table_b_avx: .byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8 .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2 + .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 + .byte 197,180,95,210 // vmaxps %ymm2,%ymm9,%ymm2 + .byte 196,98,125,24,13,128,111,2,0 // vbroadcastss 0x26f80(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2 + .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2 .byte 196,227,249,22,208,1 // vpextrq $0x1,%xmm2,%rax .byte 65,137,193 // mov %eax,%r9d @@ -18397,7 +18658,11 @@ _sk_table_a_avx: .byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8 .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8 .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8 - .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3 + .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 + .byte 197,180,95,219 // vmaxps %ymm3,%ymm9,%ymm3 + .byte 196,98,125,24,13,167,110,2,0 // vbroadcastss 0x26ea7(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,193,100,93,217 // vminps %ymm9,%ymm3,%ymm3 + .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3 .byte 196,227,249,22,216,1 // vpextrq $0x1,%xmm3,%rax .byte 65,137,193 // mov %eax,%r9d @@ -18451,36 +18716,36 @@ _sk_parametric_r_avx: .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,36,194,208,0 // vcmpeqps %ymm0,%ymm11,%ymm10 .byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13 - .byte 196,98,125,24,53,142,105,2,0 // vbroadcastss 0x2698e(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348> + .byte 196,98,125,24,53,74,110,2,0 // vbroadcastss 0x26e4a(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348> .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13 - .byte 196,98,125,24,53,132,105,2,0 // vbroadcastss 0x26984(%rip),%ymm14 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> + .byte 196,98,125,24,53,64,110,2,0 // vbroadcastss 0x26e40(%rip),%ymm14 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> .byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11 - .byte 196,98,125,24,53,214,104,2,0 // vbroadcastss 0x268d6(%rip),%ymm14 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,53,146,109,2,0 // vbroadcastss 0x26d92(%rip),%ymm14 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11 - .byte 196,98,125,24,53,108,105,2,0 // vbroadcastss 0x2696c(%rip),%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350> + .byte 196,98,125,24,53,40,110,2,0 // vbroadcastss 0x26e28(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350> .byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13 - .byte 196,98,125,24,53,98,105,2,0 // vbroadcastss 0x26962(%rip),%ymm14 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354> + .byte 196,98,125,24,53,30,110,2,0 // vbroadcastss 0x26e1e(%rip),%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354> .byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14 .byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13 - .byte 196,98,125,24,53,83,105,2,0 // vbroadcastss 0x26953(%rip),%ymm14 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358> + .byte 196,98,125,24,53,15,110,2,0 // vbroadcastss 0x26e0f(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358> .byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11 - .byte 196,98,125,24,53,73,105,2,0 // vbroadcastss 0x26949(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> + .byte 196,98,125,24,53,5,110,2,0 // vbroadcastss 0x26e05(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> .byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11 .byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11 .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11 .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12 .byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12 - .byte 196,98,125,24,45,42,105,2,0 // vbroadcastss 0x2692a(%rip),%ymm13 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360> + .byte 196,98,125,24,45,230,109,2,0 // vbroadcastss 0x26de6(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360> .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11 - .byte 196,98,125,24,45,32,105,2,0 // vbroadcastss 0x26920(%rip),%ymm13 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364> + .byte 196,98,125,24,45,220,109,2,0 // vbroadcastss 0x26ddc(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364> .byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13 .byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11 - .byte 196,98,125,24,45,17,105,2,0 // vbroadcastss 0x26911(%rip),%ymm13 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368> + .byte 196,98,125,24,45,205,109,2,0 // vbroadcastss 0x26dcd(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368> .byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12 - .byte 196,98,125,24,45,7,105,2,0 // vbroadcastss 0x26907(%rip),%ymm13 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> + .byte 196,98,125,24,45,195,109,2,0 // vbroadcastss 0x26dc3(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> .byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12 .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11 - .byte 196,98,125,24,37,248,104,2,0 // vbroadcastss 0x268f8(%rip),%ymm12 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370> + .byte 196,98,125,24,37,180,109,2,0 // vbroadcastss 0x26db4(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370> .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11 .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 .byte 196,99,37,74,208,160 // vblendvps %ymm10,%ymm0,%ymm11,%ymm10 @@ -18488,7 +18753,7 @@ _sk_parametric_r_avx: .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8 .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0 - .byte 196,98,125,24,5,10,104,2,0 // vbroadcastss 0x2680a(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,198,108,2,0 // vbroadcastss 0x26cc6(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -18512,36 +18777,36 @@ _sk_parametric_g_avx: .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,36,194,209,0 // vcmpeqps %ymm1,%ymm11,%ymm10 .byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13 - .byte 196,98,125,24,53,69,104,2,0 // vbroadcastss 0x26845(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348> + .byte 196,98,125,24,53,1,109,2,0 // vbroadcastss 0x26d01(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348> .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13 - .byte 196,98,125,24,53,59,104,2,0 // vbroadcastss 0x2683b(%rip),%ymm14 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> + .byte 196,98,125,24,53,247,108,2,0 // vbroadcastss 0x26cf7(%rip),%ymm14 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> .byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11 - .byte 196,98,125,24,53,141,103,2,0 // vbroadcastss 0x2678d(%rip),%ymm14 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,53,73,108,2,0 // vbroadcastss 0x26c49(%rip),%ymm14 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11 - .byte 196,98,125,24,53,35,104,2,0 // vbroadcastss 0x26823(%rip),%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350> + .byte 196,98,125,24,53,223,108,2,0 // vbroadcastss 0x26cdf(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350> .byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13 - .byte 196,98,125,24,53,25,104,2,0 // vbroadcastss 0x26819(%rip),%ymm14 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354> + .byte 196,98,125,24,53,213,108,2,0 // vbroadcastss 0x26cd5(%rip),%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354> .byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14 .byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13 - .byte 196,98,125,24,53,10,104,2,0 // vbroadcastss 0x2680a(%rip),%ymm14 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358> + .byte 196,98,125,24,53,198,108,2,0 // vbroadcastss 0x26cc6(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358> .byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11 - .byte 196,98,125,24,53,0,104,2,0 // vbroadcastss 0x26800(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> + .byte 196,98,125,24,53,188,108,2,0 // vbroadcastss 0x26cbc(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> .byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11 .byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11 .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11 .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12 .byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12 - .byte 196,98,125,24,45,225,103,2,0 // vbroadcastss 0x267e1(%rip),%ymm13 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360> + .byte 196,98,125,24,45,157,108,2,0 // vbroadcastss 0x26c9d(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360> .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11 - .byte 196,98,125,24,45,215,103,2,0 // vbroadcastss 0x267d7(%rip),%ymm13 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364> + .byte 196,98,125,24,45,147,108,2,0 // vbroadcastss 0x26c93(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364> .byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13 .byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11 - .byte 196,98,125,24,45,200,103,2,0 // vbroadcastss 0x267c8(%rip),%ymm13 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368> + .byte 196,98,125,24,45,132,108,2,0 // vbroadcastss 0x26c84(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368> .byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12 - .byte 196,98,125,24,45,190,103,2,0 // vbroadcastss 0x267be(%rip),%ymm13 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> + .byte 196,98,125,24,45,122,108,2,0 // vbroadcastss 0x26c7a(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> .byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12 .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11 - .byte 196,98,125,24,37,175,103,2,0 // vbroadcastss 0x267af(%rip),%ymm12 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370> + .byte 196,98,125,24,37,107,108,2,0 // vbroadcastss 0x26c6b(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370> .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11 .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 .byte 196,99,37,74,209,160 // vblendvps %ymm10,%ymm1,%ymm11,%ymm10 @@ -18549,7 +18814,7 @@ _sk_parametric_g_avx: .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8 .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1 - .byte 196,98,125,24,5,193,102,2,0 // vbroadcastss 0x266c1(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,125,107,2,0 // vbroadcastss 0x26b7d(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -18573,36 +18838,36 @@ _sk_parametric_b_avx: .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 .byte 197,36,194,210,0 // vcmpeqps %ymm2,%ymm11,%ymm10 .byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13 - .byte 196,98,125,24,53,252,102,2,0 // vbroadcastss 0x266fc(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348> + .byte 196,98,125,24,53,184,107,2,0 // vbroadcastss 0x26bb8(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348> .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13 - .byte 196,98,125,24,53,242,102,2,0 // vbroadcastss 0x266f2(%rip),%ymm14 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> + .byte 196,98,125,24,53,174,107,2,0 // vbroadcastss 0x26bae(%rip),%ymm14 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> .byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11 - .byte 196,98,125,24,53,68,102,2,0 // vbroadcastss 0x26644(%rip),%ymm14 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,53,0,107,2,0 // vbroadcastss 0x26b00(%rip),%ymm14 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11 - .byte 196,98,125,24,53,218,102,2,0 // vbroadcastss 0x266da(%rip),%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350> + .byte 196,98,125,24,53,150,107,2,0 // vbroadcastss 0x26b96(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350> .byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13 - .byte 196,98,125,24,53,208,102,2,0 // vbroadcastss 0x266d0(%rip),%ymm14 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354> + .byte 196,98,125,24,53,140,107,2,0 // vbroadcastss 0x26b8c(%rip),%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354> .byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14 .byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13 - .byte 196,98,125,24,53,193,102,2,0 // vbroadcastss 0x266c1(%rip),%ymm14 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358> + .byte 196,98,125,24,53,125,107,2,0 // vbroadcastss 0x26b7d(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358> .byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11 - .byte 196,98,125,24,53,183,102,2,0 // vbroadcastss 0x266b7(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> + .byte 196,98,125,24,53,115,107,2,0 // vbroadcastss 0x26b73(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> .byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11 .byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11 .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11 .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12 .byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12 - .byte 196,98,125,24,45,152,102,2,0 // vbroadcastss 0x26698(%rip),%ymm13 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360> + .byte 196,98,125,24,45,84,107,2,0 // vbroadcastss 0x26b54(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360> .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11 - .byte 196,98,125,24,45,142,102,2,0 // vbroadcastss 0x2668e(%rip),%ymm13 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364> + .byte 196,98,125,24,45,74,107,2,0 // vbroadcastss 0x26b4a(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364> .byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13 .byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11 - .byte 196,98,125,24,45,127,102,2,0 // vbroadcastss 0x2667f(%rip),%ymm13 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368> + .byte 196,98,125,24,45,59,107,2,0 // vbroadcastss 0x26b3b(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368> .byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12 - .byte 196,98,125,24,45,117,102,2,0 // vbroadcastss 0x26675(%rip),%ymm13 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> + .byte 196,98,125,24,45,49,107,2,0 // vbroadcastss 0x26b31(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> .byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12 .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11 - .byte 196,98,125,24,37,102,102,2,0 // vbroadcastss 0x26666(%rip),%ymm12 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370> + .byte 196,98,125,24,37,34,107,2,0 // vbroadcastss 0x26b22(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370> .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11 .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 .byte 196,99,37,74,210,160 // vblendvps %ymm10,%ymm2,%ymm11,%ymm10 @@ -18610,7 +18875,7 @@ _sk_parametric_b_avx: .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8 .byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2 - .byte 196,98,125,24,5,120,101,2,0 // vbroadcastss 0x26578(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,52,106,2,0 // vbroadcastss 0x26a34(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -18634,36 +18899,36 @@ _sk_parametric_a_avx: .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3 .byte 197,36,194,211,0 // vcmpeqps %ymm3,%ymm11,%ymm10 .byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13 - .byte 196,98,125,24,53,179,101,2,0 // vbroadcastss 0x265b3(%rip),%ymm14 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348> + .byte 196,98,125,24,53,111,106,2,0 // vbroadcastss 0x26a6f(%rip),%ymm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348> .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13 - .byte 196,98,125,24,53,169,101,2,0 // vbroadcastss 0x265a9(%rip),%ymm14 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> + .byte 196,98,125,24,53,101,106,2,0 // vbroadcastss 0x26a65(%rip),%ymm14 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> .byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11 - .byte 196,98,125,24,53,251,100,2,0 // vbroadcastss 0x264fb(%rip),%ymm14 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,53,183,105,2,0 // vbroadcastss 0x269b7(%rip),%ymm14 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11 - .byte 196,98,125,24,53,145,101,2,0 // vbroadcastss 0x26591(%rip),%ymm14 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350> + .byte 196,98,125,24,53,77,106,2,0 // vbroadcastss 0x26a4d(%rip),%ymm14 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350> .byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13 - .byte 196,98,125,24,53,135,101,2,0 // vbroadcastss 0x26587(%rip),%ymm14 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354> + .byte 196,98,125,24,53,67,106,2,0 // vbroadcastss 0x26a43(%rip),%ymm14 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354> .byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14 .byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13 - .byte 196,98,125,24,53,120,101,2,0 // vbroadcastss 0x26578(%rip),%ymm14 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358> + .byte 196,98,125,24,53,52,106,2,0 // vbroadcastss 0x26a34(%rip),%ymm14 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358> .byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11 - .byte 196,98,125,24,53,110,101,2,0 // vbroadcastss 0x2656e(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> + .byte 196,98,125,24,53,42,106,2,0 // vbroadcastss 0x26a2a(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> .byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11 .byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11 .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11 .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12 .byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12 - .byte 196,98,125,24,45,79,101,2,0 // vbroadcastss 0x2654f(%rip),%ymm13 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360> + .byte 196,98,125,24,45,11,106,2,0 // vbroadcastss 0x26a0b(%rip),%ymm13 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360> .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11 - .byte 196,98,125,24,45,69,101,2,0 // vbroadcastss 0x26545(%rip),%ymm13 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364> + .byte 196,98,125,24,45,1,106,2,0 // vbroadcastss 0x26a01(%rip),%ymm13 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364> .byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13 .byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11 - .byte 196,98,125,24,45,54,101,2,0 // vbroadcastss 0x26536(%rip),%ymm13 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368> + .byte 196,98,125,24,45,242,105,2,0 // vbroadcastss 0x269f2(%rip),%ymm13 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368> .byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12 - .byte 196,98,125,24,45,44,101,2,0 // vbroadcastss 0x2652c(%rip),%ymm13 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> + .byte 196,98,125,24,45,232,105,2,0 // vbroadcastss 0x269e8(%rip),%ymm13 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> .byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12 .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11 - .byte 196,98,125,24,37,29,101,2,0 // vbroadcastss 0x2651d(%rip),%ymm12 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370> + .byte 196,98,125,24,37,217,105,2,0 // vbroadcastss 0x269d9(%rip),%ymm12 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370> .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11 .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 .byte 196,99,37,74,211,160 // vblendvps %ymm10,%ymm3,%ymm11,%ymm10 @@ -18671,7 +18936,7 @@ _sk_parametric_a_avx: .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8 .byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3 - .byte 196,98,125,24,5,47,100,2,0 // vbroadcastss 0x2642f(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,235,104,2,0 // vbroadcastss 0x268eb(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -18690,22 +18955,22 @@ _sk_gamma_avx: .byte 197,252,17,76,36,128 // vmovups %ymm1,-0x80(%rsp) .byte 197,252,40,224 // vmovaps %ymm0,%ymm4 .byte 197,252,91,204 // vcvtdq2ps %ymm4,%ymm1 - .byte 196,226,125,24,5,122,100,2,0 // vbroadcastss 0x2647a(%rip),%ymm0 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348> + .byte 196,226,125,24,5,54,105,2,0 // vbroadcastss 0x26936(%rip),%ymm0 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348> .byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1 .byte 197,124,40,192 // vmovaps %ymm0,%ymm8 .byte 197,124,17,68,36,160 // vmovups %ymm8,-0x60(%rsp) - .byte 196,98,125,24,13,103,100,2,0 // vbroadcastss 0x26467(%rip),%ymm9 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> + .byte 196,98,125,24,13,35,105,2,0 // vbroadcastss 0x26923(%rip),%ymm9 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> .byte 196,193,92,84,209 // vandps %ymm9,%ymm4,%ymm2 - .byte 196,98,125,24,21,185,99,2,0 // vbroadcastss 0x263b9(%rip),%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,21,117,104,2,0 // vbroadcastss 0x26875(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,193,108,86,210 // vorps %ymm10,%ymm2,%ymm2 - .byte 196,98,125,24,29,79,100,2,0 // vbroadcastss 0x2644f(%rip),%ymm11 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350> + .byte 196,98,125,24,29,11,105,2,0 // vbroadcastss 0x2690b(%rip),%ymm11 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350> .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1 - .byte 196,98,125,24,37,69,100,2,0 // vbroadcastss 0x26445(%rip),%ymm12 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354> + .byte 196,98,125,24,37,1,105,2,0 // vbroadcastss 0x26901(%rip),%ymm12 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354> .byte 196,193,108,89,220 // vmulps %ymm12,%ymm2,%ymm3 .byte 197,244,92,203 // vsubps %ymm3,%ymm1,%ymm1 - .byte 196,98,125,24,45,55,100,2,0 // vbroadcastss 0x26437(%rip),%ymm13 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358> + .byte 196,98,125,24,45,243,104,2,0 // vbroadcastss 0x268f3(%rip),%ymm13 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358> .byte 196,193,108,88,213 // vaddps %ymm13,%ymm2,%ymm2 - .byte 196,98,125,24,53,45,100,2,0 // vbroadcastss 0x2642d(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> + .byte 196,98,125,24,53,233,104,2,0 // vbroadcastss 0x268e9(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> .byte 197,140,94,210 // vdivps %ymm2,%ymm14,%ymm2 .byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax @@ -18713,19 +18978,19 @@ _sk_gamma_avx: .byte 197,244,89,206 // vmulps %ymm6,%ymm1,%ymm1 .byte 196,227,125,8,209,1 // vroundps $0x1,%ymm1,%ymm2 .byte 197,244,92,234 // vsubps %ymm2,%ymm1,%ymm5 - .byte 196,98,125,24,61,11,100,2,0 // vbroadcastss 0x2640b(%rip),%ymm15 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360> + .byte 196,98,125,24,61,199,104,2,0 // vbroadcastss 0x268c7(%rip),%ymm15 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360> .byte 196,193,116,88,207 // vaddps %ymm15,%ymm1,%ymm1 - .byte 196,226,125,24,61,1,100,2,0 // vbroadcastss 0x26401(%rip),%ymm7 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364> + .byte 196,226,125,24,61,189,104,2,0 // vbroadcastss 0x268bd(%rip),%ymm7 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364> .byte 197,212,89,215 // vmulps %ymm7,%ymm5,%ymm2 .byte 197,244,92,194 // vsubps %ymm2,%ymm1,%ymm0 - .byte 196,226,125,24,29,244,99,2,0 // vbroadcastss 0x263f4(%rip),%ymm3 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368> + .byte 196,226,125,24,29,176,104,2,0 // vbroadcastss 0x268b0(%rip),%ymm3 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368> .byte 197,228,92,237 // vsubps %ymm5,%ymm3,%ymm5 - .byte 196,226,125,24,21,235,99,2,0 // vbroadcastss 0x263eb(%rip),%ymm2 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> + .byte 196,226,125,24,21,167,104,2,0 // vbroadcastss 0x268a7(%rip),%ymm2 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> .byte 197,236,94,237 // vdivps %ymm5,%ymm2,%ymm5 .byte 197,252,88,197 // vaddps %ymm5,%ymm0,%ymm0 .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5 .byte 197,220,194,205,0 // vcmpeqps %ymm5,%ymm4,%ymm1 - .byte 196,226,125,24,37,213,99,2,0 // vbroadcastss 0x263d5(%rip),%ymm4 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370> + .byte 196,226,125,24,37,145,104,2,0 // vbroadcastss 0x26891(%rip),%ymm4 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370> .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0 .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 .byte 196,227,125,74,197,16 // vblendvps %ymm1,%ymm5,%ymm0,%ymm0 @@ -18807,23 +19072,23 @@ _sk_gamma_dst_avx: .byte 197,252,17,76,36,96 // vmovups %ymm1,0x60(%rsp) .byte 197,252,17,68,36,64 // vmovups %ymm0,0x40(%rsp) .byte 197,252,91,196 // vcvtdq2ps %ymm4,%ymm0 - .byte 196,226,125,24,29,42,98,2,0 // vbroadcastss 0x2622a(%rip),%ymm3 # 3989c <_sk_srcover_bgra_8888_sse2_lowp+0x348> + .byte 196,226,125,24,29,230,102,2,0 // vbroadcastss 0x266e6(%rip),%ymm3 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x348> .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0 - .byte 196,226,125,24,13,33,98,2,0 // vbroadcastss 0x26221(%rip),%ymm1 # 398a0 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> + .byte 196,226,125,24,13,221,102,2,0 // vbroadcastss 0x266dd(%rip),%ymm1 # 3a2b4 <_sk_srcover_bgra_8888_sse2_lowp+0x34c> .byte 197,252,17,12,36 // vmovups %ymm1,(%rsp) .byte 197,220,84,201 // vandps %ymm1,%ymm4,%ymm1 - .byte 196,226,125,24,21,111,97,2,0 // vbroadcastss 0x2616f(%rip),%ymm2 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,226,125,24,21,43,102,2,0 // vbroadcastss 0x2662b(%rip),%ymm2 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,252,17,84,36,224 // vmovups %ymm2,-0x20(%rsp) .byte 197,244,86,202 // vorps %ymm2,%ymm1,%ymm1 - .byte 196,226,125,24,21,0,98,2,0 // vbroadcastss 0x26200(%rip),%ymm2 # 398a4 <_sk_srcover_bgra_8888_sse2_lowp+0x350> + .byte 196,226,125,24,21,188,102,2,0 // vbroadcastss 0x266bc(%rip),%ymm2 # 3a2b8 <_sk_srcover_bgra_8888_sse2_lowp+0x350> .byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp) .byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0 - .byte 196,98,125,24,37,241,97,2,0 // vbroadcastss 0x261f1(%rip),%ymm12 # 398a8 <_sk_srcover_bgra_8888_sse2_lowp+0x354> + .byte 196,98,125,24,37,173,102,2,0 // vbroadcastss 0x266ad(%rip),%ymm12 # 3a2bc <_sk_srcover_bgra_8888_sse2_lowp+0x354> .byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2 .byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0 - .byte 196,98,125,24,45,227,97,2,0 // vbroadcastss 0x261e3(%rip),%ymm13 # 398ac <_sk_srcover_bgra_8888_sse2_lowp+0x358> + .byte 196,98,125,24,45,159,102,2,0 // vbroadcastss 0x2669f(%rip),%ymm13 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x358> .byte 196,193,116,88,205 // vaddps %ymm13,%ymm1,%ymm1 - .byte 196,98,125,24,53,217,97,2,0 // vbroadcastss 0x261d9(%rip),%ymm14 # 398b0 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> + .byte 196,98,125,24,53,149,102,2,0 // vbroadcastss 0x26695(%rip),%ymm14 # 3a2c4 <_sk_srcover_bgra_8888_sse2_lowp+0x35c> .byte 197,140,94,201 // vdivps %ymm1,%ymm14,%ymm1 .byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax @@ -18831,19 +19096,19 @@ _sk_gamma_dst_avx: .byte 197,252,89,197 // vmulps %ymm5,%ymm0,%ymm0 .byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1 .byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1 - .byte 196,98,125,24,61,183,97,2,0 // vbroadcastss 0x261b7(%rip),%ymm15 # 398b4 <_sk_srcover_bgra_8888_sse2_lowp+0x360> + .byte 196,98,125,24,61,115,102,2,0 // vbroadcastss 0x26673(%rip),%ymm15 # 3a2c8 <_sk_srcover_bgra_8888_sse2_lowp+0x360> .byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0 - .byte 196,98,125,24,29,173,97,2,0 // vbroadcastss 0x261ad(%rip),%ymm11 # 398b8 <_sk_srcover_bgra_8888_sse2_lowp+0x364> + .byte 196,98,125,24,29,105,102,2,0 // vbroadcastss 0x26669(%rip),%ymm11 # 3a2cc <_sk_srcover_bgra_8888_sse2_lowp+0x364> .byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2 .byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0 - .byte 196,98,125,24,21,159,97,2,0 // vbroadcastss 0x2619f(%rip),%ymm10 # 398bc <_sk_srcover_bgra_8888_sse2_lowp+0x368> + .byte 196,98,125,24,21,91,102,2,0 // vbroadcastss 0x2665b(%rip),%ymm10 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x368> .byte 197,172,92,241 // vsubps %ymm1,%ymm10,%ymm6 - .byte 196,98,125,24,13,150,97,2,0 // vbroadcastss 0x26196(%rip),%ymm9 # 398c0 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> + .byte 196,98,125,24,13,82,102,2,0 // vbroadcastss 0x26652(%rip),%ymm9 # 3a2d4 <_sk_srcover_bgra_8888_sse2_lowp+0x36c> .byte 197,180,94,246 // vdivps %ymm6,%ymm9,%ymm6 .byte 197,252,88,198 // vaddps %ymm6,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,220,194,225,0 // vcmpeqps %ymm1,%ymm4,%ymm4 - .byte 196,226,125,24,61,128,97,2,0 // vbroadcastss 0x26180(%rip),%ymm7 # 398c4 <_sk_srcover_bgra_8888_sse2_lowp+0x370> + .byte 196,226,125,24,61,60,102,2,0 // vbroadcastss 0x2663c(%rip),%ymm7 # 3a2d8 <_sk_srcover_bgra_8888_sse2_lowp+0x370> .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0 .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0 .byte 196,227,125,74,193,64 // vblendvps %ymm4,%ymm1,%ymm0,%ymm0 @@ -18917,31 +19182,31 @@ HIDDEN _sk_lab_to_xyz_avx .globl _sk_lab_to_xyz_avx FUNCTION(_sk_lab_to_xyz_avx) _sk_lab_to_xyz_avx: - .byte 196,98,125,24,5,43,96,2,0 // vbroadcastss 0x2602b(%rip),%ymm8 # 398c8 <_sk_srcover_bgra_8888_sse2_lowp+0x374> + .byte 196,98,125,24,5,231,100,2,0 // vbroadcastss 0x264e7(%rip),%ymm8 # 3a2dc <_sk_srcover_bgra_8888_sse2_lowp+0x374> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 - .byte 196,98,125,24,5,133,95,2,0 // vbroadcastss 0x25f85(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,98,125,24,5,65,100,2,0 // vbroadcastss 0x26441(%rip),%ymm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 - .byte 196,98,125,24,13,19,96,2,0 // vbroadcastss 0x26013(%rip),%ymm9 # 398cc <_sk_srcover_bgra_8888_sse2_lowp+0x378> + .byte 196,98,125,24,13,207,100,2,0 // vbroadcastss 0x264cf(%rip),%ymm9 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x378> .byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1 .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2 - .byte 196,98,125,24,5,255,95,2,0 // vbroadcastss 0x25fff(%rip),%ymm8 # 398d0 <_sk_srcover_bgra_8888_sse2_lowp+0x37c> + .byte 196,98,125,24,5,187,100,2,0 // vbroadcastss 0x264bb(%rip),%ymm8 # 3a2e4 <_sk_srcover_bgra_8888_sse2_lowp+0x37c> .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0 - .byte 196,98,125,24,5,245,95,2,0 // vbroadcastss 0x25ff5(%rip),%ymm8 # 398d4 <_sk_srcover_bgra_8888_sse2_lowp+0x380> + .byte 196,98,125,24,5,177,100,2,0 // vbroadcastss 0x264b1(%rip),%ymm8 # 3a2e8 <_sk_srcover_bgra_8888_sse2_lowp+0x380> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 - .byte 196,98,125,24,5,235,95,2,0 // vbroadcastss 0x25feb(%rip),%ymm8 # 398d8 <_sk_srcover_bgra_8888_sse2_lowp+0x384> + .byte 196,98,125,24,5,167,100,2,0 // vbroadcastss 0x264a7(%rip),%ymm8 # 3a2ec <_sk_srcover_bgra_8888_sse2_lowp+0x384> .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1 .byte 197,252,88,201 // vaddps %ymm1,%ymm0,%ymm1 - .byte 196,98,125,24,5,221,95,2,0 // vbroadcastss 0x25fdd(%rip),%ymm8 # 398dc <_sk_srcover_bgra_8888_sse2_lowp+0x388> + .byte 196,98,125,24,5,153,100,2,0 // vbroadcastss 0x26499(%rip),%ymm8 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x388> .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 197,252,92,210 // vsubps %ymm2,%ymm0,%ymm2 .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8 .byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8 - .byte 196,98,125,24,13,198,95,2,0 // vbroadcastss 0x25fc6(%rip),%ymm9 # 398e0 <_sk_srcover_bgra_8888_sse2_lowp+0x38c> + .byte 196,98,125,24,13,130,100,2,0 // vbroadcastss 0x26482(%rip),%ymm9 # 3a2f4 <_sk_srcover_bgra_8888_sse2_lowp+0x38c> .byte 196,65,52,194,208,1 // vcmpltps %ymm8,%ymm9,%ymm10 - .byte 196,98,125,24,29,187,95,2,0 // vbroadcastss 0x25fbb(%rip),%ymm11 # 398e4 <_sk_srcover_bgra_8888_sse2_lowp+0x390> + .byte 196,98,125,24,29,119,100,2,0 // vbroadcastss 0x26477(%rip),%ymm11 # 3a2f8 <_sk_srcover_bgra_8888_sse2_lowp+0x390> .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1 - .byte 196,98,125,24,37,177,95,2,0 // vbroadcastss 0x25fb1(%rip),%ymm12 # 398e8 <_sk_srcover_bgra_8888_sse2_lowp+0x394> + .byte 196,98,125,24,37,109,100,2,0 // vbroadcastss 0x2646d(%rip),%ymm12 # 3a2fc <_sk_srcover_bgra_8888_sse2_lowp+0x394> .byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1 .byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8 .byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1 @@ -18956,9 +19221,9 @@ _sk_lab_to_xyz_avx: .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2 .byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2 .byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2 - .byte 196,226,125,24,5,103,95,2,0 // vbroadcastss 0x25f67(%rip),%ymm0 # 398ec <_sk_srcover_bgra_8888_sse2_lowp+0x398> + .byte 196,226,125,24,5,35,100,2,0 // vbroadcastss 0x26423(%rip),%ymm0 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0x398> .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 - .byte 196,98,125,24,5,94,95,2,0 // vbroadcastss 0x25f5e(%rip),%ymm8 # 398f0 <_sk_srcover_bgra_8888_sse2_lowp+0x39c> + .byte 196,98,125,24,5,26,100,2,0 // vbroadcastss 0x2641a(%rip),%ymm8 # 3a304 <_sk_srcover_bgra_8888_sse2_lowp+0x39c> .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -18974,15 +19239,15 @@ _sk_load_a8_avx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,68 // jne 139f7 <_sk_load_a8_avx+0x5c> + .byte 117,68 // jne 13f4f <_sk_load_a8_avx+0x5c> .byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0 - .byte 197,249,219,5,15,103,2,0 // vpand 0x2670f(%rip),%xmm0,%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,249,219,5,215,107,2,0 // vpand 0x26bd7(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1 .byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,13,153,94,2,0 // vbroadcastss 0x25e99(%rip),%ymm1 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,226,125,24,13,85,99,2,0 // vbroadcastss 0x26355(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 @@ -18994,15 +19259,15 @@ _sk_load_a8_avx: .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,174 // ja 139b9 <_sk_load_a8_avx+0x1e> + .byte 119,174 // ja 13f11 <_sk_load_a8_avx+0x1e> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 13a90 <_sk_load_a8_avx+0xf5> + .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 13fe8 <_sk_load_a8_avx+0xf5> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 235,143 // jmp 139b9 <_sk_load_a8_avx+0x1e> + .byte 235,143 // jmp 13f11 <_sk_load_a8_avx+0x1e> .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0 @@ -19010,7 +19275,7 @@ _sk_load_a8_avx: .byte 197,249,110,200 // vmovd %eax,%xmm1 .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1 .byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0 - .byte 233,103,255,255,255 // jmpq 139b9 <_sk_load_a8_avx+0x1e> + .byte 233,103,255,255,255 // jmpq 13f11 <_sk_load_a8_avx+0x1e> .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0 @@ -19021,7 +19286,7 @@ _sk_load_a8_avx: .byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1 .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1 .byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0 - .byte 233,44,255,255,255 // jmpq 139b9 <_sk_load_a8_avx+0x1e> + .byte 233,44,255,255,255 // jmpq 13f11 <_sk_load_a8_avx+0x1e> .byte 15,31,0 // nopl (%rax) .byte 143 // (bad) .byte 255 // (bad) @@ -19054,15 +19319,15 @@ _sk_load_a8_dst_avx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,68 // jne 13b08 <_sk_load_a8_dst_avx+0x5c> + .byte 117,68 // jne 14060 <_sk_load_a8_dst_avx+0x5c> .byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4 - .byte 197,217,219,37,254,101,2,0 // vpand 0x265fe(%rip),%xmm4,%xmm4 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,217,219,37,198,106,2,0 // vpand 0x26ac6(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5 .byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4 .byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4 .byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 196,226,125,24,45,136,93,2,0 // vbroadcastss 0x25d88(%rip),%ymm5 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,226,125,24,45,68,98,2,0 // vbroadcastss 0x26244(%rip),%ymm5 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4 @@ -19074,15 +19339,15 @@ _sk_load_a8_dst_avx: .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,174 // ja 13aca <_sk_load_a8_dst_avx+0x1e> + .byte 119,174 // ja 14022 <_sk_load_a8_dst_avx+0x1e> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 13ba0 <_sk_load_a8_dst_avx+0xf4> + .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 140f8 <_sk_load_a8_dst_avx+0xf4> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 - .byte 235,143 // jmp 13aca <_sk_load_a8_dst_avx+0x1e> + .byte 235,143 // jmp 14022 <_sk_load_a8_dst_avx+0x1e> .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4 @@ -19090,7 +19355,7 @@ _sk_load_a8_dst_avx: .byte 197,249,110,232 // vmovd %eax,%xmm5 .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5 .byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4 - .byte 233,103,255,255,255 // jmpq 13aca <_sk_load_a8_dst_avx+0x1e> + .byte 233,103,255,255,255 // jmpq 14022 <_sk_load_a8_dst_avx+0x1e> .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4 @@ -19101,7 +19366,7 @@ _sk_load_a8_dst_avx: .byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5 .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5 .byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4 - .byte 233,44,255,255,255 // jmpq 13aca <_sk_load_a8_dst_avx+0x1e> + .byte 233,44,255,255,255 // jmpq 14022 <_sk_load_a8_dst_avx+0x1e> .byte 102,144 // xchg %ax,%ax .byte 144 // nop .byte 255 // (bad) @@ -19110,7 +19375,7 @@ _sk_load_a8_dst_avx: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 232,255,255,255,221 // callq ffffffffde013bb0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfda65c> + .byte 232,255,255,255,221 // callq ffffffffde014108 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfda1a0> .byte 255 // (bad) .byte 255 // (bad) .byte 255,210 // callq *%rdx @@ -19190,7 +19455,7 @@ _sk_gather_a8_avx: .byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1 .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,13,142,91,2,0 // vbroadcastss 0x25b8e(%rip),%ymm1 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,226,125,24,13,74,96,2,0 // vbroadcastss 0x2604a(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 @@ -19213,14 +19478,18 @@ _sk_store_a8_avx: .byte 77,15,175,193 // imul %r9,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 - .byte 196,98,125,24,5,10,91,2,0 // vbroadcastss 0x25b0a(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,98,125,24,13,145,95,2,0 // vbroadcastss 0x25f91(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8 + .byte 196,98,125,24,13,175,95,2,0 // vbroadcastss 0x25faf(%rip),%ymm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8 .byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne 13d4e <_sk_store_a8_avx+0x44> + .byte 117,10 // jne 142bd <_sk_store_a8_avx+0x5b> .byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -19228,42 +19497,42 @@ _sk_store_a8_avx: .byte 65,128,225,7 // and $0x7,%r9b .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,236 // ja 13d4a <_sk_store_a8_avx+0x40> + .byte 119,236 // ja 142b9 <_sk_store_a8_avx+0x57> .byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8 .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,86,0,0,0 // lea 0x56(%rip),%r10 # 13dc4 <_sk_store_a8_avx+0xba> + .byte 76,141,21,87,0,0,0 // lea 0x57(%rip),%r10 # 14334 <_sk_store_a8_avx+0xd2> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1) - .byte 235,202 // jmp 13d4a <_sk_store_a8_avx+0x40> + .byte 235,202 // jmp 142b9 <_sk_store_a8_avx+0x57> .byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1) - .byte 196,98,57,0,5,79,99,2,0 // vpshufb 0x2634f(%rip),%xmm8,%xmm8 # 3a0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xb8c> + .byte 196,98,57,0,5,0,104,2,0 // vpshufb 0x26800(%rip),%xmm8,%xmm8 # 3ab00 <_sk_srcover_bgra_8888_sse2_lowp+0xb98> .byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1) - .byte 235,176 // jmp 13d4a <_sk_store_a8_avx+0x40> + .byte 235,176 // jmp 142b9 <_sk_store_a8_avx+0x57> .byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1) .byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1) .byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1) - .byte 196,98,57,0,5,53,99,2,0 // vpshufb 0x26335(%rip),%xmm8,%xmm8 # 3a0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xb9c> + .byte 196,98,57,0,5,230,103,2,0 // vpshufb 0x267e6(%rip),%xmm8,%xmm8 # 3ab10 <_sk_srcover_bgra_8888_sse2_lowp+0xba8> .byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1) - .byte 235,135 // jmp 13d4a <_sk_store_a8_avx+0x40> - .byte 144 // nop - .byte 179,255 // mov $0xff,%bl + .byte 235,135 // jmp 142b9 <_sk_store_a8_avx+0x57> + .byte 102,144 // xchg %ax,%ax + .byte 178,255 // mov $0xff,%dl .byte 255 // (bad) - .byte 255,196 // inc %esp + .byte 255,195 // inc %ebx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 188,255,255,255,238 // mov $0xeeffffff,%esp + .byte 187,255,255,255,237 // mov $0xedffffff,%ebx .byte 255 // (bad) .byte 255 // (bad) - .byte 255,230 // jmpq *%rsi + .byte 255,229 // jmpq *%rbp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 222,255 // fdivrp %st,%st(7) + .byte 221,255 // (bad) .byte 255 // (bad) - .byte 255,214 // callq *%rsi + .byte 255,213 // callq *%rbp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -19279,18 +19548,18 @@ _sk_load_g8_avx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,73 // jne 13e41 <_sk_load_g8_avx+0x61> + .byte 117,73 // jne 143b1 <_sk_load_g8_avx+0x61> .byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0 - .byte 197,249,219,5,202,98,2,0 // vpand 0x262ca(%rip),%xmm0,%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,249,219,5,122,103,2,0 // vpand 0x2677a(%rip),%xmm0,%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1 .byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,13,84,90,2,0 // vbroadcastss 0x25a54(%rip),%ymm1 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,226,125,24,13,248,94,2,0 // vbroadcastss 0x25ef8(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,205,89,2,0 // vbroadcastss 0x259cd(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,113,94,2,0 // vbroadcastss 0x25e71(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 255,224 // jmpq *%rax @@ -19299,15 +19568,15 @@ _sk_load_g8_avx: .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,169 // ja 13dfe <_sk_load_g8_avx+0x1e> + .byte 119,169 // ja 1436e <_sk_load_g8_avx+0x1e> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 13ed8 <_sk_load_g8_avx+0xf8> + .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 14448 <_sk_load_g8_avx+0xf8> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 235,138 // jmp 13dfe <_sk_load_g8_avx+0x1e> + .byte 235,138 // jmp 1436e <_sk_load_g8_avx+0x1e> .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0 @@ -19315,7 +19584,7 @@ _sk_load_g8_avx: .byte 197,249,110,200 // vmovd %eax,%xmm1 .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1 .byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0 - .byte 233,98,255,255,255 // jmpq 13dfe <_sk_load_g8_avx+0x1e> + .byte 233,98,255,255,255 // jmpq 1436e <_sk_load_g8_avx+0x1e> .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0 @@ -19326,7 +19595,7 @@ _sk_load_g8_avx: .byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1 .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1 .byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0 - .byte 233,39,255,255,255 // jmpq 13dfe <_sk_load_g8_avx+0x1e> + .byte 233,39,255,255,255 // jmpq 1436e <_sk_load_g8_avx+0x1e> .byte 144 // nop .byte 145 // xchg %eax,%ecx .byte 255 // (bad) @@ -19335,7 +19604,7 @@ _sk_load_g8_avx: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 233,255,255,255,222 // jmpq ffffffffdf013ee8 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefda994> + .byte 233,255,255,255,222 // jmpq ffffffffdf014458 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefda4f0> .byte 255 // (bad) .byte 255 // (bad) .byte 255,211 // callq *%rbx @@ -19357,18 +19626,18 @@ _sk_load_g8_dst_avx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,73 // jne 13f55 <_sk_load_g8_dst_avx+0x61> + .byte 117,73 // jne 144c5 <_sk_load_g8_dst_avx+0x61> .byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4 - .byte 197,217,219,37,182,97,2,0 // vpand 0x261b6(%rip),%xmm4,%xmm4 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 197,217,219,37,102,102,2,0 // vpand 0x26666(%rip),%xmm4,%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5 .byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4 .byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4 .byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 196,226,125,24,45,64,89,2,0 // vbroadcastss 0x25940(%rip),%ymm5 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,226,125,24,45,228,93,2,0 // vbroadcastss 0x25de4(%rip),%ymm5 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,61,185,88,2,0 // vbroadcastss 0x258b9(%rip),%ymm7 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,61,93,93,2,0 // vbroadcastss 0x25d5d(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,40,236 // vmovaps %ymm4,%ymm5 .byte 197,252,40,244 // vmovaps %ymm4,%ymm6 .byte 255,224 // jmpq *%rax @@ -19377,15 +19646,15 @@ _sk_load_g8_dst_avx: .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,169 // ja 13f12 <_sk_load_g8_dst_avx+0x1e> + .byte 119,169 // ja 14482 <_sk_load_g8_dst_avx+0x1e> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 13fec <_sk_load_g8_dst_avx+0xf8> + .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 1455c <_sk_load_g8_dst_avx+0xf8> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 - .byte 235,138 // jmp 13f12 <_sk_load_g8_dst_avx+0x1e> + .byte 235,138 // jmp 14482 <_sk_load_g8_dst_avx+0x1e> .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4 @@ -19393,7 +19662,7 @@ _sk_load_g8_dst_avx: .byte 197,249,110,232 // vmovd %eax,%xmm5 .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5 .byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4 - .byte 233,98,255,255,255 // jmpq 13f12 <_sk_load_g8_dst_avx+0x1e> + .byte 233,98,255,255,255 // jmpq 14482 <_sk_load_g8_dst_avx+0x1e> .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4 @@ -19404,7 +19673,7 @@ _sk_load_g8_dst_avx: .byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5 .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5 .byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4 - .byte 233,39,255,255,255 // jmpq 13f12 <_sk_load_g8_dst_avx+0x1e> + .byte 233,39,255,255,255 // jmpq 14482 <_sk_load_g8_dst_avx+0x1e> .byte 144 // nop .byte 145 // xchg %eax,%ecx .byte 255 // (bad) @@ -19413,7 +19682,7 @@ _sk_load_g8_dst_avx: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 233,255,255,255,222 // jmpq ffffffffdf013ffc <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefdaaa8> + .byte 233,255,255,255,222 // jmpq ffffffffdf01456c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefda604> .byte 255 // (bad) .byte 255 // (bad) .byte 255,211 // callq *%rbx @@ -19493,10 +19762,10 @@ _sk_gather_g8_avx: .byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1 .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,13,66,87,2,0 // vbroadcastss 0x25742(%rip),%ymm1 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,226,125,24,13,230,91,2,0 // vbroadcastss 0x25be6(%rip),%ymm1 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,187,86,2,0 // vbroadcastss 0x256bb(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,95,91,2,0 // vbroadcastss 0x25b5f(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 .byte 197,252,40,208 // vmovaps %ymm0,%ymm2 .byte 91 // pop %rbx @@ -19518,56 +19787,56 @@ _sk_load_565_avx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,130,0,0,0 // jne 141fc <_sk_load_565_avx+0xa1> + .byte 15,133,130,0,0,0 // jne 1476c <_sk_load_565_avx+0xa1> .byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0 .byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1 .byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2 - .byte 196,226,125,24,5,226,86,2,0 // vbroadcastss 0x256e2(%rip),%ymm0 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> + .byte 196,226,125,24,5,134,91,2,0 // vbroadcastss 0x25b86(%rip),%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> .byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,13,213,86,2,0 // vbroadcastss 0x256d5(%rip),%ymm1 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330> + .byte 196,226,125,24,13,121,91,2,0 // vbroadcastss 0x25b79(%rip),%ymm1 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 - .byte 196,226,125,24,13,204,86,2,0 // vbroadcastss 0x256cc(%rip),%ymm1 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334> + .byte 196,226,125,24,13,112,91,2,0 // vbroadcastss 0x25b70(%rip),%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334> .byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 - .byte 196,226,125,24,29,191,86,2,0 // vbroadcastss 0x256bf(%rip),%ymm3 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338> + .byte 196,226,125,24,29,99,91,2,0 // vbroadcastss 0x25b63(%rip),%ymm3 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338> .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1 - .byte 196,226,125,24,29,182,86,2,0 // vbroadcastss 0x256b6(%rip),%ymm3 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> + .byte 196,226,125,24,29,90,91,2,0 // vbroadcastss 0x25b5a(%rip),%ymm3 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> .byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 - .byte 196,226,125,24,29,169,86,2,0 // vbroadcastss 0x256a9(%rip),%ymm3 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340> + .byte 196,226,125,24,29,77,91,2,0 // vbroadcastss 0x25b4d(%rip),%ymm3 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340> .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,10,86,2,0 // vbroadcastss 0x2560a(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,174,90,2,0 // vbroadcastss 0x25aae(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,7 // and $0x7,%r9b .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,108,255,255,255 // ja 14180 <_sk_load_565_avx+0x25> + .byte 15,135,108,255,255,255 // ja 146f0 <_sk_load_565_avx+0x25> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 14280 <_sk_load_565_avx+0x125> + .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 147f0 <_sk_load_565_avx+0x125> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 233,74,255,255,255 // jmpq 14180 <_sk_load_565_avx+0x25> + .byte 233,74,255,255,255 // jmpq 146f0 <_sk_load_565_avx+0x25> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0 .byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1 .byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0 - .byte 233,45,255,255,255 // jmpq 14180 <_sk_load_565_avx+0x25> + .byte 233,45,255,255,255 // jmpq 146f0 <_sk_load_565_avx+0x25> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0 .byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0 .byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0 .byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1 .byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0 - .byte 233,0,255,255,255 // jmpq 14180 <_sk_load_565_avx+0x25> + .byte 233,0,255,255,255 // jmpq 146f0 <_sk_load_565_avx+0x25> .byte 168,255 // test $0xff,%al .byte 255 // (bad) .byte 255,194 // inc %edx @@ -19599,56 +19868,56 @@ _sk_load_565_dst_avx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,130,0,0,0 // jne 1433d <_sk_load_565_dst_avx+0xa1> + .byte 15,133,130,0,0,0 // jne 148ad <_sk_load_565_dst_avx+0xa1> .byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4 .byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5 .byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4 .byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4 .byte 196,227,85,24,244,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm6 - .byte 196,226,125,24,37,161,85,2,0 // vbroadcastss 0x255a1(%rip),%ymm4 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> + .byte 196,226,125,24,37,69,90,2,0 // vbroadcastss 0x25a45(%rip),%ymm4 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> .byte 197,204,84,228 // vandps %ymm4,%ymm6,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 196,226,125,24,45,148,85,2,0 // vbroadcastss 0x25594(%rip),%ymm5 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330> + .byte 196,226,125,24,45,56,90,2,0 // vbroadcastss 0x25a38(%rip),%ymm5 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330> .byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4 - .byte 196,226,125,24,45,139,85,2,0 // vbroadcastss 0x2558b(%rip),%ymm5 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334> + .byte 196,226,125,24,45,47,90,2,0 // vbroadcastss 0x25a2f(%rip),%ymm5 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334> .byte 197,204,84,237 // vandps %ymm5,%ymm6,%ymm5 .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 - .byte 196,226,125,24,61,126,85,2,0 // vbroadcastss 0x2557e(%rip),%ymm7 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338> + .byte 196,226,125,24,61,34,90,2,0 // vbroadcastss 0x25a22(%rip),%ymm7 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338> .byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5 - .byte 196,226,125,24,61,117,85,2,0 // vbroadcastss 0x25575(%rip),%ymm7 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> + .byte 196,226,125,24,61,25,90,2,0 // vbroadcastss 0x25a19(%rip),%ymm7 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> .byte 197,204,84,247 // vandps %ymm7,%ymm6,%ymm6 .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6 - .byte 196,226,125,24,61,104,85,2,0 // vbroadcastss 0x25568(%rip),%ymm7 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340> + .byte 196,226,125,24,61,12,90,2,0 // vbroadcastss 0x25a0c(%rip),%ymm7 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340> .byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,61,201,84,2,0 // vbroadcastss 0x254c9(%rip),%ymm7 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,61,109,89,2,0 // vbroadcastss 0x2596d(%rip),%ymm7 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,7 // and $0x7,%r9b .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,108,255,255,255 // ja 142c1 <_sk_load_565_dst_avx+0x25> + .byte 15,135,108,255,255,255 // ja 14831 <_sk_load_565_dst_avx+0x25> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 143c4 <_sk_load_565_dst_avx+0x128> + .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 14934 <_sk_load_565_dst_avx+0x128> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 - .byte 233,74,255,255,255 // jmpq 142c1 <_sk_load_565_dst_avx+0x25> + .byte 233,74,255,255,255 // jmpq 14831 <_sk_load_565_dst_avx+0x25> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4 .byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5 .byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4 - .byte 233,45,255,255,255 // jmpq 142c1 <_sk_load_565_dst_avx+0x25> + .byte 233,45,255,255,255 // jmpq 14831 <_sk_load_565_dst_avx+0x25> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4 .byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4 .byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4 .byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5 .byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4 - .byte 233,0,255,255,255 // jmpq 142c1 <_sk_load_565_dst_avx+0x25> + .byte 233,0,255,255,255 // jmpq 14831 <_sk_load_565_dst_avx+0x25> .byte 15,31,0 // nopl (%rax) .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 255 // (bad) @@ -19741,23 +20010,23 @@ _sk_gather_565_avx: .byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2 - .byte 196,226,125,24,5,113,83,2,0 // vbroadcastss 0x25371(%rip),%ymm0 # 39880 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> + .byte 196,226,125,24,5,21,88,2,0 // vbroadcastss 0x25815(%rip),%ymm0 # 3a294 <_sk_srcover_bgra_8888_sse2_lowp+0x32c> .byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,13,100,83,2,0 // vbroadcastss 0x25364(%rip),%ymm1 # 39884 <_sk_srcover_bgra_8888_sse2_lowp+0x330> + .byte 196,226,125,24,13,8,88,2,0 // vbroadcastss 0x25808(%rip),%ymm1 # 3a298 <_sk_srcover_bgra_8888_sse2_lowp+0x330> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 - .byte 196,226,125,24,13,91,83,2,0 // vbroadcastss 0x2535b(%rip),%ymm1 # 39888 <_sk_srcover_bgra_8888_sse2_lowp+0x334> + .byte 196,226,125,24,13,255,87,2,0 // vbroadcastss 0x257ff(%rip),%ymm1 # 3a29c <_sk_srcover_bgra_8888_sse2_lowp+0x334> .byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 - .byte 196,226,125,24,29,78,83,2,0 // vbroadcastss 0x2534e(%rip),%ymm3 # 3988c <_sk_srcover_bgra_8888_sse2_lowp+0x338> + .byte 196,226,125,24,29,242,87,2,0 // vbroadcastss 0x257f2(%rip),%ymm3 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x338> .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1 - .byte 196,226,125,24,29,69,83,2,0 // vbroadcastss 0x25345(%rip),%ymm3 # 39890 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> + .byte 196,226,125,24,29,233,87,2,0 // vbroadcastss 0x257e9(%rip),%ymm3 # 3a2a4 <_sk_srcover_bgra_8888_sse2_lowp+0x33c> .byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 - .byte 196,226,125,24,29,56,83,2,0 // vbroadcastss 0x25338(%rip),%ymm3 # 39894 <_sk_srcover_bgra_8888_sse2_lowp+0x340> + .byte 196,226,125,24,29,220,87,2,0 // vbroadcastss 0x257dc(%rip),%ymm3 # 3a2a8 <_sk_srcover_bgra_8888_sse2_lowp+0x340> .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,153,82,2,0 // vbroadcastss 0x25299(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,61,87,2,0 // vbroadcastss 0x2573d(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,94 // pop %r14 @@ -19776,28 +20045,36 @@ _sk_store_565_avx: .byte 77,1,192 // add %r8,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 - .byte 196,98,125,24,5,96,83,2,0 // vbroadcastss 0x25360(%rip),%ymm8 # 398f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0> - .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9 + .byte 196,98,125,24,21,11,87,2,0 // vbroadcastss 0x2570b(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9 + .byte 196,98,125,24,29,237,87,2,0 // vbroadcastss 0x257ed(%rip),%ymm11 # 3a308 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0> + .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 - .byte 196,193,41,114,241,11 // vpslld $0xb,%xmm9,%xmm10 + .byte 196,193,25,114,241,11 // vpslld $0xb,%xmm9,%xmm12 .byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9 .byte 196,193,49,114,241,11 // vpslld $0xb,%xmm9,%xmm9 - .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9 - .byte 196,98,125,24,21,57,83,2,0 // vbroadcastss 0x25339(%rip),%ymm10 # 398f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4> - .byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,33,114,242,5 // vpslld $0x5,%xmm10,%xmm11 - .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 - .byte 196,193,41,114,242,5 // vpslld $0x5,%xmm10,%xmm10 - .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10 - .byte 196,65,45,86,201 // vorpd %ymm9,%ymm10,%ymm9 - .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8 + .byte 196,67,29,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm12,%ymm9 + .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,98,125,24,45,189,87,2,0 // vbroadcastss 0x257bd(%rip),%ymm13 # 3a30c <_sk_srcover_bgra_8888_sse2_lowp+0x3a4> + .byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,17,114,244,5 // vpslld $0x5,%xmm12,%xmm13 + .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12 + .byte 196,193,25,114,244,5 // vpslld $0x5,%xmm12,%xmm12 + .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12 + .byte 196,65,29,86,201 // vorpd %ymm9,%ymm12,%ymm9 + .byte 197,60,95,194 // vmaxps %ymm2,%ymm8,%ymm8 + .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8 + .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 .byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8 .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne 1460f <_sk_store_565_avx+0x9a> + .byte 117,10 // jne 14ba8 <_sk_store_565_avx+0xc3> .byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -19805,41 +20082,44 @@ _sk_store_565_avx: .byte 65,128,225,7 // and $0x7,%r9b .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,236 // ja 1460b <_sk_store_565_avx+0x96> + .byte 119,236 // ja 14ba4 <_sk_store_565_avx+0xbf> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # 1466c <_sk_store_565_avx+0xf7> + .byte 76,141,21,69,0,0,0 // lea 0x45(%rip),%r10 # 14c08 <_sk_store_565_avx+0x123> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2) - .byte 235,207 // jmp 1460b <_sk_store_565_avx+0x96> + .byte 235,207 // jmp 14ba4 <_sk_store_565_avx+0xbf> .byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2) .byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2) - .byte 235,191 // jmp 1460b <_sk_store_565_avx+0x96> + .byte 235,191 // jmp 14ba4 <_sk_store_565_avx+0xbf> .byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2) .byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2) .byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2) .byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2) - .byte 235,159 // jmp 1460b <_sk_store_565_avx+0x96> - .byte 199 // (bad) + .byte 235,159 // jmp 14ba4 <_sk_store_565_avx+0xbf> + .byte 15,31,0 // nopl (%rax) + .byte 196 // (bad) .byte 255 // (bad) .byte 255 // (bad) + .byte 255,213 // callq *%rbp .byte 255 // (bad) - .byte 216,255 // fdivr %st(7),%st .byte 255 // (bad) - .byte 255,208 // callq *%rax + .byte 255,205 // dec %ebp + .byte 255 // (bad) .byte 255 // (bad) + .byte 255,245 // push %rbp .byte 255 // (bad) .byte 255 // (bad) - .byte 248 // clc .byte 255 // (bad) + .byte 237 // in (%dx),%eax .byte 255 // (bad) - .byte 255,240 // push %rax .byte 255 // (bad) + .byte 255,229 // jmpq *%rbp .byte 255 // (bad) .byte 255 // (bad) - .byte 232,255,255,255,224 // callq ffffffffe1014684 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fdb130> .byte 255 // (bad) + .byte 221,255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -19855,31 +20135,31 @@ _sk_load_4444_avx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,154,0,0,0 // jne 14741 <_sk_load_4444_avx+0xb9> + .byte 15,133,154,0,0,0 // jne 14cdd <_sk_load_4444_avx+0xb9> .byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0 .byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1 .byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3 - .byte 196,226,125,24,5,49,82,2,0 // vbroadcastss 0x25231(%rip),%ymm0 # 398fc <_sk_srcover_bgra_8888_sse2_lowp+0x3a8> + .byte 196,226,125,24,5,169,86,2,0 // vbroadcastss 0x256a9(%rip),%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8> .byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,13,36,82,2,0 // vbroadcastss 0x25224(%rip),%ymm1 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac> + .byte 196,226,125,24,13,156,86,2,0 // vbroadcastss 0x2569c(%rip),%ymm1 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 - .byte 196,226,125,24,13,27,82,2,0 // vbroadcastss 0x2521b(%rip),%ymm1 # 39904 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0> + .byte 196,226,125,24,13,147,86,2,0 // vbroadcastss 0x25693(%rip),%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0> .byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 - .byte 196,226,125,24,21,14,82,2,0 // vbroadcastss 0x2520e(%rip),%ymm2 # 39908 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4> + .byte 196,226,125,24,21,134,86,2,0 // vbroadcastss 0x25686(%rip),%ymm2 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4> .byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1 - .byte 196,226,125,24,21,5,82,2,0 // vbroadcastss 0x25205(%rip),%ymm2 # 3990c <_sk_srcover_bgra_8888_sse2_lowp+0x3b8> + .byte 196,226,125,24,21,125,86,2,0 // vbroadcastss 0x2567d(%rip),%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8> .byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 - .byte 196,98,125,24,5,248,81,2,0 // vbroadcastss 0x251f8(%rip),%ymm8 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc> + .byte 196,98,125,24,5,112,86,2,0 // vbroadcastss 0x25670(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc> .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 - .byte 196,98,125,24,5,238,81,2,0 // vbroadcastss 0x251ee(%rip),%ymm8 # 39914 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0> + .byte 196,98,125,24,5,102,86,2,0 // vbroadcastss 0x25666(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0> .byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 - .byte 196,98,125,24,5,224,81,2,0 // vbroadcastss 0x251e0(%rip),%ymm8 # 39918 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4> + .byte 196,98,125,24,5,88,86,2,0 // vbroadcastss 0x25658(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4> .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -19888,27 +20168,27 @@ _sk_load_4444_avx: .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,84,255,255,255 // ja 146ad <_sk_load_4444_avx+0x25> + .byte 15,135,84,255,255,255 // ja 14c49 <_sk_load_4444_avx+0x25> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 147c8 <_sk_load_4444_avx+0x140> + .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 14d64 <_sk_load_4444_avx+0x140> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 233,50,255,255,255 // jmpq 146ad <_sk_load_4444_avx+0x25> + .byte 233,50,255,255,255 // jmpq 14c49 <_sk_load_4444_avx+0x25> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0 .byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1 .byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0 - .byte 233,21,255,255,255 // jmpq 146ad <_sk_load_4444_avx+0x25> + .byte 233,21,255,255,255 // jmpq 14c49 <_sk_load_4444_avx+0x25> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0 .byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0 .byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0 .byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1 .byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0 - .byte 233,232,254,255,255 // jmpq 146ad <_sk_load_4444_avx+0x25> + .byte 233,232,254,255,255 // jmpq 14c49 <_sk_load_4444_avx+0x25> .byte 15,31,0 // nopl (%rax) .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 255 // (bad) @@ -19944,31 +20224,31 @@ _sk_load_4444_dst_avx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,154,0,0,0 // jne 1489d <_sk_load_4444_dst_avx+0xb9> + .byte 15,133,154,0,0,0 // jne 14e39 <_sk_load_4444_dst_avx+0xb9> .byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4 .byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5 .byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4 .byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4 .byte 196,227,85,24,252,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm7 - .byte 196,226,125,24,37,213,80,2,0 // vbroadcastss 0x250d5(%rip),%ymm4 # 398fc <_sk_srcover_bgra_8888_sse2_lowp+0x3a8> + .byte 196,226,125,24,37,77,85,2,0 // vbroadcastss 0x2554d(%rip),%ymm4 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8> .byte 197,196,84,228 // vandps %ymm4,%ymm7,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 196,226,125,24,45,200,80,2,0 // vbroadcastss 0x250c8(%rip),%ymm5 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac> + .byte 196,226,125,24,45,64,85,2,0 // vbroadcastss 0x25540(%rip),%ymm5 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac> .byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4 - .byte 196,226,125,24,45,191,80,2,0 // vbroadcastss 0x250bf(%rip),%ymm5 # 39904 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0> + .byte 196,226,125,24,45,55,85,2,0 // vbroadcastss 0x25537(%rip),%ymm5 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0> .byte 197,196,84,237 // vandps %ymm5,%ymm7,%ymm5 .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 - .byte 196,226,125,24,53,178,80,2,0 // vbroadcastss 0x250b2(%rip),%ymm6 # 39908 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4> + .byte 196,226,125,24,53,42,85,2,0 // vbroadcastss 0x2552a(%rip),%ymm6 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4> .byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5 - .byte 196,226,125,24,53,169,80,2,0 // vbroadcastss 0x250a9(%rip),%ymm6 # 3990c <_sk_srcover_bgra_8888_sse2_lowp+0x3b8> + .byte 196,226,125,24,53,33,85,2,0 // vbroadcastss 0x25521(%rip),%ymm6 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8> .byte 197,196,84,246 // vandps %ymm6,%ymm7,%ymm6 .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6 - .byte 196,98,125,24,5,156,80,2,0 // vbroadcastss 0x2509c(%rip),%ymm8 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc> + .byte 196,98,125,24,5,20,85,2,0 // vbroadcastss 0x25514(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc> .byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6 - .byte 196,98,125,24,5,146,80,2,0 // vbroadcastss 0x25092(%rip),%ymm8 # 39914 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0> + .byte 196,98,125,24,5,10,85,2,0 // vbroadcastss 0x2550a(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0> .byte 196,193,68,84,248 // vandps %ymm8,%ymm7,%ymm7 .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7 - .byte 196,98,125,24,5,132,80,2,0 // vbroadcastss 0x25084(%rip),%ymm8 # 39918 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4> + .byte 196,98,125,24,5,252,84,2,0 // vbroadcastss 0x254fc(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4> .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -19977,27 +20257,27 @@ _sk_load_4444_dst_avx: .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,84,255,255,255 // ja 14809 <_sk_load_4444_dst_avx+0x25> + .byte 15,135,84,255,255,255 // ja 14da5 <_sk_load_4444_dst_avx+0x25> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 14924 <_sk_load_4444_dst_avx+0x140> + .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 14ec0 <_sk_load_4444_dst_avx+0x140> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 - .byte 233,50,255,255,255 // jmpq 14809 <_sk_load_4444_dst_avx+0x25> + .byte 233,50,255,255,255 // jmpq 14da5 <_sk_load_4444_dst_avx+0x25> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4 .byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5 .byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4 - .byte 233,21,255,255,255 // jmpq 14809 <_sk_load_4444_dst_avx+0x25> + .byte 233,21,255,255,255 // jmpq 14da5 <_sk_load_4444_dst_avx+0x25> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4 .byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4 .byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4 .byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5 .byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4 - .byte 233,232,254,255,255 // jmpq 14809 <_sk_load_4444_dst_avx+0x25> + .byte 233,232,254,255,255 // jmpq 14da5 <_sk_load_4444_dst_avx+0x25> .byte 15,31,0 // nopl (%rax) .byte 165 // movsl %ds:(%rsi),%es:(%rdi) .byte 255 // (bad) @@ -20090,25 +20370,25 @@ _sk_gather_4444_avx: .byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3 - .byte 196,226,125,24,5,141,78,2,0 // vbroadcastss 0x24e8d(%rip),%ymm0 # 398fc <_sk_srcover_bgra_8888_sse2_lowp+0x3a8> + .byte 196,226,125,24,5,5,83,2,0 // vbroadcastss 0x25305(%rip),%ymm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8> .byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,226,125,24,13,128,78,2,0 // vbroadcastss 0x24e80(%rip),%ymm1 # 39900 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac> + .byte 196,226,125,24,13,248,82,2,0 // vbroadcastss 0x252f8(%rip),%ymm1 # 3a314 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac> .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0 - .byte 196,226,125,24,13,119,78,2,0 // vbroadcastss 0x24e77(%rip),%ymm1 # 39904 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0> + .byte 196,226,125,24,13,239,82,2,0 // vbroadcastss 0x252ef(%rip),%ymm1 # 3a318 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0> .byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 - .byte 196,226,125,24,21,106,78,2,0 // vbroadcastss 0x24e6a(%rip),%ymm2 # 39908 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4> + .byte 196,226,125,24,21,226,82,2,0 // vbroadcastss 0x252e2(%rip),%ymm2 # 3a31c <_sk_srcover_bgra_8888_sse2_lowp+0x3b4> .byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1 - .byte 196,226,125,24,21,97,78,2,0 // vbroadcastss 0x24e61(%rip),%ymm2 # 3990c <_sk_srcover_bgra_8888_sse2_lowp+0x3b8> + .byte 196,226,125,24,21,217,82,2,0 // vbroadcastss 0x252d9(%rip),%ymm2 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8> .byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 - .byte 196,98,125,24,5,84,78,2,0 // vbroadcastss 0x24e54(%rip),%ymm8 # 39910 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc> + .byte 196,98,125,24,5,204,82,2,0 // vbroadcastss 0x252cc(%rip),%ymm8 # 3a324 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc> .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2 - .byte 196,98,125,24,5,74,78,2,0 // vbroadcastss 0x24e4a(%rip),%ymm8 # 39914 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0> + .byte 196,98,125,24,5,194,82,2,0 // vbroadcastss 0x252c2(%rip),%ymm8 # 3a328 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0> .byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3 .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3 - .byte 196,98,125,24,5,60,78,2,0 // vbroadcastss 0x24e3c(%rip),%ymm8 # 39918 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4> + .byte 196,98,125,24,5,180,82,2,0 // vbroadcastss 0x252b4(%rip),%ymm8 # 3a32c <_sk_srcover_bgra_8888_sse2_lowp+0x3c4> .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx @@ -20129,34 +20409,44 @@ _sk_store_4444_avx: .byte 77,1,192 // add %r8,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 - .byte 196,98,125,24,5,16,78,2,0 // vbroadcastss 0x24e10(%rip),%ymm8 # 3991c <_sk_srcover_bgra_8888_sse2_lowp+0x3c8> - .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 - .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 - .byte 196,193,41,114,241,12 // vpslld $0xc,%xmm9,%xmm10 - .byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9 - .byte 196,193,49,114,241,12 // vpslld $0xc,%xmm9,%xmm9 - .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9 - .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,33,114,242,8 // vpslld $0x8,%xmm10,%xmm11 - .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 - .byte 196,193,41,114,242,8 // vpslld $0x8,%xmm10,%xmm10 - .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10 - .byte 196,65,45,86,201 // vorpd %ymm9,%ymm10,%ymm9 - .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,208 // vmaxps %ymm0,%ymm8,%ymm10 + .byte 196,98,125,24,13,103,81,2,0 // vbroadcastss 0x25167(%rip),%ymm9 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,44,93,209 // vminps %ymm9,%ymm10,%ymm10 + .byte 196,98,125,24,29,113,82,2,0 // vbroadcastss 0x25271(%rip),%ymm11 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8> + .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10 .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,33,114,242,4 // vpslld $0x4,%xmm10,%xmm11 + .byte 196,193,25,114,242,12 // vpslld $0xc,%xmm10,%xmm12 .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 - .byte 196,193,41,114,242,4 // vpslld $0x4,%xmm10,%xmm10 - .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10 - .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 + .byte 196,193,41,114,242,12 // vpslld $0xc,%xmm10,%xmm10 + .byte 196,67,29,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm12,%ymm10 + .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12 + .byte 196,65,28,93,225 // vminps %ymm9,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,17,114,244,8 // vpslld $0x8,%xmm12,%xmm13 + .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12 + .byte 196,193,25,114,244,8 // vpslld $0x8,%xmm12,%xmm12 + .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12 + .byte 196,65,29,86,210 // vorpd %ymm10,%ymm12,%ymm10 + .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12 + .byte 196,65,28,93,225 // vminps %ymm9,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,17,114,244,4 // vpslld $0x4,%xmm12,%xmm13 + .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12 + .byte 196,193,25,114,244,4 // vpslld $0x4,%xmm12,%xmm12 + .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8 + .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 + .byte 196,65,29,86,192 // vorpd %ymm8,%ymm12,%ymm8 .byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8 - .byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8 .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne 14ba5 <_sk_store_4444_avx+0xb8> + .byte 117,10 // jne 15173 <_sk_store_4444_avx+0xea> .byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -20164,42 +20454,41 @@ _sk_store_4444_avx: .byte 65,128,225,7 // and $0x7,%r9b .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,236 // ja 14ba1 <_sk_store_4444_avx+0xb4> + .byte 119,236 // ja 1516f <_sk_store_4444_avx+0xe6> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,68,0,0,0 // lea 0x44(%rip),%r10 # 14c04 <_sk_store_4444_avx+0x117> + .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # 151d0 <_sk_store_4444_avx+0x147> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2) - .byte 235,207 // jmp 14ba1 <_sk_store_4444_avx+0xb4> + .byte 235,207 // jmp 1516f <_sk_store_4444_avx+0xe6> .byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2) .byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2) - .byte 235,191 // jmp 14ba1 <_sk_store_4444_avx+0xb4> + .byte 235,191 // jmp 1516f <_sk_store_4444_avx+0xe6> .byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2) .byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2) .byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2) .byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2) - .byte 235,159 // jmp 14ba1 <_sk_store_4444_avx+0xb4> - .byte 102,144 // xchg %ax,%ax - .byte 197,255,255 // (bad) - .byte 255,214 // callq *%rsi + .byte 235,159 // jmp 1516f <_sk_store_4444_avx+0xe6> + .byte 199 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 255,206 // dec %esi .byte 255 // (bad) + .byte 216,255 // fdivr %st(7),%st .byte 255 // (bad) - .byte 255,246 // push %rsi + .byte 255,208 // callq *%rax .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 238 // out %al,(%dx) + .byte 248 // clc .byte 255 // (bad) .byte 255 // (bad) - .byte 255,230 // jmpq *%rsi + .byte 255,240 // push %rax .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 222,255 // fdivrp %st,%st(7) + .byte 232,255,255,255,224 // callq ffffffffe10151e8 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fdb280> + .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -20215,12 +20504,12 @@ _sk_load_8888_avx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,135,0,0,0 // jne 14cc7 <_sk_load_8888_avx+0xa7> + .byte 15,133,135,0,0,0 // jne 15293 <_sk_load_8888_avx+0xa7> .byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9 - .byte 197,125,40,21,82,81,2,0 // vmovapd 0x25152(%rip),%ymm10 # 39da0 <_sk_srcover_bgra_8888_sse2_lowp+0x84c> + .byte 197,125,40,21,166,85,2,0 // vmovapd 0x255a6(%rip),%ymm10 # 3a7c0 <_sk_srcover_bgra_8888_sse2_lowp+0x858> .byte 196,193,53,84,194 // vandpd %ymm10,%ymm9,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,98,125,24,5,28,76,2,0 // vbroadcastss 0x24c1c(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,5,100,80,2,0 // vbroadcastss 0x25064(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0 .byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1 .byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3 @@ -20247,21 +20536,21 @@ _sk_load_8888_avx: .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,102,255,255,255 // ja 14c46 <_sk_load_8888_avx+0x26> + .byte 15,135,102,255,255,255 // ja 15212 <_sk_load_8888_avx+0x26> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 14d7c <_sk_load_8888_avx+0x15c> + .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15348 <_sk_load_8888_avx+0x15c> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9 - .byte 233,71,255,255,255 // jmpq 14c46 <_sk_load_8888_avx+0x26> + .byte 233,71,255,255,255 // jmpq 15212 <_sk_load_8888_avx+0x26> .byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0 .byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9 .byte 196,129,123,16,4,152 // vmovsd (%r8,%r11,4),%xmm0 .byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9 - .byte 233,32,255,255,255 // jmpq 14c46 <_sk_load_8888_avx+0x26> + .byte 233,32,255,255,255 // jmpq 15212 <_sk_load_8888_avx+0x26> .byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0 .byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0 .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0 @@ -20275,9 +20564,9 @@ _sk_load_8888_avx: .byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9 .byte 196,129,121,16,4,152 // vmovupd (%r8,%r11,4),%xmm0 .byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9 - .byte 233,203,254,255,255 // jmpq 14c46 <_sk_load_8888_avx+0x26> + .byte 233,203,254,255,255 // jmpq 15212 <_sk_load_8888_avx+0x26> .byte 144 // nop - .byte 120,255 // js 14d7d <_sk_load_8888_avx+0x15d> + .byte 120,255 // js 15349 <_sk_load_8888_avx+0x15d> .byte 255 // (bad) .byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx) .byte 255 // (bad) @@ -20310,12 +20599,12 @@ _sk_load_8888_dst_avx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,135,0,0,0 // jne 14e3f <_sk_load_8888_dst_avx+0xa7> + .byte 15,133,135,0,0,0 // jne 1540b <_sk_load_8888_dst_avx+0xa7> .byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9 - .byte 197,125,40,21,250,79,2,0 // vmovapd 0x24ffa(%rip),%ymm10 # 39dc0 <_sk_srcover_bgra_8888_sse2_lowp+0x86c> + .byte 197,125,40,21,78,84,2,0 // vmovapd 0x2544e(%rip),%ymm10 # 3a7e0 <_sk_srcover_bgra_8888_sse2_lowp+0x878> .byte 196,193,53,84,226 // vandpd %ymm10,%ymm9,%ymm4 .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4 - .byte 196,98,125,24,5,164,74,2,0 // vbroadcastss 0x24aa4(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,5,236,78,2,0 // vbroadcastss 0x24eec(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4 .byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5 .byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7 @@ -20342,21 +20631,21 @@ _sk_load_8888_dst_avx: .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,102,255,255,255 // ja 14dbe <_sk_load_8888_dst_avx+0x26> + .byte 15,135,102,255,255,255 // ja 1538a <_sk_load_8888_dst_avx+0x26> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 14ef4 <_sk_load_8888_dst_avx+0x15c> + .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 154c0 <_sk_load_8888_dst_avx+0x15c> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9 - .byte 233,71,255,255,255 // jmpq 14dbe <_sk_load_8888_dst_avx+0x26> + .byte 233,71,255,255,255 // jmpq 1538a <_sk_load_8888_dst_avx+0x26> .byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4 .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4 .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5 .byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9 .byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4 .byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9 - .byte 233,32,255,255,255 // jmpq 14dbe <_sk_load_8888_dst_avx+0x26> + .byte 233,32,255,255,255 // jmpq 1538a <_sk_load_8888_dst_avx+0x26> .byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4 .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4 .byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4 @@ -20370,9 +20659,9 @@ _sk_load_8888_dst_avx: .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9 .byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4 .byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9 - .byte 233,203,254,255,255 // jmpq 14dbe <_sk_load_8888_dst_avx+0x26> + .byte 233,203,254,255,255 // jmpq 1538a <_sk_load_8888_dst_avx+0x26> .byte 144 // nop - .byte 120,255 // js 14ef5 <_sk_load_8888_dst_avx+0x15d> + .byte 120,255 // js 154c1 <_sk_load_8888_dst_avx+0x15d> .byte 255 // (bad) .byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx) .byte 255 // (bad) @@ -20450,10 +20739,10 @@ _sk_gather_8888_avx: .byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0 .byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3 .byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0 - .byte 197,124,40,21,204,77,2,0 // vmovaps 0x24dcc(%rip),%ymm10 # 39de0 <_sk_srcover_bgra_8888_sse2_lowp+0x88c> + .byte 197,124,40,21,32,82,2,0 // vmovaps 0x25220(%rip),%ymm10 # 3a800 <_sk_srcover_bgra_8888_sse2_lowp+0x898> .byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,98,125,24,13,86,72,2,0 // vbroadcastss 0x24856(%rip),%ymm9 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,13,158,76,2,0 // vbroadcastss 0x24c9e(%rip),%ymm9 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 .byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1 .byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2 @@ -20490,32 +20779,42 @@ _sk_store_8888_avx: .byte 73,193,224,2 // shl $0x2,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 - .byte 196,98,125,24,5,130,71,2,0 // vbroadcastss 0x24782(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9 + .byte 196,98,125,24,21,149,75,2,0 // vbroadcastss 0x24b95(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9 + .byte 196,98,125,24,29,179,75,2,0 // vbroadcastss 0x24bb3(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 - .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,33,114,242,8 // vpslld $0x8,%xmm10,%xmm11 - .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 - .byte 196,193,41,114,242,8 // vpslld $0x8,%xmm10,%xmm10 - .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10 - .byte 196,65,45,86,201 // vorpd %ymm9,%ymm10,%ymm9 - .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,33,114,242,16 // vpslld $0x10,%xmm10,%xmm11 - .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 - .byte 196,193,41,114,242,16 // vpslld $0x10,%xmm10,%xmm10 - .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10 - .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 + .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,17,114,244,8 // vpslld $0x8,%xmm12,%xmm13 + .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12 + .byte 196,193,25,114,244,8 // vpslld $0x8,%xmm12,%xmm12 + .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12 + .byte 196,65,29,86,201 // vorpd %ymm9,%ymm12,%ymm9 + .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,17,114,244,16 // vpslld $0x10,%xmm12,%xmm13 + .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12 + .byte 196,193,25,114,244,16 // vpslld $0x10,%xmm12,%xmm12 + .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8 + .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 - .byte 196,193,33,114,240,24 // vpslld $0x18,%xmm8,%xmm11 + .byte 196,193,41,114,240,24 // vpslld $0x18,%xmm8,%xmm10 .byte 196,67,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm8 .byte 196,193,57,114,240,24 // vpslld $0x18,%xmm8,%xmm8 - .byte 196,67,37,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm11,%ymm8 - .byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8 + .byte 196,67,45,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm10,%ymm8 + .byte 196,65,29,86,192 // vorpd %ymm8,%ymm12,%ymm8 .byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne 1513c <_sk_store_8888_avx+0xae> + .byte 117,10 // jne 1573a <_sk_store_8888_avx+0xe0> .byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -20523,17 +20822,17 @@ _sk_store_8888_avx: .byte 65,128,225,7 // and $0x7,%r9b .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,236 // ja 15138 <_sk_store_8888_avx+0xaa> + .byte 119,236 // ja 15736 <_sk_store_8888_avx+0xdc> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 151ac <_sk_store_8888_avx+0x11e> + .byte 76,141,21,83,0,0,0 // lea 0x53(%rip),%r10 # 157a8 <_sk_store_8888_avx+0x14e> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4) - .byte 235,208 // jmp 15138 <_sk_store_8888_avx+0xaa> + .byte 235,208 // jmp 15736 <_sk_store_8888_avx+0xdc> .byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4) .byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4) - .byte 235,192 // jmp 15138 <_sk_store_8888_avx+0xaa> + .byte 235,192 // jmp 15736 <_sk_store_8888_avx+0xdc> .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 .byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4) .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 @@ -20541,22 +20840,25 @@ _sk_store_8888_avx: .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 .byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4) .byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4) - .byte 235,143 // jmp 15138 <_sk_store_8888_avx+0xaa> - .byte 15,31,0 // nopl (%rax) - .byte 180,255 // mov $0xff,%ah + .byte 235,143 // jmp 15736 <_sk_store_8888_avx+0xdc> + .byte 144 // nop + .byte 182,255 // mov $0xff,%dh .byte 255 // (bad) - .byte 255,196 // inc %esp + .byte 255,198 // inc %esi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 188,255,255,255,245 // mov $0xf5ffffff,%esp + .byte 190,255,255,255,247 // mov $0xf7ffffff,%esi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 232,255,255,255,218 // callq ffffffffdb0151c0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdafdbc6c> + .byte 234 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 255,204 // dec %esp + .byte 255 // (bad) + .byte 220,255 // fdivr %st,%st(7) + .byte 255 // (bad) + .byte 255,206 // dec %esi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -20573,12 +20875,12 @@ _sk_load_bgra_avx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,135,0,0,0 // jne 1526f <_sk_load_bgra_avx+0xa7> + .byte 15,133,135,0,0,0 // jne 1586b <_sk_load_bgra_avx+0xa7> .byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9 - .byte 197,125,40,21,10,76,2,0 // vmovapd 0x24c0a(%rip),%ymm10 # 39e00 <_sk_srcover_bgra_8888_sse2_lowp+0x8ac> + .byte 197,125,40,21,46,80,2,0 // vmovapd 0x2502e(%rip),%ymm10 # 3a820 <_sk_srcover_bgra_8888_sse2_lowp+0x8b8> .byte 196,193,53,84,202 // vandpd %ymm10,%ymm9,%ymm1 .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1 - .byte 196,98,125,24,5,116,70,2,0 // vbroadcastss 0x24674(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,5,140,74,2,0 // vbroadcastss 0x24a8c(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,116,89,208 // vmulps %ymm8,%ymm1,%ymm2 .byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1 .byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3 @@ -20605,21 +20907,21 @@ _sk_load_bgra_avx: .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,102,255,255,255 // ja 151ee <_sk_load_bgra_avx+0x26> + .byte 15,135,102,255,255,255 // ja 157ea <_sk_load_bgra_avx+0x26> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15324 <_sk_load_bgra_avx+0x15c> + .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15920 <_sk_load_bgra_avx+0x15c> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9 - .byte 233,71,255,255,255 // jmpq 151ee <_sk_load_bgra_avx+0x26> + .byte 233,71,255,255,255 // jmpq 157ea <_sk_load_bgra_avx+0x26> .byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0 .byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9 .byte 196,129,123,16,4,152 // vmovsd (%r8,%r11,4),%xmm0 .byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9 - .byte 233,32,255,255,255 // jmpq 151ee <_sk_load_bgra_avx+0x26> + .byte 233,32,255,255,255 // jmpq 157ea <_sk_load_bgra_avx+0x26> .byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0 .byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0 .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0 @@ -20633,9 +20935,9 @@ _sk_load_bgra_avx: .byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9 .byte 196,129,121,16,4,152 // vmovupd (%r8,%r11,4),%xmm0 .byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9 - .byte 233,203,254,255,255 // jmpq 151ee <_sk_load_bgra_avx+0x26> + .byte 233,203,254,255,255 // jmpq 157ea <_sk_load_bgra_avx+0x26> .byte 144 // nop - .byte 120,255 // js 15325 <_sk_load_bgra_avx+0x15d> + .byte 120,255 // js 15921 <_sk_load_bgra_avx+0x15d> .byte 255 // (bad) .byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx) .byte 255 // (bad) @@ -20668,12 +20970,12 @@ _sk_load_bgra_dst_avx: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,135,0,0,0 // jne 153e7 <_sk_load_bgra_dst_avx+0xa7> + .byte 15,133,135,0,0,0 // jne 159e3 <_sk_load_bgra_dst_avx+0xa7> .byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9 - .byte 197,125,40,21,178,74,2,0 // vmovapd 0x24ab2(%rip),%ymm10 # 39e20 <_sk_srcover_bgra_8888_sse2_lowp+0x8cc> + .byte 197,125,40,21,214,78,2,0 // vmovapd 0x24ed6(%rip),%ymm10 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x8d8> .byte 196,193,53,84,234 // vandpd %ymm10,%ymm9,%ymm5 .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5 - .byte 196,98,125,24,5,252,68,2,0 // vbroadcastss 0x244fc(%rip),%ymm8 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,5,20,73,2,0 // vbroadcastss 0x24914(%rip),%ymm8 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,84,89,240 // vmulps %ymm8,%ymm5,%ymm6 .byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5 .byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7 @@ -20700,21 +21002,21 @@ _sk_load_bgra_dst_avx: .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,102,255,255,255 // ja 15366 <_sk_load_bgra_dst_avx+0x26> + .byte 15,135,102,255,255,255 // ja 15962 <_sk_load_bgra_dst_avx+0x26> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 1549c <_sk_load_bgra_dst_avx+0x15c> + .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 15a98 <_sk_load_bgra_dst_avx+0x15c> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9 - .byte 233,71,255,255,255 // jmpq 15366 <_sk_load_bgra_dst_avx+0x26> + .byte 233,71,255,255,255 // jmpq 15962 <_sk_load_bgra_dst_avx+0x26> .byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4 .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4 .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5 .byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9 .byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4 .byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9 - .byte 233,32,255,255,255 // jmpq 15366 <_sk_load_bgra_dst_avx+0x26> + .byte 233,32,255,255,255 // jmpq 15962 <_sk_load_bgra_dst_avx+0x26> .byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4 .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4 .byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4 @@ -20728,9 +21030,9 @@ _sk_load_bgra_dst_avx: .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9 .byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4 .byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9 - .byte 233,203,254,255,255 // jmpq 15366 <_sk_load_bgra_dst_avx+0x26> + .byte 233,203,254,255,255 // jmpq 15962 <_sk_load_bgra_dst_avx+0x26> .byte 144 // nop - .byte 120,255 // js 1549d <_sk_load_bgra_dst_avx+0x15d> + .byte 120,255 // js 15a99 <_sk_load_bgra_dst_avx+0x15d> .byte 255 // (bad) .byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx) .byte 255 // (bad) @@ -20808,10 +21110,10 @@ _sk_gather_bgra_avx: .byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0 .byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3 .byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0 - .byte 197,124,40,13,132,72,2,0 // vmovaps 0x24884(%rip),%ymm9 # 39e40 <_sk_srcover_bgra_8888_sse2_lowp+0x8ec> + .byte 197,124,40,13,168,76,2,0 // vmovaps 0x24ca8(%rip),%ymm9 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x8f8> .byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,98,125,24,21,174,66,2,0 // vbroadcastss 0x242ae(%rip),%ymm10 # 3987c <_sk_srcover_bgra_8888_sse2_lowp+0x328> + .byte 196,98,125,24,21,198,70,2,0 // vbroadcastss 0x246c6(%rip),%ymm10 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0x328> .byte 196,193,124,89,210 // vmulps %ymm10,%ymm0,%ymm2 .byte 196,193,121,114,208,8 // vpsrld $0x8,%xmm8,%xmm0 .byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1 @@ -20848,32 +21150,42 @@ _sk_store_bgra_avx: .byte 73,193,224,2 // shl $0x2,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 76,99,218 // movslq %edx,%r11 - .byte 196,98,125,24,5,218,65,2,0 // vbroadcastss 0x241da(%rip),%ymm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9 + .byte 196,98,125,24,21,189,69,2,0 // vbroadcastss 0x245bd(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9 + .byte 196,98,125,24,29,219,69,2,0 // vbroadcastss 0x245db(%rip),%ymm11 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 - .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,33,114,242,8 // vpslld $0x8,%xmm10,%xmm11 - .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 - .byte 196,193,41,114,242,8 // vpslld $0x8,%xmm10,%xmm10 - .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10 - .byte 196,65,45,86,201 // vorpd %ymm9,%ymm10,%ymm9 - .byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,193,33,114,242,16 // vpslld $0x10,%xmm10,%xmm11 - .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10 - .byte 196,193,41,114,242,16 // vpslld $0x10,%xmm10,%xmm10 - .byte 196,67,37,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm11,%ymm10 - .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 + .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,17,114,244,8 // vpslld $0x8,%xmm12,%xmm13 + .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12 + .byte 196,193,25,114,244,8 // vpslld $0x8,%xmm12,%xmm12 + .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12 + .byte 196,65,29,86,201 // vorpd %ymm9,%ymm12,%ymm9 + .byte 197,60,95,224 // vmaxps %ymm0,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,193,17,114,244,16 // vpslld $0x10,%xmm12,%xmm13 + .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12 + .byte 196,193,25,114,244,16 // vpslld $0x10,%xmm12,%xmm12 + .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8 + .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 - .byte 196,193,33,114,240,24 // vpslld $0x18,%xmm8,%xmm11 + .byte 196,193,41,114,240,24 // vpslld $0x18,%xmm8,%xmm10 .byte 196,67,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm8 .byte 196,193,57,114,240,24 // vpslld $0x18,%xmm8,%xmm8 - .byte 196,67,37,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm11,%ymm8 - .byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8 + .byte 196,67,45,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm10,%ymm8 + .byte 196,65,29,86,192 // vorpd %ymm8,%ymm12,%ymm8 .byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne 156e4 <_sk_store_bgra_avx+0xae> + .byte 117,10 // jne 15d12 <_sk_store_bgra_avx+0xe0> .byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -20881,17 +21193,17 @@ _sk_store_bgra_avx: .byte 65,128,225,7 // and $0x7,%r9b .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,236 // ja 156e0 <_sk_store_bgra_avx+0xaa> + .byte 119,236 // ja 15d0e <_sk_store_bgra_avx+0xdc> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 15754 <_sk_store_bgra_avx+0x11e> + .byte 76,141,21,83,0,0,0 // lea 0x53(%rip),%r10 # 15d80 <_sk_store_bgra_avx+0x14e> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4) - .byte 235,208 // jmp 156e0 <_sk_store_bgra_avx+0xaa> + .byte 235,208 // jmp 15d0e <_sk_store_bgra_avx+0xdc> .byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4) .byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4) - .byte 235,192 // jmp 156e0 <_sk_store_bgra_avx+0xaa> + .byte 235,192 // jmp 15d0e <_sk_store_bgra_avx+0xdc> .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 .byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4) .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 @@ -20899,22 +21211,25 @@ _sk_store_bgra_avx: .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9 .byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4) .byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4) - .byte 235,143 // jmp 156e0 <_sk_store_bgra_avx+0xaa> - .byte 15,31,0 // nopl (%rax) - .byte 180,255 // mov $0xff,%ah + .byte 235,143 // jmp 15d0e <_sk_store_bgra_avx+0xdc> + .byte 144 // nop + .byte 182,255 // mov $0xff,%dh .byte 255 // (bad) - .byte 255,196 // inc %esp + .byte 255,198 // inc %esi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 188,255,255,255,245 // mov $0xf5ffffff,%esp + .byte 190,255,255,255,247 // mov $0xf7ffffff,%esi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 232,255,255,255,218 // callq ffffffffdb015768 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdafdc214> + .byte 234 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 255,204 // dec %esp + .byte 255 // (bad) + .byte 220,255 // fdivr %st,%st(7) + .byte 255 // (bad) + .byte 255,206 // dec %esi .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -20936,7 +21251,7 @@ _sk_load_f16_avx: .byte 197,252,17,116,36,192 // vmovups %ymm6,-0x40(%rsp) .byte 197,252,17,108,36,160 // vmovups %ymm5,-0x60(%rsp) .byte 197,252,17,100,36,128 // vmovups %ymm4,-0x80(%rsp) - .byte 15,133,31,2,0,0 // jne 159cb <_sk_load_f16_avx+0x25b> + .byte 15,133,31,2,0,0 // jne 15ff7 <_sk_load_f16_avx+0x25b> .byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8 .byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2 .byte 196,193,121,16,92,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm3 @@ -20953,14 +21268,14 @@ _sk_load_f16_avx: .byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1 .byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 - .byte 197,123,18,21,99,81,2,0 // vmovddup 0x25163(%rip),%xmm10 # 3a968 <_sk_srcover_bgra_8888_sse2_lowp+0x1414> + .byte 197,123,18,21,87,85,2,0 // vmovddup 0x25557(%rip),%xmm10 # 3b388 <_sk_srcover_bgra_8888_sse2_lowp+0x1420> .byte 196,193,121,219,218 // vpand %xmm10,%xmm0,%xmm3 - .byte 196,98,121,24,29,121,65,2,0 // vbroadcastss 0x24179(%rip),%xmm11 # 3998c <_sk_srcover_bgra_8888_sse2_lowp+0x438> + .byte 196,98,121,24,29,97,69,2,0 // vbroadcastss 0x24561(%rip),%xmm11 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x438> .byte 197,33,102,227 // vpcmpgtd %xmm3,%xmm11,%xmm12 .byte 196,193,113,219,210 // vpand %xmm10,%xmm1,%xmm2 .byte 197,33,102,234 // vpcmpgtd %xmm2,%xmm11,%xmm13 .byte 196,195,21,24,252,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm7 - .byte 197,123,18,37,66,81,2,0 // vmovddup 0x25142(%rip),%xmm12 # 3a970 <_sk_srcover_bgra_8888_sse2_lowp+0x141c> + .byte 197,123,18,37,54,85,2,0 // vmovddup 0x25536(%rip),%xmm12 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1428> .byte 196,193,113,219,204 // vpand %xmm12,%xmm1,%xmm1 .byte 197,241,114,241,16 // vpslld $0x10,%xmm1,%xmm1 .byte 196,193,121,219,196 // vpand %xmm12,%xmm0,%xmm0 @@ -20969,7 +21284,7 @@ _sk_load_f16_avx: .byte 197,241,235,202 // vpor %xmm2,%xmm1,%xmm1 .byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2 .byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0 - .byte 196,226,121,24,29,51,65,2,0 // vbroadcastss 0x24133(%rip),%xmm3 # 39990 <_sk_srcover_bgra_8888_sse2_lowp+0x43c> + .byte 196,226,121,24,29,27,69,2,0 // vbroadcastss 0x2451b(%rip),%xmm3 # 3a3a4 <_sk_srcover_bgra_8888_sse2_lowp+0x43c> .byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0 .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1 .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0 @@ -21048,29 +21363,29 @@ _sk_load_f16_avx: .byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,85 // je 15a31 <_sk_load_f16_avx+0x2c1> + .byte 116,85 // je 1605d <_sk_load_f16_avx+0x2c1> .byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,72 // jb 15a31 <_sk_load_f16_avx+0x2c1> + .byte 114,72 // jb 1605d <_sk_load_f16_avx+0x2c1> .byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 116,72 // je 15a3e <_sk_load_f16_avx+0x2ce> + .byte 116,72 // je 1606a <_sk_load_f16_avx+0x2ce> .byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,59 // jb 15a3e <_sk_load_f16_avx+0x2ce> + .byte 114,59 // jb 1606a <_sk_load_f16_avx+0x2ce> .byte 196,193,123,16,92,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm3 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 15,132,179,253,255,255 // je 157c7 <_sk_load_f16_avx+0x57> + .byte 15,132,179,253,255,255 // je 15df3 <_sk_load_f16_avx+0x57> .byte 196,193,97,22,92,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm3,%xmm3 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 15,130,162,253,255,255 // jb 157c7 <_sk_load_f16_avx+0x57> + .byte 15,130,162,253,255,255 // jb 15df3 <_sk_load_f16_avx+0x57> .byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9 - .byte 233,150,253,255,255 // jmpq 157c7 <_sk_load_f16_avx+0x57> + .byte 233,150,253,255,255 // jmpq 15df3 <_sk_load_f16_avx+0x57> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2 - .byte 233,137,253,255,255 // jmpq 157c7 <_sk_load_f16_avx+0x57> + .byte 233,137,253,255,255 // jmpq 15df3 <_sk_load_f16_avx+0x57> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 - .byte 233,128,253,255,255 // jmpq 157c7 <_sk_load_f16_avx+0x57> + .byte 233,128,253,255,255 // jmpq 15df3 <_sk_load_f16_avx+0x57> HIDDEN _sk_load_f16_dst_avx .globl _sk_load_f16_dst_avx @@ -21089,7 +21404,7 @@ _sk_load_f16_dst_avx: .byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp) .byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp) .byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp) - .byte 15,133,31,2,0,0 // jne 15ca2 <_sk_load_f16_dst_avx+0x25b> + .byte 15,133,31,2,0,0 // jne 162ce <_sk_load_f16_dst_avx+0x25b> .byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8 .byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6 .byte 196,193,121,16,124,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm7 @@ -21106,14 +21421,14 @@ _sk_load_f16_dst_avx: .byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5 .byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4 .byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4 - .byte 197,123,18,21,140,78,2,0 // vmovddup 0x24e8c(%rip),%xmm10 # 3a968 <_sk_srcover_bgra_8888_sse2_lowp+0x1414> + .byte 197,123,18,21,128,82,2,0 // vmovddup 0x25280(%rip),%xmm10 # 3b388 <_sk_srcover_bgra_8888_sse2_lowp+0x1420> .byte 196,193,89,219,250 // vpand %xmm10,%xmm4,%xmm7 - .byte 196,98,121,24,29,162,62,2,0 // vbroadcastss 0x23ea2(%rip),%xmm11 # 3998c <_sk_srcover_bgra_8888_sse2_lowp+0x438> + .byte 196,98,121,24,29,138,66,2,0 // vbroadcastss 0x2428a(%rip),%xmm11 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x438> .byte 197,33,102,231 // vpcmpgtd %xmm7,%xmm11,%xmm12 .byte 196,193,81,219,242 // vpand %xmm10,%xmm5,%xmm6 .byte 197,33,102,238 // vpcmpgtd %xmm6,%xmm11,%xmm13 .byte 196,195,21,24,220,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm3 - .byte 197,123,18,37,107,78,2,0 // vmovddup 0x24e6b(%rip),%xmm12 # 3a970 <_sk_srcover_bgra_8888_sse2_lowp+0x141c> + .byte 197,123,18,37,95,82,2,0 // vmovddup 0x2525f(%rip),%xmm12 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1428> .byte 196,193,81,219,236 // vpand %xmm12,%xmm5,%xmm5 .byte 197,209,114,245,16 // vpslld $0x10,%xmm5,%xmm5 .byte 196,193,89,219,228 // vpand %xmm12,%xmm4,%xmm4 @@ -21122,7 +21437,7 @@ _sk_load_f16_dst_avx: .byte 197,209,235,238 // vpor %xmm6,%xmm5,%xmm5 .byte 197,201,114,247,13 // vpslld $0xd,%xmm7,%xmm6 .byte 197,217,235,230 // vpor %xmm6,%xmm4,%xmm4 - .byte 196,226,121,24,61,92,62,2,0 // vbroadcastss 0x23e5c(%rip),%xmm7 # 39990 <_sk_srcover_bgra_8888_sse2_lowp+0x43c> + .byte 196,226,121,24,61,68,66,2,0 // vbroadcastss 0x24244(%rip),%xmm7 # 3a3a4 <_sk_srcover_bgra_8888_sse2_lowp+0x43c> .byte 197,217,254,231 // vpaddd %xmm7,%xmm4,%xmm4 .byte 197,209,254,239 // vpaddd %xmm7,%xmm5,%xmm5 .byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4 @@ -21201,29 +21516,29 @@ _sk_load_f16_dst_avx: .byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,85 // je 15d08 <_sk_load_f16_dst_avx+0x2c1> + .byte 116,85 // je 16334 <_sk_load_f16_dst_avx+0x2c1> .byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,72 // jb 15d08 <_sk_load_f16_dst_avx+0x2c1> + .byte 114,72 // jb 16334 <_sk_load_f16_dst_avx+0x2c1> .byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 116,72 // je 15d15 <_sk_load_f16_dst_avx+0x2ce> + .byte 116,72 // je 16341 <_sk_load_f16_dst_avx+0x2ce> .byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,59 // jb 15d15 <_sk_load_f16_dst_avx+0x2ce> + .byte 114,59 // jb 16341 <_sk_load_f16_dst_avx+0x2ce> .byte 196,193,123,16,124,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm7 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 15,132,179,253,255,255 // je 15a9e <_sk_load_f16_dst_avx+0x57> + .byte 15,132,179,253,255,255 // je 160ca <_sk_load_f16_dst_avx+0x57> .byte 196,193,65,22,124,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm7,%xmm7 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 15,130,162,253,255,255 // jb 15a9e <_sk_load_f16_dst_avx+0x57> + .byte 15,130,162,253,255,255 // jb 160ca <_sk_load_f16_dst_avx+0x57> .byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9 - .byte 233,150,253,255,255 // jmpq 15a9e <_sk_load_f16_dst_avx+0x57> + .byte 233,150,253,255,255 // jmpq 160ca <_sk_load_f16_dst_avx+0x57> .byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7 .byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6 - .byte 233,137,253,255,255 // jmpq 15a9e <_sk_load_f16_dst_avx+0x57> + .byte 233,137,253,255,255 // jmpq 160ca <_sk_load_f16_dst_avx+0x57> .byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7 - .byte 233,128,253,255,255 // jmpq 15a9e <_sk_load_f16_dst_avx+0x57> + .byte 233,128,253,255,255 // jmpq 160ca <_sk_load_f16_dst_avx+0x57> HIDDEN _sk_gather_f16_avx .globl _sk_gather_f16_avx @@ -21302,14 +21617,14 @@ _sk_gather_f16_avx: .byte 196,226,121,51,208 // vpmovzxwd %xmm0,%xmm2 .byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0 .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 - .byte 197,123,18,29,242,74,2,0 // vmovddup 0x24af2(%rip),%xmm11 # 3a968 <_sk_srcover_bgra_8888_sse2_lowp+0x1414> + .byte 197,123,18,29,230,78,2,0 // vmovddup 0x24ee6(%rip),%xmm11 # 3b388 <_sk_srcover_bgra_8888_sse2_lowp+0x1420> .byte 196,193,121,219,219 // vpand %xmm11,%xmm0,%xmm3 - .byte 196,98,121,24,37,8,59,2,0 // vbroadcastss 0x23b08(%rip),%xmm12 # 3998c <_sk_srcover_bgra_8888_sse2_lowp+0x438> + .byte 196,98,121,24,37,240,62,2,0 // vbroadcastss 0x23ef0(%rip),%xmm12 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x438> .byte 197,25,102,235 // vpcmpgtd %xmm3,%xmm12,%xmm13 .byte 196,193,105,219,203 // vpand %xmm11,%xmm2,%xmm1 .byte 197,25,102,193 // vpcmpgtd %xmm1,%xmm12,%xmm8 .byte 196,67,61,24,197,1 // vinsertf128 $0x1,%xmm13,%ymm8,%ymm8 - .byte 197,123,18,45,209,74,2,0 // vmovddup 0x24ad1(%rip),%xmm13 # 3a970 <_sk_srcover_bgra_8888_sse2_lowp+0x141c> + .byte 197,123,18,45,197,78,2,0 // vmovddup 0x24ec5(%rip),%xmm13 # 3b390 <_sk_srcover_bgra_8888_sse2_lowp+0x1428> .byte 196,193,105,219,213 // vpand %xmm13,%xmm2,%xmm2 .byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2 .byte 197,241,114,241,13 // vpslld $0xd,%xmm1,%xmm1 @@ -21318,7 +21633,7 @@ _sk_gather_f16_avx: .byte 197,249,114,240,16 // vpslld $0x10,%xmm0,%xmm0 .byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2 .byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0 - .byte 196,226,121,24,29,194,58,2,0 // vbroadcastss 0x23ac2(%rip),%xmm3 # 39990 <_sk_srcover_bgra_8888_sse2_lowp+0x43c> + .byte 196,226,121,24,29,170,62,2,0 // vbroadcastss 0x23eaa(%rip),%xmm3 # 3a3a4 <_sk_srcover_bgra_8888_sse2_lowp+0x43c> .byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0 .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1 .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0 @@ -21408,12 +21723,12 @@ _sk_store_f16_avx: .byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp) .byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp) .byte 197,252,40,225 // vmovaps %ymm1,%ymm4 - .byte 196,98,125,24,5,228,56,2,0 // vbroadcastss 0x238e4(%rip),%ymm8 # 3994c <_sk_srcover_bgra_8888_sse2_lowp+0x3f8> + .byte 196,98,125,24,5,204,60,2,0 // vbroadcastss 0x23ccc(%rip),%ymm8 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8> .byte 196,65,124,84,216 // vandps %ymm8,%ymm0,%ymm11 - .byte 196,98,125,24,21,30,57,2,0 // vbroadcastss 0x2391e(%rip),%ymm10 # 39994 <_sk_srcover_bgra_8888_sse2_lowp+0x440> + .byte 196,98,125,24,21,6,61,2,0 // vbroadcastss 0x23d06(%rip),%ymm10 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x440> .byte 196,65,124,84,226 // vandps %ymm10,%ymm0,%ymm12 .byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13 - .byte 196,98,121,24,13,14,57,2,0 // vbroadcastss 0x2390e(%rip),%xmm9 # 39998 <_sk_srcover_bgra_8888_sse2_lowp+0x444> + .byte 196,98,121,24,13,246,60,2,0 // vbroadcastss 0x23cf6(%rip),%xmm9 # 3a3ac <_sk_srcover_bgra_8888_sse2_lowp+0x444> .byte 196,65,49,102,245 // vpcmpgtd %xmm13,%xmm9,%xmm14 .byte 196,65,49,102,252 // vpcmpgtd %xmm12,%xmm9,%xmm15 .byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14 @@ -21424,7 +21739,7 @@ _sk_store_f16_avx: .byte 196,65,17,254,239 // vpaddd %xmm15,%xmm13,%xmm13 .byte 196,193,25,114,212,13 // vpsrld $0xd,%xmm12,%xmm12 .byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12 - .byte 196,98,121,24,29,209,56,2,0 // vbroadcastss 0x238d1(%rip),%xmm11 # 3999c <_sk_srcover_bgra_8888_sse2_lowp+0x448> + .byte 196,98,121,24,29,185,60,2,0 // vbroadcastss 0x23cb9(%rip),%xmm11 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x448> .byte 196,65,17,254,235 // vpaddd %xmm11,%xmm13,%xmm13 .byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12 .byte 196,67,29,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm12,%ymm13 @@ -21507,7 +21822,7 @@ _sk_store_f16_avx: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 117,68 // jne 162a2 <_sk_store_f16_avx+0x262> + .byte 117,68 // jne 168ce <_sk_store_f16_avx+0x262> .byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8) .byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8) .byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8) @@ -21523,22 +21838,22 @@ _sk_store_f16_avx: .byte 255,224 // jmpq *%rax .byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8) .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,203 // je 16279 <_sk_store_f16_avx+0x239> + .byte 116,203 // je 168a5 <_sk_store_f16_avx+0x239> .byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8) .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,190 // jb 16279 <_sk_store_f16_avx+0x239> + .byte 114,190 // jb 168a5 <_sk_store_f16_avx+0x239> .byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8) - .byte 116,181 // je 16279 <_sk_store_f16_avx+0x239> + .byte 116,181 // je 168a5 <_sk_store_f16_avx+0x239> .byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8) .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,168 // jb 16279 <_sk_store_f16_avx+0x239> + .byte 114,168 // jb 168a5 <_sk_store_f16_avx+0x239> .byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8) - .byte 116,159 // je 16279 <_sk_store_f16_avx+0x239> + .byte 116,159 // je 168a5 <_sk_store_f16_avx+0x239> .byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8) .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 114,146 // jb 16279 <_sk_store_f16_avx+0x239> + .byte 114,146 // jb 168a5 <_sk_store_f16_avx+0x239> .byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8) - .byte 235,137 // jmp 16279 <_sk_store_f16_avx+0x239> + .byte 235,137 // jmp 168a5 <_sk_store_f16_avx+0x239> HIDDEN _sk_load_u16_be_avx .globl _sk_load_u16_be_avx @@ -21553,7 +21868,7 @@ _sk_load_u16_be_avx: .byte 76,3,0 // add (%rax),%r8 .byte 73,99,193 // movslq %r9d,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,12,1,0,0 // jne 16423 <_sk_load_u16_be_avx+0x133> + .byte 15,133,12,1,0,0 // jne 16a4f <_sk_load_u16_be_avx+0x133> .byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8 .byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2 .byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3 @@ -21575,7 +21890,7 @@ _sk_load_u16_be_avx: .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,98,125,24,13,16,53,2,0 // vbroadcastss 0x23510(%rip),%ymm9 # 39898 <_sk_srcover_bgra_8888_sse2_lowp+0x344> + .byte 196,98,125,24,13,248,56,2,0 // vbroadcastss 0x238f8(%rip),%ymm9 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344> .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 .byte 197,169,109,202 // vpunpckhqdq %xmm2,%xmm10,%xmm1 .byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2 @@ -21612,29 +21927,29 @@ _sk_load_u16_be_avx: .byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,85 // je 16489 <_sk_load_u16_be_avx+0x199> + .byte 116,85 // je 16ab5 <_sk_load_u16_be_avx+0x199> .byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,72 // jb 16489 <_sk_load_u16_be_avx+0x199> + .byte 114,72 // jb 16ab5 <_sk_load_u16_be_avx+0x199> .byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 116,72 // je 16496 <_sk_load_u16_be_avx+0x1a6> + .byte 116,72 // je 16ac2 <_sk_load_u16_be_avx+0x1a6> .byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,59 // jb 16496 <_sk_load_u16_be_avx+0x1a6> + .byte 114,59 // jb 16ac2 <_sk_load_u16_be_avx+0x1a6> .byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 15,132,198,254,255,255 // je 16332 <_sk_load_u16_be_avx+0x42> + .byte 15,132,198,254,255,255 // je 1695e <_sk_load_u16_be_avx+0x42> .byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 15,130,181,254,255,255 // jb 16332 <_sk_load_u16_be_avx+0x42> + .byte 15,130,181,254,255,255 // jb 1695e <_sk_load_u16_be_avx+0x42> .byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9 - .byte 233,169,254,255,255 // jmpq 16332 <_sk_load_u16_be_avx+0x42> + .byte 233,169,254,255,255 // jmpq 1695e <_sk_load_u16_be_avx+0x42> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2 - .byte 233,156,254,255,255 // jmpq 16332 <_sk_load_u16_be_avx+0x42> + .byte 233,156,254,255,255 // jmpq 1695e <_sk_load_u16_be_avx+0x42> .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3 - .byte 233,147,254,255,255 // jmpq 16332 <_sk_load_u16_be_avx+0x42> + .byte 233,147,254,255,255 // jmpq 1695e <_sk_load_u16_be_avx+0x42> HIDDEN _sk_load_rgb_u16_be_avx .globl _sk_load_rgb_u16_be_avx @@ -21651,7 +21966,7 @@ _sk_load_rgb_u16_be_avx: .byte 72,141,4,64 // lea (%rax,%rax,2),%rax .byte 72,193,248,32 // sar $0x20,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,253,0,0,0 // jne 165c7 <_sk_load_rgb_u16_be_avx+0x128> + .byte 15,133,253,0,0,0 // jne 16bf3 <_sk_load_rgb_u16_be_avx+0x128> .byte 196,65,122,111,28,64 // vmovdqu (%r8,%rax,2),%xmm11 .byte 196,193,122,111,92,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm3 .byte 196,193,122,111,84,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm2 @@ -21679,7 +21994,7 @@ _sk_load_rgb_u16_be_avx: .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0 .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0 .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0 - .byte 196,98,125,24,13,63,51,2,0 // vbroadcastss 0x2333f(%rip),%ymm9 # 39898 <_sk_srcover_bgra_8888_sse2_lowp+0x344> + .byte 196,98,125,24,13,39,55,2,0 // vbroadcastss 0x23727(%rip),%ymm9 # 3a2ac <_sk_srcover_bgra_8888_sse2_lowp+0x344> .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0 .byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1 .byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3 @@ -21701,69 +22016,69 @@ _sk_load_rgb_u16_be_avx: .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,63,50,2,0 // vbroadcastss 0x2323f(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,39,54,2,0 // vbroadcastss 0x23627(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 255,224 // jmpq *%rax .byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,31 // jne 165ff <_sk_load_rgb_u16_be_avx+0x160> + .byte 117,31 // jne 16c2b <_sk_load_rgb_u16_be_avx+0x160> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3 .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 - .byte 233,0,255,255,255 // jmpq 164ff <_sk_load_rgb_u16_be_avx+0x60> + .byte 233,0,255,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60> .byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,48 // jb 16649 <_sk_load_rgb_u16_be_avx+0x1aa> + .byte 114,48 // jb 16c75 <_sk_load_rgb_u16_be_avx+0x1aa> .byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 117,48 // jne 16663 <_sk_load_rgb_u16_be_avx+0x1c4> + .byte 117,48 // jne 16c8f <_sk_load_rgb_u16_be_avx+0x1c4> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 - .byte 233,182,254,255,255 // jmpq 164ff <_sk_load_rgb_u16_be_avx+0x60> + .byte 233,182,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10 .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3 - .byte 233,156,254,255,255 // jmpq 164ff <_sk_load_rgb_u16_be_avx+0x60> + .byte 233,156,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60> .byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,39 // jb 166a4 <_sk_load_rgb_u16_be_avx+0x205> + .byte 114,39 // jb 16cd0 <_sk_load_rgb_u16_be_avx+0x205> .byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2 .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 117,30 // jne 166b5 <_sk_load_rgb_u16_be_avx+0x216> + .byte 117,30 // jne 16ce1 <_sk_load_rgb_u16_be_avx+0x216> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 - .byte 233,91,254,255,255 // jmpq 164ff <_sk_load_rgb_u16_be_avx+0x60> + .byte 233,91,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1 .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2 - .byte 233,74,254,255,255 // jmpq 164ff <_sk_load_rgb_u16_be_avx+0x60> + .byte 233,74,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60> .byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 114,25 // jb 166e8 <_sk_load_rgb_u16_be_avx+0x249> + .byte 114,25 // jb 16d14 <_sk_load_rgb_u16_be_avx+0x249> .byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0 .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9 .byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0 - .byte 233,23,254,255,255 // jmpq 164ff <_sk_load_rgb_u16_be_avx+0x60> + .byte 233,23,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 - .byte 233,14,254,255,255 // jmpq 164ff <_sk_load_rgb_u16_be_avx+0x60> + .byte 233,14,254,255,255 // jmpq 16b2b <_sk_load_rgb_u16_be_avx+0x60> HIDDEN _sk_store_u16_be_avx .globl _sk_store_u16_be_avx @@ -21777,45 +22092,55 @@ _sk_store_u16_be_avx: .byte 77,1,192 // add %r8,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 73,99,193 // movslq %r9d,%rax - .byte 196,98,125,24,5,8,50,2,0 // vbroadcastss 0x23208(%rip),%ymm8 # 39920 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc> - .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9 + .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 + .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9 + .byte 196,98,125,24,21,203,52,2,0 // vbroadcastss 0x234cb(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9 + .byte 196,98,125,24,29,217,53,2,0 // vbroadcastss 0x235d9(%rip),%ymm11 # 3a334 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc> + .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9 .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9 - .byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10 - .byte 196,66,49,43,202 // vpackusdw %xmm10,%xmm9,%xmm9 - .byte 196,193,41,113,241,8 // vpsllw $0x8,%xmm9,%xmm10 + .byte 196,67,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm12 + .byte 196,66,49,43,204 // vpackusdw %xmm12,%xmm9,%xmm9 + .byte 196,193,25,113,241,8 // vpsllw $0x8,%xmm9,%xmm12 .byte 196,193,49,113,209,8 // vpsrlw $0x8,%xmm9,%xmm9 - .byte 196,65,41,235,201 // vpor %xmm9,%xmm10,%xmm9 - .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10 - .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10 - .byte 196,67,125,25,211,1 // vextractf128 $0x1,%ymm10,%xmm11 - .byte 196,66,41,43,211 // vpackusdw %xmm11,%xmm10,%xmm10 - .byte 196,193,33,113,242,8 // vpsllw $0x8,%xmm10,%xmm11 - .byte 196,193,41,113,210,8 // vpsrlw $0x8,%xmm10,%xmm10 - .byte 196,65,33,235,210 // vpor %xmm10,%xmm11,%xmm10 - .byte 196,65,108,89,216 // vmulps %ymm8,%ymm2,%ymm11 - .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11 - .byte 196,67,125,25,220,1 // vextractf128 $0x1,%ymm11,%xmm12 - .byte 196,66,33,43,220 // vpackusdw %xmm12,%xmm11,%xmm11 - .byte 196,193,25,113,243,8 // vpsllw $0x8,%xmm11,%xmm12 - .byte 196,193,33,113,211,8 // vpsrlw $0x8,%xmm11,%xmm11 - .byte 196,65,25,235,219 // vpor %xmm11,%xmm12,%xmm11 - .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8 + .byte 196,65,25,235,201 // vpor %xmm9,%xmm12,%xmm9 + .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12 + .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12 + .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12 + .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12 + .byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13 + .byte 196,66,25,43,229 // vpackusdw %xmm13,%xmm12,%xmm12 + .byte 196,193,17,113,244,8 // vpsllw $0x8,%xmm12,%xmm13 + .byte 196,193,25,113,212,8 // vpsrlw $0x8,%xmm12,%xmm12 + .byte 196,65,17,235,228 // vpor %xmm12,%xmm13,%xmm12 + .byte 197,60,95,234 // vmaxps %ymm2,%ymm8,%ymm13 + .byte 196,65,20,93,234 // vminps %ymm10,%ymm13,%ymm13 + .byte 196,65,20,89,235 // vmulps %ymm11,%ymm13,%ymm13 + .byte 196,65,125,91,237 // vcvtps2dq %ymm13,%ymm13 + .byte 196,67,125,25,238,1 // vextractf128 $0x1,%ymm13,%xmm14 + .byte 196,66,17,43,238 // vpackusdw %xmm14,%xmm13,%xmm13 + .byte 196,193,9,113,245,8 // vpsllw $0x8,%xmm13,%xmm14 + .byte 196,193,17,113,213,8 // vpsrlw $0x8,%xmm13,%xmm13 + .byte 196,65,9,235,237 // vpor %xmm13,%xmm14,%xmm13 + .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8 + .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8 + .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8 .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8 - .byte 196,67,125,25,196,1 // vextractf128 $0x1,%ymm8,%xmm12 - .byte 196,66,57,43,196 // vpackusdw %xmm12,%xmm8,%xmm8 - .byte 196,193,25,113,240,8 // vpsllw $0x8,%xmm8,%xmm12 + .byte 196,67,125,25,194,1 // vextractf128 $0x1,%ymm8,%xmm10 + .byte 196,66,57,43,194 // vpackusdw %xmm10,%xmm8,%xmm8 + .byte 196,193,41,113,240,8 // vpsllw $0x8,%xmm8,%xmm10 .byte 196,193,57,113,208,8 // vpsrlw $0x8,%xmm8,%xmm8 - .byte 196,65,25,235,192 // vpor %xmm8,%xmm12,%xmm8 - .byte 196,65,49,97,226 // vpunpcklwd %xmm10,%xmm9,%xmm12 - .byte 196,65,49,105,234 // vpunpckhwd %xmm10,%xmm9,%xmm13 - .byte 196,65,33,97,200 // vpunpcklwd %xmm8,%xmm11,%xmm9 - .byte 196,65,33,105,192 // vpunpckhwd %xmm8,%xmm11,%xmm8 - .byte 196,65,25,98,217 // vpunpckldq %xmm9,%xmm12,%xmm11 - .byte 196,65,25,106,209 // vpunpckhdq %xmm9,%xmm12,%xmm10 - .byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9 - .byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8 + .byte 196,65,41,235,192 // vpor %xmm8,%xmm10,%xmm8 + .byte 196,65,49,97,212 // vpunpcklwd %xmm12,%xmm9,%xmm10 + .byte 196,65,49,105,228 // vpunpckhwd %xmm12,%xmm9,%xmm12 + .byte 196,65,17,97,200 // vpunpcklwd %xmm8,%xmm13,%xmm9 + .byte 196,65,17,105,192 // vpunpckhwd %xmm8,%xmm13,%xmm8 + .byte 196,65,41,98,217 // vpunpckldq %xmm9,%xmm10,%xmm11 + .byte 196,65,41,106,209 // vpunpckhdq %xmm9,%xmm10,%xmm10 + .byte 196,65,25,98,200 // vpunpckldq %xmm8,%xmm12,%xmm9 + .byte 196,65,25,106,192 // vpunpckhdq %xmm8,%xmm12,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,31 // jne 167fc <_sk_store_u16_be_avx+0x10b> + .byte 117,31 // jne 16e5a <_sk_store_u16_be_avx+0x13d> .byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2) .byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2) .byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2) @@ -21824,22 +22149,22 @@ _sk_store_u16_be_avx: .byte 255,224 // jmpq *%rax .byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2) .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,240 // je 167f8 <_sk_store_u16_be_avx+0x107> + .byte 116,240 // je 16e56 <_sk_store_u16_be_avx+0x139> .byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2) .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,227 // jb 167f8 <_sk_store_u16_be_avx+0x107> + .byte 114,227 // jb 16e56 <_sk_store_u16_be_avx+0x139> .byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2) - .byte 116,218 // je 167f8 <_sk_store_u16_be_avx+0x107> + .byte 116,218 // je 16e56 <_sk_store_u16_be_avx+0x139> .byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2) .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,205 // jb 167f8 <_sk_store_u16_be_avx+0x107> + .byte 114,205 // jb 16e56 <_sk_store_u16_be_avx+0x139> .byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2) - .byte 116,196 // je 167f8 <_sk_store_u16_be_avx+0x107> + .byte 116,196 // je 16e56 <_sk_store_u16_be_avx+0x139> .byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2) .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 114,183 // jb 167f8 <_sk_store_u16_be_avx+0x107> + .byte 114,183 // jb 16e56 <_sk_store_u16_be_avx+0x139> .byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2) - .byte 235,174 // jmp 167f8 <_sk_store_u16_be_avx+0x107> + .byte 235,174 // jmp 16e56 <_sk_store_u16_be_avx+0x139> HIDDEN _sk_load_f32_avx .globl _sk_load_f32_avx @@ -21848,7 +22173,7 @@ _sk_load_f32_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 15,135,97,1,0,0 // ja 169bb <_sk_load_f32_avx+0x171> + .byte 15,135,97,1,0,0 // ja 17019 <_sk_load_f32_avx+0x171> .byte 72,131,236,24 // sub $0x18,%rsp .byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp) .byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp) @@ -21861,7 +22186,7 @@ _sk_load_f32_avx: .byte 73,193,224,2 // shl $0x2,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 77,99,201 // movslq %r9d,%r9 - .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # 169cc <_sk_load_f32_avx+0x182> + .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 17028 <_sk_load_f32_avx+0x180> .byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax .byte 76,1,208 // add %r10,%rax .byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4 @@ -21924,19 +22249,21 @@ _sk_load_f32_avx: .byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3 .byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10 .byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1 - .byte 235,203 // jmp 16995 <_sk_load_f32_avx+0x14b> - .byte 102,144 // xchg %ax,%ax - .byte 27,255 // sbb %edi,%edi + .byte 235,203 // jmp 16ff3 <_sk_load_f32_avx+0x14b> + .byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax .byte 255 // (bad) - .byte 255,161,255,255,255,140 // jmpq *-0x73000001(%rcx) .byte 255 // (bad) + .byte 255,142,255,255,255,121 // decl 0x79ffffff(%rsi) .byte 255 // (bad) - .byte 255,119,255 // pushq -0x1(%rdi) .byte 255 // (bad) - .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8) - .byte 255,70,255 // incl -0x1(%rsi) + .byte 255,94,255 // lcall *-0x1(%rsi) + .byte 255 // (bad) + .byte 255,72,255 // decl -0x1(%rax) + .byte 255 // (bad) + .byte 255,55 // pushq (%rdi) .byte 255 // (bad) - .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 290169e8 <_sk_srcover_bgra_8888_sse2_lowp+0x28fdd494> + .byte 255 // (bad) + .byte 255,42 // ljmp *(%rdx) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -21948,7 +22275,7 @@ _sk_load_f32_dst_avx: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4 .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 15,135,97,1,0,0 // ja 16b5d <_sk_load_f32_dst_avx+0x171> + .byte 15,135,97,1,0,0 // ja 171b9 <_sk_load_f32_dst_avx+0x171> .byte 72,131,236,24 // sub $0x18,%rsp .byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp) .byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp) @@ -21961,7 +22288,7 @@ _sk_load_f32_dst_avx: .byte 73,193,224,2 // shl $0x2,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 77,99,201 // movslq %r9d,%r9 - .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 16b6c <_sk_load_f32_dst_avx+0x180> + .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 171c8 <_sk_load_f32_dst_avx+0x180> .byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax .byte 76,1,208 // add %r10,%rax .byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0 @@ -22024,7 +22351,7 @@ _sk_load_f32_dst_avx: .byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7 .byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10 .byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5 - .byte 235,203 // jmp 16b37 <_sk_load_f32_dst_avx+0x14b> + .byte 235,203 // jmp 17193 <_sk_load_f32_dst_avx+0x14b> .byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax .byte 255 // (bad) .byte 255 // (bad) @@ -22064,7 +22391,7 @@ _sk_store_f32_avx: .byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8 .byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11 .byte 72,133,255 // test %rdi,%rdi - .byte 117,55 // jne 16c0b <_sk_store_f32_avx+0x7f> + .byte 117,55 // jne 17267 <_sk_store_f32_avx+0x7f> .byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12 .byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13 .byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9 @@ -22077,22 +22404,22 @@ _sk_store_f32_avx: .byte 255,224 // jmpq *%rax .byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4) .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,240 // je 16c07 <_sk_store_f32_avx+0x7b> + .byte 116,240 // je 17263 <_sk_store_f32_avx+0x7b> .byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4) .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,227 // jb 16c07 <_sk_store_f32_avx+0x7b> + .byte 114,227 // jb 17263 <_sk_store_f32_avx+0x7b> .byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4) - .byte 116,218 // je 16c07 <_sk_store_f32_avx+0x7b> + .byte 116,218 // je 17263 <_sk_store_f32_avx+0x7b> .byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4) .byte 72,131,255,5 // cmp $0x5,%rdi - .byte 114,205 // jb 16c07 <_sk_store_f32_avx+0x7b> + .byte 114,205 // jb 17263 <_sk_store_f32_avx+0x7b> .byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4) - .byte 116,195 // je 16c07 <_sk_store_f32_avx+0x7b> + .byte 116,195 // je 17263 <_sk_store_f32_avx+0x7b> .byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4) .byte 72,131,255,7 // cmp $0x7,%rdi - .byte 114,181 // jb 16c07 <_sk_store_f32_avx+0x7b> + .byte 114,181 // jb 17263 <_sk_store_f32_avx+0x7b> .byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4) - .byte 235,171 // jmp 16c07 <_sk_store_f32_avx+0x7b> + .byte 235,171 // jmp 17263 <_sk_store_f32_avx+0x7b> HIDDEN _sk_repeat_x_avx .globl _sk_repeat_x_avx @@ -22135,7 +22462,7 @@ _sk_mirror_x_avx: .byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0 .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0 .byte 196,99,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm8 - .byte 197,178,89,5,37,43,2,0 // vmulss 0x22b25(%rip),%xmm9,%xmm0 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 197,178,89,5,221,46,2,0 // vmulss 0x22edd(%rip),%xmm9,%xmm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0 .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0 .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0 @@ -22162,7 +22489,7 @@ _sk_mirror_y_avx: .byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1 .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1 .byte 196,99,117,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm8 - .byte 197,178,89,13,187,42,2,0 // vmulss 0x22abb(%rip),%xmm9,%xmm1 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 197,178,89,13,115,46,2,0 // vmulss 0x22e73(%rip),%xmm9,%xmm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1 .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1 .byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1 @@ -22182,7 +22509,7 @@ FUNCTION(_sk_clamp_x_1_avx) _sk_clamp_x_1_avx: .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0 - .byte 196,98,125,24,5,120,42,2,0 // vbroadcastss 0x22a78(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,48,46,2,0 // vbroadcastss 0x22e30(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -22195,7 +22522,7 @@ _sk_repeat_x_1_avx: .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0 - .byte 196,98,125,24,5,82,42,2,0 // vbroadcastss 0x22a52(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,10,46,2,0 // vbroadcastss 0x22e0a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -22204,9 +22531,9 @@ HIDDEN _sk_mirror_x_1_avx .globl _sk_mirror_x_1_avx FUNCTION(_sk_mirror_x_1_avx) _sk_mirror_x_1_avx: - .byte 196,98,125,24,5,88,42,2,0 // vbroadcastss 0x22a58(%rip),%ymm8 # 3981c <_sk_srcover_bgra_8888_sse2_lowp+0x2c8> + .byte 196,98,125,24,5,16,46,2,0 // vbroadcastss 0x22e10(%rip),%ymm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8> .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0 - .byte 196,98,125,24,13,46,42,2,0 // vbroadcastss 0x22a2e(%rip),%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,13,230,45,2,0 // vbroadcastss 0x22de6(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9 .byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9 .byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9 @@ -22216,7 +22543,7 @@ _sk_mirror_x_1_avx: .byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9 .byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0 .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0 - .byte 196,98,125,24,5,254,41,2,0 // vbroadcastss 0x229fe(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,182,45,2,0 // vbroadcastss 0x22db6(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -22225,12 +22552,12 @@ HIDDEN _sk_luminance_to_alpha_avx .globl _sk_luminance_to_alpha_avx FUNCTION(_sk_luminance_to_alpha_avx) _sk_luminance_to_alpha_avx: - .byte 196,226,125,24,29,16,43,2,0 // vbroadcastss 0x22b10(%rip),%ymm3 # 39928 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4> + .byte 196,226,125,24,29,200,46,2,0 // vbroadcastss 0x22ec8(%rip),%ymm3 # 3a33c <_sk_srcover_bgra_8888_sse2_lowp+0x3d4> .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0 - .byte 196,226,125,24,29,255,42,2,0 // vbroadcastss 0x22aff(%rip),%ymm3 # 39924 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0> + .byte 196,226,125,24,29,183,46,2,0 // vbroadcastss 0x22eb7(%rip),%ymm3 # 3a338 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0> .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1 .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0 - .byte 196,226,125,24,13,246,42,2,0 // vbroadcastss 0x22af6(%rip),%ymm1 # 3992c <_sk_srcover_bgra_8888_sse2_lowp+0x3d8> + .byte 196,226,125,24,13,174,46,2,0 // vbroadcastss 0x22eae(%rip),%ymm1 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8> .byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1 .byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3 .byte 72,173 // lods %ds:(%rsi),%rax @@ -22478,9 +22805,9 @@ _sk_evenly_spaced_gradient_avx: .byte 72,139,24 // mov (%rax),%rbx .byte 72,139,104,8 // mov 0x8(%rax),%rbp .byte 72,255,203 // dec %rbx - .byte 120,7 // js 171da <_sk_evenly_spaced_gradient_avx+0x25> + .byte 120,7 // js 17836 <_sk_evenly_spaced_gradient_avx+0x25> .byte 196,225,242,42,203 // vcvtsi2ss %rbx,%xmm1,%xmm1 - .byte 235,21 // jmp 171ef <_sk_evenly_spaced_gradient_avx+0x3a> + .byte 235,21 // jmp 1784b <_sk_evenly_spaced_gradient_avx+0x3a> .byte 73,137,216 // mov %rbx,%r8 .byte 73,209,232 // shr %r8 .byte 131,227,1 // and $0x1,%ebx @@ -22648,12 +22975,12 @@ _sk_gradient_avx: .byte 76,139,0 // mov (%rax),%r8 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 73,131,248,2 // cmp $0x2,%r8 - .byte 114,81 // jb 17589 <_sk_gradient_avx+0x6f> + .byte 114,81 // jb 17be5 <_sk_gradient_avx+0x6f> .byte 72,139,88,72 // mov 0x48(%rax),%rbx .byte 73,255,200 // dec %r8 .byte 72,131,195,4 // add $0x4,%rbx .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 - .byte 196,98,125,24,21,183,34,2,0 // vbroadcastss 0x222b7(%rip),%ymm10 # 39808 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4> + .byte 196,98,125,24,21,111,38,2,0 // vbroadcastss 0x2266f(%rip),%ymm10 # 3a21c <_sk_srcover_bgra_8888_sse2_lowp+0x2b4> .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 196,98,125,24,3 // vbroadcastss (%rbx),%ymm8 .byte 197,60,194,192,2 // vcmpleps %ymm0,%ymm8,%ymm8 @@ -22665,7 +22992,7 @@ _sk_gradient_avx: .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1 .byte 72,131,195,4 // add $0x4,%rbx .byte 73,255,200 // dec %r8 - .byte 117,204 // jne 17555 <_sk_gradient_avx+0x3b> + .byte 117,204 // jne 17bb1 <_sk_gradient_avx+0x3b> .byte 196,195,249,22,200,1 // vpextrq $0x1,%xmm1,%r8 .byte 69,137,193 // mov %r8d,%r9d .byte 73,193,232,32 // shr $0x20,%r8 @@ -22847,27 +23174,27 @@ _sk_xy_to_unit_angle_avx: .byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12 .byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11 .byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12 - .byte 196,98,125,24,45,209,31,2,0 // vbroadcastss 0x21fd1(%rip),%ymm13 # 39930 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc> + .byte 196,98,125,24,45,137,35,2,0 // vbroadcastss 0x22389(%rip),%ymm13 # 3a344 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc> .byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13 - .byte 196,98,125,24,53,199,31,2,0 // vbroadcastss 0x21fc7(%rip),%ymm14 # 39934 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0> + .byte 196,98,125,24,53,127,35,2,0 // vbroadcastss 0x2237f(%rip),%ymm14 # 3a348 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0> .byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13 .byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13 - .byte 196,98,125,24,53,184,31,2,0 // vbroadcastss 0x21fb8(%rip),%ymm14 # 39938 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4> + .byte 196,98,125,24,53,112,35,2,0 // vbroadcastss 0x22370(%rip),%ymm14 # 3a34c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4> .byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13 .byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12 - .byte 196,98,125,24,45,169,31,2,0 // vbroadcastss 0x21fa9(%rip),%ymm13 # 3993c <_sk_srcover_bgra_8888_sse2_lowp+0x3e8> + .byte 196,98,125,24,45,97,35,2,0 // vbroadcastss 0x22361(%rip),%ymm13 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8> .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12 .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11 .byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9 - .byte 196,98,125,24,21,148,31,2,0 // vbroadcastss 0x21f94(%rip),%ymm10 # 39940 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec> + .byte 196,98,125,24,21,76,35,2,0 // vbroadcastss 0x2234c(%rip),%ymm10 # 3a354 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec> .byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10 .byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9 .byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0 - .byte 196,98,125,24,21,58,30,2,0 // vbroadcastss 0x21e3a(%rip),%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,21,242,33,2,0 // vbroadcastss 0x221f2(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10 .byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0 .byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9 - .byte 196,98,125,24,21,36,30,2,0 // vbroadcastss 0x21e24(%rip),%ymm10 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,21,220,33,2,0 // vbroadcastss 0x221dc(%rip),%ymm10 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10 .byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0 .byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9 @@ -22897,7 +23224,7 @@ _sk_xy_to_2pt_conical_quadratic_first_avx: .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10 .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10 .byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10 - .byte 196,98,125,24,29,10,31,2,0 // vbroadcastss 0x21f0a(%rip),%ymm11 # 39944 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0> + .byte 196,98,125,24,29,194,34,2,0 // vbroadcastss 0x222c2(%rip),%ymm11 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0> .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10 .byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0 .byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11 @@ -22906,7 +23233,7 @@ _sk_xy_to_2pt_conical_quadratic_first_avx: .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0 .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0 .byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0 - .byte 196,98,125,24,13,222,30,2,0 // vbroadcastss 0x21ede(%rip),%ymm9 # 39948 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4> + .byte 196,98,125,24,13,150,34,2,0 // vbroadcastss 0x22296(%rip),%ymm9 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8 @@ -22914,7 +23241,7 @@ _sk_xy_to_2pt_conical_quadratic_first_avx: .byte 197,252,81,192 // vsqrtps %ymm0,%ymm0 .byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8 .byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0 - .byte 196,98,125,24,13,107,29,2,0 // vbroadcastss 0x21d6b(%rip),%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,13,35,33,2,0 // vbroadcastss 0x22123(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax @@ -22931,7 +23258,7 @@ _sk_xy_to_2pt_conical_quadratic_second_avx: .byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10 .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10 .byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10 - .byte 196,98,125,24,29,119,30,2,0 // vbroadcastss 0x21e77(%rip),%ymm11 # 39944 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0> + .byte 196,98,125,24,29,47,34,2,0 // vbroadcastss 0x2222f(%rip),%ymm11 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0> .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10 .byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0 .byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11 @@ -22940,17 +23267,17 @@ _sk_xy_to_2pt_conical_quadratic_second_avx: .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0 .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0 .byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0 - .byte 196,98,125,24,13,75,30,2,0 // vbroadcastss 0x21e4b(%rip),%ymm9 # 39948 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4> + .byte 196,98,125,24,13,3,34,2,0 // vbroadcastss 0x22203(%rip),%ymm9 # 3a35c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8 .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0 .byte 197,252,81,192 // vsqrtps %ymm0,%ymm0 .byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8 - .byte 196,98,125,24,13,41,30,2,0 // vbroadcastss 0x21e29(%rip),%ymm9 # 3994c <_sk_srcover_bgra_8888_sse2_lowp+0x3f8> + .byte 196,98,125,24,13,225,33,2,0 // vbroadcastss 0x221e1(%rip),%ymm9 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8> .byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9 .byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0 - .byte 196,98,125,24,13,203,28,2,0 // vbroadcastss 0x21ccb(%rip),%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,13,131,32,2,0 // vbroadcastss 0x22083(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax @@ -22966,7 +23293,7 @@ _sk_xy_to_2pt_conical_linear_avx: .byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9 .byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9 .byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9 - .byte 196,98,125,24,21,221,29,2,0 // vbroadcastss 0x21ddd(%rip),%ymm10 # 39944 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0> + .byte 196,98,125,24,21,149,33,2,0 // vbroadcastss 0x22195(%rip),%ymm10 # 3a358 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0> .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9 .byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0 .byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10 @@ -22975,7 +23302,7 @@ _sk_xy_to_2pt_conical_linear_avx: .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0 .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0 .byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0 - .byte 196,98,125,24,5,181,29,2,0 // vbroadcastss 0x21db5(%rip),%ymm8 # 3994c <_sk_srcover_bgra_8888_sse2_lowp+0x3f8> + .byte 196,98,125,24,5,109,33,2,0 // vbroadcastss 0x2216d(%rip),%ymm8 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8> .byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0 .byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax @@ -23019,7 +23346,7 @@ HIDDEN _sk_save_xy_avx FUNCTION(_sk_save_xy_avx) _sk_save_xy_avx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,98,125,24,5,239,27,2,0 // vbroadcastss 0x21bef(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,5,167,31,2,0 // vbroadcastss 0x21fa7(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9 .byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10 .byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9 @@ -23056,9 +23383,9 @@ HIDDEN _sk_bilinear_nx_avx FUNCTION(_sk_bilinear_nx_avx) _sk_bilinear_nx_avx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,5,193,28,2,0 // vbroadcastss 0x21cc1(%rip),%ymm0 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> + .byte 196,226,125,24,5,121,32,2,0 // vbroadcastss 0x22079(%rip),%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 - .byte 196,98,125,24,5,104,27,2,0 // vbroadcastss 0x21b68(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,32,31,2,0 // vbroadcastss 0x21f20(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8 .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -23069,7 +23396,7 @@ HIDDEN _sk_bilinear_px_avx FUNCTION(_sk_bilinear_px_avx) _sk_bilinear_px_avx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,5,69,27,2,0 // vbroadcastss 0x21b45(%rip),%ymm0 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,226,125,24,5,253,30,2,0 // vbroadcastss 0x21efd(%rip),%ymm0 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 .byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8 .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax) @@ -23081,9 +23408,9 @@ HIDDEN _sk_bilinear_ny_avx FUNCTION(_sk_bilinear_ny_avx) _sk_bilinear_ny_avx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,13,114,28,2,0 // vbroadcastss 0x21c72(%rip),%ymm1 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> + .byte 196,226,125,24,13,42,32,2,0 // vbroadcastss 0x2202a(%rip),%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1 - .byte 196,98,125,24,5,24,27,2,0 // vbroadcastss 0x21b18(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,208,30,2,0 // vbroadcastss 0x21ed0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8 .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -23094,7 +23421,7 @@ HIDDEN _sk_bilinear_py_avx FUNCTION(_sk_bilinear_py_avx) _sk_bilinear_py_avx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,13,245,26,2,0 // vbroadcastss 0x21af5(%rip),%ymm1 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,226,125,24,13,173,30,2,0 // vbroadcastss 0x21ead(%rip),%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1 .byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8 .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax) @@ -23106,14 +23433,14 @@ HIDDEN _sk_bicubic_n3x_avx FUNCTION(_sk_bicubic_n3x_avx) _sk_bicubic_n3x_avx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,5,37,28,2,0 // vbroadcastss 0x21c25(%rip),%ymm0 # 39954 <_sk_srcover_bgra_8888_sse2_lowp+0x400> + .byte 196,226,125,24,5,221,31,2,0 // vbroadcastss 0x21fdd(%rip),%ymm0 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 - .byte 196,98,125,24,5,200,26,2,0 // vbroadcastss 0x21ac8(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,128,30,2,0 // vbroadcastss 0x21e80(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8 .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 - .byte 196,98,125,24,21,6,28,2,0 // vbroadcastss 0x21c06(%rip),%ymm10 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404> + .byte 196,98,125,24,21,190,31,2,0 // vbroadcastss 0x21fbe(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404> .byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8 - .byte 196,98,125,24,21,24,27,2,0 // vbroadcastss 0x21b18(%rip),%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324> + .byte 196,98,125,24,21,208,30,2,0 // vbroadcastss 0x21ed0(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324> .byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8 .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8 .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax) @@ -23125,19 +23452,19 @@ HIDDEN _sk_bicubic_n1x_avx FUNCTION(_sk_bicubic_n1x_avx) _sk_bicubic_n1x_avx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,5,207,27,2,0 // vbroadcastss 0x21bcf(%rip),%ymm0 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> + .byte 196,226,125,24,5,135,31,2,0 // vbroadcastss 0x21f87(%rip),%ymm0 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 - .byte 196,98,125,24,5,118,26,2,0 // vbroadcastss 0x21a76(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,46,30,2,0 // vbroadcastss 0x21e2e(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8 - .byte 196,98,125,24,13,189,27,2,0 // vbroadcastss 0x21bbd(%rip),%ymm9 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408> + .byte 196,98,125,24,13,117,31,2,0 // vbroadcastss 0x21f75(%rip),%ymm9 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408> .byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9 - .byte 196,98,125,24,21,179,27,2,0 // vbroadcastss 0x21bb3(%rip),%ymm10 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> + .byte 196,98,125,24,21,107,31,2,0 // vbroadcastss 0x21f6b(%rip),%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9 - .byte 196,98,125,24,21,64,26,2,0 // vbroadcastss 0x21a40(%rip),%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,21,248,29,2,0 // vbroadcastss 0x21df8(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 - .byte 196,98,125,24,13,145,27,2,0 // vbroadcastss 0x21b91(%rip),%ymm9 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410> + .byte 196,98,125,24,13,73,31,2,0 // vbroadcastss 0x21f49(%rip),%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410> .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -23148,17 +23475,17 @@ HIDDEN _sk_bicubic_p1x_avx FUNCTION(_sk_bicubic_p1x_avx) _sk_bicubic_p1x_avx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,98,125,24,5,17,26,2,0 // vbroadcastss 0x21a11(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,5,201,29,2,0 // vbroadcastss 0x21dc9(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0 .byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9 - .byte 196,98,125,24,21,88,27,2,0 // vbroadcastss 0x21b58(%rip),%ymm10 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408> + .byte 196,98,125,24,21,16,31,2,0 // vbroadcastss 0x21f10(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408> .byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10 - .byte 196,98,125,24,29,78,27,2,0 // vbroadcastss 0x21b4e(%rip),%ymm11 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> + .byte 196,98,125,24,29,6,31,2,0 // vbroadcastss 0x21f06(%rip),%ymm11 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10 .byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8 .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8 - .byte 196,98,125,24,13,53,27,2,0 // vbroadcastss 0x21b35(%rip),%ymm9 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410> + .byte 196,98,125,24,13,237,30,2,0 // vbroadcastss 0x21eed(%rip),%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410> .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -23169,13 +23496,13 @@ HIDDEN _sk_bicubic_p3x_avx FUNCTION(_sk_bicubic_p3x_avx) _sk_bicubic_p3x_avx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,5,21,27,2,0 // vbroadcastss 0x21b15(%rip),%ymm0 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> + .byte 196,226,125,24,5,205,30,2,0 // vbroadcastss 0x21ecd(%rip),%ymm0 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0 .byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8 .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 - .byte 196,98,125,24,21,243,26,2,0 // vbroadcastss 0x21af3(%rip),%ymm10 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404> + .byte 196,98,125,24,21,171,30,2,0 // vbroadcastss 0x21eab(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404> .byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8 - .byte 196,98,125,24,21,5,26,2,0 // vbroadcastss 0x21a05(%rip),%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324> + .byte 196,98,125,24,21,189,29,2,0 // vbroadcastss 0x21dbd(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324> .byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8 .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8 .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax) @@ -23187,14 +23514,14 @@ HIDDEN _sk_bicubic_n3y_avx FUNCTION(_sk_bicubic_n3y_avx) _sk_bicubic_n3y_avx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,13,192,26,2,0 // vbroadcastss 0x21ac0(%rip),%ymm1 # 39954 <_sk_srcover_bgra_8888_sse2_lowp+0x400> + .byte 196,226,125,24,13,120,30,2,0 // vbroadcastss 0x21e78(%rip),%ymm1 # 3a368 <_sk_srcover_bgra_8888_sse2_lowp+0x400> .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1 - .byte 196,98,125,24,5,98,25,2,0 // vbroadcastss 0x21962(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,26,29,2,0 // vbroadcastss 0x21d1a(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8 .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 - .byte 196,98,125,24,21,160,26,2,0 // vbroadcastss 0x21aa0(%rip),%ymm10 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404> + .byte 196,98,125,24,21,88,30,2,0 // vbroadcastss 0x21e58(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404> .byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8 - .byte 196,98,125,24,21,178,25,2,0 // vbroadcastss 0x219b2(%rip),%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324> + .byte 196,98,125,24,21,106,29,2,0 // vbroadcastss 0x21d6a(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324> .byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8 .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8 .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax) @@ -23206,19 +23533,19 @@ HIDDEN _sk_bicubic_n1y_avx FUNCTION(_sk_bicubic_n1y_avx) _sk_bicubic_n1y_avx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,13,105,26,2,0 // vbroadcastss 0x21a69(%rip),%ymm1 # 39950 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> + .byte 196,226,125,24,13,33,30,2,0 // vbroadcastss 0x21e21(%rip),%ymm1 # 3a364 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc> .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1 - .byte 196,98,125,24,5,15,25,2,0 // vbroadcastss 0x2190f(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,199,28,2,0 // vbroadcastss 0x21cc7(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8 - .byte 196,98,125,24,13,86,26,2,0 // vbroadcastss 0x21a56(%rip),%ymm9 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408> + .byte 196,98,125,24,13,14,30,2,0 // vbroadcastss 0x21e0e(%rip),%ymm9 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408> .byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9 - .byte 196,98,125,24,21,76,26,2,0 // vbroadcastss 0x21a4c(%rip),%ymm10 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> + .byte 196,98,125,24,21,4,30,2,0 // vbroadcastss 0x21e04(%rip),%ymm10 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9 - .byte 196,98,125,24,21,217,24,2,0 // vbroadcastss 0x218d9(%rip),%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,21,145,28,2,0 // vbroadcastss 0x21c91(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9 .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8 - .byte 196,98,125,24,13,42,26,2,0 // vbroadcastss 0x21a2a(%rip),%ymm9 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410> + .byte 196,98,125,24,13,226,29,2,0 // vbroadcastss 0x21de2(%rip),%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410> .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -23229,17 +23556,17 @@ HIDDEN _sk_bicubic_p1y_avx FUNCTION(_sk_bicubic_p1y_avx) _sk_bicubic_p1y_avx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,98,125,24,5,170,24,2,0 // vbroadcastss 0x218aa(%rip),%ymm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,5,98,28,2,0 // vbroadcastss 0x21c62(%rip),%ymm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1 .byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9 - .byte 196,98,125,24,21,240,25,2,0 // vbroadcastss 0x219f0(%rip),%ymm10 # 3995c <_sk_srcover_bgra_8888_sse2_lowp+0x408> + .byte 196,98,125,24,21,168,29,2,0 // vbroadcastss 0x21da8(%rip),%ymm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0x408> .byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10 - .byte 196,98,125,24,29,230,25,2,0 // vbroadcastss 0x219e6(%rip),%ymm11 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> + .byte 196,98,125,24,29,158,29,2,0 // vbroadcastss 0x21d9e(%rip),%ymm11 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10 .byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10 .byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8 .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8 - .byte 196,98,125,24,13,205,25,2,0 // vbroadcastss 0x219cd(%rip),%ymm9 # 39964 <_sk_srcover_bgra_8888_sse2_lowp+0x410> + .byte 196,98,125,24,13,133,29,2,0 // vbroadcastss 0x21d85(%rip),%ymm9 # 3a378 <_sk_srcover_bgra_8888_sse2_lowp+0x410> .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8 .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -23250,13 +23577,13 @@ HIDDEN _sk_bicubic_p3y_avx FUNCTION(_sk_bicubic_p3y_avx) _sk_bicubic_p3y_avx: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,13,173,25,2,0 // vbroadcastss 0x219ad(%rip),%ymm1 # 39960 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> + .byte 196,226,125,24,13,101,29,2,0 // vbroadcastss 0x21d65(%rip),%ymm1 # 3a374 <_sk_srcover_bgra_8888_sse2_lowp+0x40c> .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1 .byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8 .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9 - .byte 196,98,125,24,21,138,25,2,0 // vbroadcastss 0x2198a(%rip),%ymm10 # 39958 <_sk_srcover_bgra_8888_sse2_lowp+0x404> + .byte 196,98,125,24,21,66,29,2,0 // vbroadcastss 0x21d42(%rip),%ymm10 # 3a36c <_sk_srcover_bgra_8888_sse2_lowp+0x404> .byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8 - .byte 196,98,125,24,21,156,24,2,0 // vbroadcastss 0x2189c(%rip),%ymm10 # 39878 <_sk_srcover_bgra_8888_sse2_lowp+0x324> + .byte 196,98,125,24,21,84,28,2,0 // vbroadcastss 0x21c54(%rip),%ymm10 # 3a28c <_sk_srcover_bgra_8888_sse2_lowp+0x324> .byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8 .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8 .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax) @@ -23404,7 +23731,7 @@ _sk_clut_3D_avx: .byte 72,139,0 // mov (%rax),%rax .byte 197,217,254,207 // vpaddd %xmm7,%xmm4,%xmm1 .byte 197,249,254,193 // vpaddd %xmm1,%xmm0,%xmm0 - .byte 196,226,121,24,37,34,23,2,0 // vbroadcastss 0x21722(%rip),%xmm4 # 3996c <_sk_srcover_bgra_8888_sse2_lowp+0x418> + .byte 196,226,121,24,37,218,26,2,0 // vbroadcastss 0x21ada(%rip),%xmm4 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418> .byte 196,98,121,64,228 // vpmulld %xmm4,%xmm0,%xmm12 .byte 196,226,49,64,198 // vpmulld %xmm6,%xmm9,%xmm0 .byte 197,249,127,132,36,128,0,0,0 // vmovdqa %xmm0,0x80(%rsp) @@ -23458,7 +23785,7 @@ _sk_clut_3D_avx: .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7 .byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6 .byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5 - .byte 196,98,121,24,21,155,20,2,0 // vbroadcastss 0x2149b(%rip),%xmm10 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc> + .byte 196,98,121,24,21,83,24,2,0 // vbroadcastss 0x21853(%rip),%xmm10 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc> .byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2 .byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8 .byte 196,193,249,126,209 // vmovq %xmm2,%r9 @@ -23486,7 +23813,7 @@ _sk_clut_3D_avx: .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7 .byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6 .byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2 - .byte 196,226,125,24,61,95,21,2,0 // vbroadcastss 0x2155f(%rip),%ymm7 # 39968 <_sk_srcover_bgra_8888_sse2_lowp+0x414> + .byte 196,226,125,24,61,23,25,2,0 // vbroadcastss 0x21917(%rip),%ymm7 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414> .byte 197,148,88,247 // vaddps %ymm7,%ymm13,%ymm6 .byte 197,124,40,231 // vmovaps %ymm7,%ymm12 .byte 197,124,17,36,36 // vmovups %ymm12,(%rsp) @@ -24229,7 +24556,7 @@ _sk_clut_4D_avx: .byte 197,249,127,68,36,32 // vmovdqa %xmm0,0x20(%rsp) .byte 197,225,254,216 // vpaddd %xmm0,%xmm3,%xmm3 .byte 197,233,254,195 // vpaddd %xmm3,%xmm2,%xmm0 - .byte 196,98,121,24,13,35,6,2,0 // vbroadcastss 0x20623(%rip),%xmm9 # 3996c <_sk_srcover_bgra_8888_sse2_lowp+0x418> + .byte 196,98,121,24,13,219,9,2,0 // vbroadcastss 0x209db(%rip),%xmm9 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0x418> .byte 196,194,121,64,209 // vpmulld %xmm9,%xmm0,%xmm2 .byte 196,226,81,64,199 // vpmulld %xmm7,%xmm5,%xmm0 .byte 197,249,127,132,36,96,1,0,0 // vmovdqa %xmm0,0x160(%rsp) @@ -24286,7 +24613,7 @@ _sk_clut_4D_avx: .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7 .byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6 .byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5 - .byte 196,98,121,24,21,140,3,2,0 // vbroadcastss 0x2038c(%rip),%xmm10 # 39810 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc> + .byte 196,98,121,24,21,68,7,2,0 // vbroadcastss 0x20744(%rip),%xmm10 # 3a224 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc> .byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0 .byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8 .byte 196,193,249,126,193 // vmovq %xmm0,%r9 @@ -24314,7 +24641,7 @@ _sk_clut_4D_avx: .byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6 .byte 196,227,105,33,214,48 // vinsertps $0x30,%xmm6,%xmm2,%xmm2 .byte 196,227,109,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm2 - .byte 196,98,125,24,37,80,4,2,0 // vbroadcastss 0x20450(%rip),%ymm12 # 39968 <_sk_srcover_bgra_8888_sse2_lowp+0x414> + .byte 196,98,125,24,37,8,8,2,0 // vbroadcastss 0x20808(%rip),%ymm12 # 3a37c <_sk_srcover_bgra_8888_sse2_lowp+0x414> .byte 196,193,4,88,196 // vaddps %ymm12,%ymm15,%ymm0 .byte 197,124,17,36,36 // vmovups %ymm12,(%rsp) .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0 @@ -25712,7 +26039,7 @@ _sk_clut_4D_avx: .byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2 .byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,24,29,173,229,1,0 // vbroadcastss 0x1e5ad(%rip),%ymm3 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,226,125,24,29,101,233,1,0 // vbroadcastss 0x1e965(%rip),%ymm3 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,252,16,164,36,64,2,0,0 // vmovups 0x240(%rsp),%ymm4 .byte 197,252,16,172,36,96,2,0,0 // vmovups 0x260(%rsp),%ymm5 .byte 197,252,16,180,36,128,2,0,0 // vmovups 0x280(%rsp),%ymm6 @@ -25728,18 +26055,18 @@ HIDDEN _sk_gauss_a_to_rgba_avx .globl _sk_gauss_a_to_rgba_avx FUNCTION(_sk_gauss_a_to_rgba_avx) _sk_gauss_a_to_rgba_avx: - .byte 196,226,125,24,5,220,230,1,0 // vbroadcastss 0x1e6dc(%rip),%ymm0 # 39970 <_sk_srcover_bgra_8888_sse2_lowp+0x41c> + .byte 196,226,125,24,5,148,234,1,0 // vbroadcastss 0x1ea94(%rip),%ymm0 # 3a384 <_sk_srcover_bgra_8888_sse2_lowp+0x41c> .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0 - .byte 196,226,125,24,13,211,230,1,0 // vbroadcastss 0x1e6d3(%rip),%ymm1 # 39974 <_sk_srcover_bgra_8888_sse2_lowp+0x420> + .byte 196,226,125,24,13,139,234,1,0 // vbroadcastss 0x1ea8b(%rip),%ymm1 # 3a388 <_sk_srcover_bgra_8888_sse2_lowp+0x420> .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0 .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0 - .byte 196,226,125,24,13,198,230,1,0 // vbroadcastss 0x1e6c6(%rip),%ymm1 # 39978 <_sk_srcover_bgra_8888_sse2_lowp+0x424> + .byte 196,226,125,24,13,126,234,1,0 // vbroadcastss 0x1ea7e(%rip),%ymm1 # 3a38c <_sk_srcover_bgra_8888_sse2_lowp+0x424> .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0 .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0 - .byte 196,226,125,24,13,185,230,1,0 // vbroadcastss 0x1e6b9(%rip),%ymm1 # 3997c <_sk_srcover_bgra_8888_sse2_lowp+0x428> + .byte 196,226,125,24,13,113,234,1,0 // vbroadcastss 0x1ea71(%rip),%ymm1 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0x428> .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0 .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0 - .byte 196,226,125,24,13,172,230,1,0 // vbroadcastss 0x1e6ac(%rip),%ymm1 # 39980 <_sk_srcover_bgra_8888_sse2_lowp+0x42c> + .byte 196,226,125,24,13,100,234,1,0 // vbroadcastss 0x1ea64(%rip),%ymm1 # 3a394 <_sk_srcover_bgra_8888_sse2_lowp+0x42c> .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 @@ -25768,13 +26095,13 @@ _sk_start_pipeline_sse41: .byte 73,137,246 // mov %rsi,%r14 .byte 72,137,77,192 // mov %rcx,-0x40(%rbp) .byte 72,57,203 // cmp %rcx,%rbx - .byte 15,131,131,0,0,0 // jae 1b39e <_sk_start_pipeline_sse41+0xb6> + .byte 15,131,131,0,0,0 // jae 1b9fa <_sk_start_pipeline_sse41+0xb6> .byte 72,139,69,208 // mov -0x30(%rbp),%rax .byte 72,141,64,4 // lea 0x4(%rax),%rax .byte 72,137,69,200 // mov %rax,-0x38(%rbp) .byte 76,57,125,200 // cmp %r15,-0x38(%rbp) .byte 72,139,85,208 // mov -0x30(%rbp),%rdx - .byte 119,59 // ja 1b36c <_sk_start_pipeline_sse41+0x84> + .byte 119,59 // ja 1b9c8 <_sk_start_pipeline_sse41+0x84> .byte 76,139,101,208 // mov -0x30(%rbp),%r12 .byte 49,255 // xor %edi,%edi .byte 15,87,192 // xorps %xmm0,%xmm0 @@ -25793,10 +26120,10 @@ _sk_start_pipeline_sse41: .byte 73,131,196,8 // add $0x8,%r12 .byte 77,57,252 // cmp %r15,%r12 .byte 73,137,212 // mov %rdx,%r12 - .byte 118,201 // jbe 1b335 <_sk_start_pipeline_sse41+0x4d> + .byte 118,201 // jbe 1b991 <_sk_start_pipeline_sse41+0x4d> .byte 76,137,255 // mov %r15,%rdi .byte 72,41,215 // sub %rdx,%rdi - .byte 116,33 // je 1b395 <_sk_start_pipeline_sse41+0xad> + .byte 116,33 // je 1b9f1 <_sk_start_pipeline_sse41+0xad> .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 @@ -25810,7 +26137,7 @@ _sk_start_pipeline_sse41: .byte 65,255,213 // callq *%r13 .byte 72,255,195 // inc %rbx .byte 72,59,93,192 // cmp -0x40(%rbp),%rbx - .byte 117,137 // jne 1b327 <_sk_start_pipeline_sse41+0x3f> + .byte 117,137 // jne 1b983 <_sk_start_pipeline_sse41+0x3f> .byte 72,131,196,24 // add $0x18,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 @@ -25839,9 +26166,9 @@ _sk_seed_shader_sse41: .byte 102,15,110,201 // movd %ecx,%xmm1 .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 - .byte 15,88,13,75,237,1,0 // addps 0x1ed4b(%rip),%xmm1 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,88,13,15,241,1,0 // addps 0x1f10f(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,21,82,237,1,0 // movaps 0x1ed52(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,21,22,241,1,0 // movaps 0x1f116(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,87,237 // xorps %xmm5,%xmm5 @@ -25856,18 +26183,18 @@ _sk_dither_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,68,15,110,194 // movd %edx,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 - .byte 102,68,15,254,5,251,236,1,0 // paddd 0x1ecfb(%rip),%xmm8 # 3a100 <_sk_srcover_bgra_8888_sse2_lowp+0xbac> + .byte 102,68,15,254,5,191,240,1,0 // paddd 0x1f0bf(%rip),%xmm8 # 3ab20 <_sk_srcover_bgra_8888_sse2_lowp+0xbb8> .byte 102,68,15,110,201 // movd %ecx,%xmm9 .byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9 .byte 102,69,15,239,200 // pxor %xmm8,%xmm9 - .byte 102,68,15,111,21,34,237,1,0 // movdqa 0x1ed22(%rip),%xmm10 # 3a140 <_sk_srcover_bgra_8888_sse2_lowp+0xbec> + .byte 102,68,15,111,21,230,240,1,0 // movdqa 0x1f0e6(%rip),%xmm10 # 3ab60 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8> .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11 .byte 102,69,15,219,218 // pand %xmm10,%xmm11 .byte 102,65,15,114,243,5 // pslld $0x5,%xmm11 .byte 102,69,15,219,208 // pand %xmm8,%xmm10 .byte 102,65,15,114,242,4 // pslld $0x4,%xmm10 - .byte 102,68,15,111,37,14,237,1,0 // movdqa 0x1ed0e(%rip),%xmm12 # 3a150 <_sk_srcover_bgra_8888_sse2_lowp+0xbfc> - .byte 102,68,15,111,45,21,237,1,0 // movdqa 0x1ed15(%rip),%xmm13 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,68,15,111,37,210,240,1,0 // movdqa 0x1f0d2(%rip),%xmm12 # 3ab70 <_sk_srcover_bgra_8888_sse2_lowp+0xc08> + .byte 102,68,15,111,45,217,240,1,0 // movdqa 0x1f0d9(%rip),%xmm13 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,69,15,111,241 // movdqa %xmm9,%xmm14 .byte 102,69,15,219,245 // pand %xmm13,%xmm14 .byte 102,65,15,114,246,2 // pslld $0x2,%xmm14 @@ -25883,8 +26210,8 @@ _sk_dither_sse41: .byte 102,69,15,235,198 // por %xmm14,%xmm8 .byte 102,69,15,235,193 // por %xmm9,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 - .byte 68,15,89,5,208,236,1,0 // mulps 0x1ecd0(%rip),%xmm8 # 3a170 <_sk_srcover_bgra_8888_sse2_lowp+0xc1c> - .byte 68,15,88,5,216,236,1,0 // addps 0x1ecd8(%rip),%xmm8 # 3a180 <_sk_srcover_bgra_8888_sse2_lowp+0xc2c> + .byte 68,15,89,5,148,240,1,0 // mulps 0x1f094(%rip),%xmm8 # 3ab90 <_sk_srcover_bgra_8888_sse2_lowp+0xc28> + .byte 68,15,88,5,156,240,1,0 // addps 0x1f09c(%rip),%xmm8 # 3aba0 <_sk_srcover_bgra_8888_sse2_lowp+0xc38> .byte 243,68,15,16,16 // movss (%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 69,15,89,208 // mulps %xmm8,%xmm10 @@ -25926,7 +26253,7 @@ HIDDEN _sk_black_color_sse41 FUNCTION(_sk_black_color_sse41) _sk_black_color_sse41: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,14,236,1,0 // movaps 0x1ec0e(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,29,210,239,1,0 // movaps 0x1efd2(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 @@ -25937,7 +26264,7 @@ HIDDEN _sk_white_color_sse41 FUNCTION(_sk_white_color_sse41) _sk_white_color_sse41: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,5,250,235,1,0 // movaps 0x1ebfa(%rip),%xmm0 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,5,190,239,1,0 // movaps 0x1efbe(%rip),%xmm0 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,40,216 // movaps %xmm0,%xmm3 @@ -25983,7 +26310,7 @@ HIDDEN _sk_srcatop_sse41 FUNCTION(_sk_srcatop_sse41) _sk_srcatop_sse41: .byte 15,89,199 // mulps %xmm7,%xmm0 - .byte 68,15,40,5,170,235,1,0 // movaps 0x1ebaa(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,110,239,1,0 // movaps 0x1ef6e(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,89,204 // mulps %xmm4,%xmm9 @@ -26008,7 +26335,7 @@ FUNCTION(_sk_dstatop_sse41) _sk_dstatop_sse41: .byte 68,15,40,195 // movaps %xmm3,%xmm8 .byte 68,15,89,196 // mulps %xmm4,%xmm8 - .byte 68,15,40,13,93,235,1,0 // movaps 0x1eb5d(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,13,33,239,1,0 // movaps 0x1ef21(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,92,207 // subps %xmm7,%xmm9 .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 65,15,88,192 // addps %xmm8,%xmm0 @@ -26055,7 +26382,7 @@ HIDDEN _sk_srcout_sse41 .globl _sk_srcout_sse41 FUNCTION(_sk_srcout_sse41) _sk_srcout_sse41: - .byte 68,15,40,5,241,234,1,0 // movaps 0x1eaf1(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,181,238,1,0 // movaps 0x1eeb5(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,92,199 // subps %xmm7,%xmm8 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,89,200 // mulps %xmm8,%xmm1 @@ -26068,7 +26395,7 @@ HIDDEN _sk_dstout_sse41 .globl _sk_dstout_sse41 FUNCTION(_sk_dstout_sse41) _sk_dstout_sse41: - .byte 68,15,40,5,209,234,1,0 // movaps 0x1ead1(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,149,238,1,0 // movaps 0x1ee95(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 @@ -26085,7 +26412,7 @@ HIDDEN _sk_srcover_sse41 .globl _sk_srcover_sse41 FUNCTION(_sk_srcover_sse41) _sk_srcover_sse41: - .byte 68,15,40,5,164,234,1,0 // movaps 0x1eaa4(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,104,238,1,0 // movaps 0x1ee68(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,89,204 // mulps %xmm4,%xmm9 @@ -26105,7 +26432,7 @@ HIDDEN _sk_dstover_sse41 .globl _sk_dstover_sse41 FUNCTION(_sk_dstover_sse41) _sk_dstover_sse41: - .byte 68,15,40,5,104,234,1,0 // movaps 0x1ea68(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,44,238,1,0 // movaps 0x1ee2c(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,92,199 // subps %xmm7,%xmm8 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 @@ -26133,7 +26460,7 @@ HIDDEN _sk_multiply_sse41 .globl _sk_multiply_sse41 FUNCTION(_sk_multiply_sse41) _sk_multiply_sse41: - .byte 68,15,40,5,44,234,1,0 // movaps 0x1ea2c(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,240,237,1,0 // movaps 0x1edf0(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,92,207 // subps %xmm7,%xmm9 .byte 69,15,40,209 // movaps %xmm9,%xmm10 @@ -26171,7 +26498,7 @@ HIDDEN _sk_plus__sse41 FUNCTION(_sk_plus__sse41) _sk_plus__sse41: .byte 15,88,196 // addps %xmm4,%xmm0 - .byte 68,15,40,5,173,233,1,0 // movaps 0x1e9ad(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,113,237,1,0 // movaps 0x1ed71(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 65,15,93,192 // minps %xmm8,%xmm0 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 65,15,93,200 // minps %xmm8,%xmm1 @@ -26213,7 +26540,7 @@ HIDDEN _sk_xor__sse41 FUNCTION(_sk_xor__sse41) _sk_xor__sse41: .byte 68,15,40,195 // movaps %xmm3,%xmm8 - .byte 15,40,29,57,233,1,0 // movaps 0x1e939(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,29,253,236,1,0 // movaps 0x1ecfd(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,92,207 // subps %xmm7,%xmm9 .byte 65,15,89,193 // mulps %xmm9,%xmm0 @@ -26261,7 +26588,7 @@ _sk_darken_sse41: .byte 68,15,89,206 // mulps %xmm6,%xmm9 .byte 65,15,95,209 // maxps %xmm9,%xmm2 .byte 68,15,92,194 // subps %xmm2,%xmm8 - .byte 15,40,21,148,232,1,0 // movaps 0x1e894(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,21,88,236,1,0 // movaps 0x1ec58(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,88,218 // addps %xmm2,%xmm3 @@ -26295,7 +26622,7 @@ _sk_lighten_sse41: .byte 68,15,89,206 // mulps %xmm6,%xmm9 .byte 65,15,93,209 // minps %xmm9,%xmm2 .byte 68,15,92,194 // subps %xmm2,%xmm8 - .byte 15,40,21,41,232,1,0 // movaps 0x1e829(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,21,237,235,1,0 // movaps 0x1ebed(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,88,218 // addps %xmm2,%xmm3 @@ -26332,7 +26659,7 @@ _sk_difference_sse41: .byte 65,15,93,209 // minps %xmm9,%xmm2 .byte 15,88,210 // addps %xmm2,%xmm2 .byte 68,15,92,194 // subps %xmm2,%xmm8 - .byte 15,40,21,179,231,1,0 // movaps 0x1e7b3(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,21,119,235,1,0 // movaps 0x1eb77(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,88,218 // addps %xmm2,%xmm3 @@ -26360,7 +26687,7 @@ _sk_exclusion_sse41: .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 15,88,210 // addps %xmm2,%xmm2 .byte 68,15,92,194 // subps %xmm2,%xmm8 - .byte 15,40,21,99,231,1,0 // movaps 0x1e763(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,21,39,235,1,0 // movaps 0x1eb27(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,88,218 // addps %xmm2,%xmm3 @@ -26372,7 +26699,7 @@ HIDDEN _sk_colorburn_sse41 .globl _sk_colorburn_sse41 FUNCTION(_sk_colorburn_sse41) _sk_colorburn_sse41: - .byte 68,15,40,29,74,231,1,0 // movaps 0x1e74a(%rip),%xmm11 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,29,14,235,1,0 // movaps 0x1eb0e(%rip),%xmm11 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,40,227 // movaps %xmm11,%xmm12 .byte 68,15,92,231 // subps %xmm7,%xmm12 .byte 69,15,40,204 // movaps %xmm12,%xmm9 @@ -26456,7 +26783,7 @@ HIDDEN _sk_colordodge_sse41 FUNCTION(_sk_colordodge_sse41) _sk_colordodge_sse41: .byte 68,15,40,192 // movaps %xmm0,%xmm8 - .byte 68,15,40,21,20,230,1,0 // movaps 0x1e614(%rip),%xmm10 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,21,216,233,1,0 // movaps 0x1e9d8(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,40,218 // movaps %xmm10,%xmm11 .byte 68,15,92,223 // subps %xmm7,%xmm11 .byte 69,15,40,227 // movaps %xmm11,%xmm12 @@ -26538,7 +26865,7 @@ _sk_hardlight_sse41: .byte 15,40,244 // movaps %xmm4,%xmm6 .byte 15,40,227 // movaps %xmm3,%xmm4 .byte 68,15,40,200 // movaps %xmm0,%xmm9 - .byte 68,15,40,21,223,228,1,0 // movaps 0x1e4df(%rip),%xmm10 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,21,163,232,1,0 // movaps 0x1e8a3(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 65,15,40,234 // movaps %xmm10,%xmm5 .byte 15,92,239 // subps %xmm7,%xmm5 .byte 15,40,197 // movaps %xmm5,%xmm0 @@ -26621,7 +26948,7 @@ FUNCTION(_sk_overlay_sse41) _sk_overlay_sse41: .byte 68,15,40,201 // movaps %xmm1,%xmm9 .byte 68,15,40,240 // movaps %xmm0,%xmm14 - .byte 68,15,40,21,180,227,1,0 // movaps 0x1e3b4(%rip),%xmm10 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,21,120,231,1,0 // movaps 0x1e778(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,40,218 // movaps %xmm10,%xmm11 .byte 68,15,92,223 // subps %xmm7,%xmm11 .byte 65,15,40,195 // movaps %xmm11,%xmm0 @@ -26706,7 +27033,7 @@ _sk_softlight_sse41: .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,94,199 // divps %xmm7,%xmm0 .byte 65,15,84,193 // andps %xmm9,%xmm0 - .byte 15,40,13,123,226,1,0 // movaps 0x1e27b(%rip),%xmm1 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,13,63,230,1,0 // movaps 0x1e63f(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,40,209 // movaps %xmm1,%xmm10 .byte 68,15,92,208 // subps %xmm0,%xmm10 .byte 68,15,40,240 // movaps %xmm0,%xmm14 @@ -26719,10 +27046,10 @@ _sk_softlight_sse41: .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,89,210 // mulps %xmm2,%xmm2 .byte 15,88,208 // addps %xmm0,%xmm2 - .byte 68,15,40,45,169,226,1,0 // movaps 0x1e2a9(%rip),%xmm13 # 3a190 <_sk_srcover_bgra_8888_sse2_lowp+0xc3c> + .byte 68,15,40,45,109,230,1,0 // movaps 0x1e66d(%rip),%xmm13 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48> .byte 69,15,88,245 // addps %xmm13,%xmm14 .byte 68,15,89,242 // mulps %xmm2,%xmm14 - .byte 68,15,40,37,169,226,1,0 // movaps 0x1e2a9(%rip),%xmm12 # 3a1a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc4c> + .byte 68,15,40,37,109,230,1,0 // movaps 0x1e66d(%rip),%xmm12 # 3abc0 <_sk_srcover_bgra_8888_sse2_lowp+0xc58> .byte 69,15,89,252 // mulps %xmm12,%xmm15 .byte 69,15,88,254 // addps %xmm14,%xmm15 .byte 15,40,198 // movaps %xmm6,%xmm0 @@ -26908,12 +27235,12 @@ _sk_hue_sse41: .byte 68,15,84,208 // andps %xmm0,%xmm10 .byte 15,84,200 // andps %xmm0,%xmm1 .byte 68,15,84,232 // andps %xmm0,%xmm13 - .byte 15,40,5,20,224,1,0 // movaps 0x1e014(%rip),%xmm0 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c> + .byte 15,40,5,216,227,1,0 // movaps 0x1e3d8(%rip),%xmm0 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68> .byte 68,15,89,224 // mulps %xmm0,%xmm12 - .byte 15,40,21,25,224,1,0 // movaps 0x1e019(%rip),%xmm2 # 3a1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc6c> + .byte 15,40,21,221,227,1,0 // movaps 0x1e3dd(%rip),%xmm2 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78> .byte 15,89,250 // mulps %xmm2,%xmm7 .byte 65,15,88,252 // addps %xmm12,%xmm7 - .byte 68,15,40,53,26,224,1,0 // movaps 0x1e01a(%rip),%xmm14 # 3a1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xc7c> + .byte 68,15,40,53,222,227,1,0 // movaps 0x1e3de(%rip),%xmm14 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88> .byte 68,15,40,252 // movaps %xmm4,%xmm15 .byte 69,15,89,254 // mulps %xmm14,%xmm15 .byte 68,15,88,255 // addps %xmm7,%xmm15 @@ -26996,7 +27323,7 @@ _sk_hue_sse41: .byte 65,15,88,214 // addps %xmm14,%xmm2 .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1 - .byte 68,15,40,13,46,222,1,0 // movaps 0x1de2e(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,13,242,225,1,0 // movaps 0x1e1f2(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 65,15,40,225 // movaps %xmm9,%xmm4 .byte 15,92,229 // subps %xmm5,%xmm4 .byte 15,40,68,36,200 // movaps -0x38(%rsp),%xmm0 @@ -27090,14 +27417,14 @@ _sk_saturation_sse41: .byte 68,15,84,215 // andps %xmm7,%xmm10 .byte 68,15,84,223 // andps %xmm7,%xmm11 .byte 68,15,84,199 // andps %xmm7,%xmm8 - .byte 15,40,21,88,221,1,0 // movaps 0x1dd58(%rip),%xmm2 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c> + .byte 15,40,21,28,225,1,0 // movaps 0x1e11c(%rip),%xmm2 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68> .byte 15,40,221 // movaps %xmm5,%xmm3 .byte 15,89,218 // mulps %xmm2,%xmm3 - .byte 15,40,13,91,221,1,0 // movaps 0x1dd5b(%rip),%xmm1 # 3a1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc6c> + .byte 15,40,13,31,225,1,0 // movaps 0x1e11f(%rip),%xmm1 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78> .byte 15,40,254 // movaps %xmm6,%xmm7 .byte 15,89,249 // mulps %xmm1,%xmm7 .byte 15,88,251 // addps %xmm3,%xmm7 - .byte 68,15,40,45,90,221,1,0 // movaps 0x1dd5a(%rip),%xmm13 # 3a1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xc7c> + .byte 68,15,40,45,30,225,1,0 // movaps 0x1e11e(%rip),%xmm13 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88> .byte 69,15,89,245 // mulps %xmm13,%xmm14 .byte 68,15,88,247 // addps %xmm7,%xmm14 .byte 65,15,40,218 // movaps %xmm10,%xmm3 @@ -27178,7 +27505,7 @@ _sk_saturation_sse41: .byte 65,15,88,253 // addps %xmm13,%xmm7 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 102,68,15,56,20,223 // blendvps %xmm0,%xmm7,%xmm11 - .byte 68,15,40,13,112,219,1,0 // movaps 0x1db70(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,13,52,223,1,0 // movaps 0x1df34(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 68,15,92,204 // subps %xmm4,%xmm9 .byte 15,40,124,36,168 // movaps -0x58(%rsp),%xmm7 @@ -27233,14 +27560,14 @@ _sk_color_sse41: .byte 15,40,231 // movaps %xmm7,%xmm4 .byte 68,15,89,244 // mulps %xmm4,%xmm14 .byte 15,89,204 // mulps %xmm4,%xmm1 - .byte 68,15,40,13,43,219,1,0 // movaps 0x1db2b(%rip),%xmm9 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c> + .byte 68,15,40,13,239,222,1,0 // movaps 0x1deef(%rip),%xmm9 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68> .byte 65,15,40,250 // movaps %xmm10,%xmm7 .byte 65,15,89,249 // mulps %xmm9,%xmm7 - .byte 68,15,40,21,43,219,1,0 // movaps 0x1db2b(%rip),%xmm10 # 3a1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc6c> + .byte 68,15,40,21,239,222,1,0 // movaps 0x1deef(%rip),%xmm10 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78> .byte 65,15,40,219 // movaps %xmm11,%xmm3 .byte 65,15,89,218 // mulps %xmm10,%xmm3 .byte 15,88,223 // addps %xmm7,%xmm3 - .byte 68,15,40,29,40,219,1,0 // movaps 0x1db28(%rip),%xmm11 # 3a1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xc7c> + .byte 68,15,40,29,236,222,1,0 // movaps 0x1deec(%rip),%xmm11 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88> .byte 69,15,40,236 // movaps %xmm12,%xmm13 .byte 69,15,89,235 // mulps %xmm11,%xmm13 .byte 68,15,88,235 // addps %xmm3,%xmm13 @@ -27325,7 +27652,7 @@ _sk_color_sse41: .byte 65,15,88,251 // addps %xmm11,%xmm7 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 102,15,56,20,207 // blendvps %xmm0,%xmm7,%xmm1 - .byte 68,15,40,13,52,217,1,0 // movaps 0x1d934(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,13,248,220,1,0 // movaps 0x1dcf8(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 15,92,196 // subps %xmm4,%xmm0 .byte 68,15,89,192 // mulps %xmm0,%xmm8 @@ -27377,13 +27704,13 @@ _sk_luminosity_sse41: .byte 69,15,89,216 // mulps %xmm8,%xmm11 .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,89,205 // mulps %xmm5,%xmm9 - .byte 68,15,40,5,252,216,1,0 // movaps 0x1d8fc(%rip),%xmm8 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c> + .byte 68,15,40,5,192,220,1,0 // movaps 0x1dcc0(%rip),%xmm8 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68> .byte 65,15,89,192 // mulps %xmm8,%xmm0 - .byte 68,15,40,21,0,217,1,0 // movaps 0x1d900(%rip),%xmm10 # 3a1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc6c> + .byte 68,15,40,21,196,220,1,0 // movaps 0x1dcc4(%rip),%xmm10 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78> .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 65,15,89,234 // mulps %xmm10,%xmm5 .byte 15,88,232 // addps %xmm0,%xmm5 - .byte 68,15,40,37,254,216,1,0 // movaps 0x1d8fe(%rip),%xmm12 # 3a1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xc7c> + .byte 68,15,40,37,194,220,1,0 // movaps 0x1dcc2(%rip),%xmm12 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88> .byte 68,15,40,242 // movaps %xmm2,%xmm14 .byte 69,15,89,244 // mulps %xmm12,%xmm14 .byte 68,15,88,245 // addps %xmm5,%xmm14 @@ -27468,7 +27795,7 @@ _sk_luminosity_sse41: .byte 65,15,88,244 // addps %xmm12,%xmm6 .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 102,68,15,56,20,206 // blendvps %xmm0,%xmm6,%xmm9 - .byte 15,40,5,4,215,1,0 // movaps 0x1d704(%rip),%xmm0 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,5,200,218,1,0 // movaps 0x1dac8(%rip),%xmm0 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,92,215 // subps %xmm7,%xmm2 .byte 15,89,226 // mulps %xmm2,%xmm4 @@ -27505,6 +27832,7 @@ HIDDEN _sk_srcover_rgba_8888_sse41 .globl _sk_srcover_rgba_8888_sse41 FUNCTION(_sk_srcover_rgba_8888_sse41) _sk_srcover_rgba_8888_sse41: + .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,72,8 // movslq 0x8(%rax),%r9 .byte 76,99,193 // movslq %ecx,%r8 @@ -27513,90 +27841,102 @@ _sk_srcover_rgba_8888_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,219,0,0,0 // jne 1cb94 <_sk_srcover_rgba_8888_sse41+0xfb> - .byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7 + .byte 15,133,0,1,0,0 // jne 1d21a <_sk_srcover_rgba_8888_sse41+0x125> + .byte 243,65,15,111,4,128 // movdqu (%r8,%rax,4),%xmm0 .byte 72,133,255 // test %rdi,%rdi - .byte 102,15,111,37,22,215,1,0 // movdqa 0x1d716(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> - .byte 102,15,219,231 // pand %xmm7,%xmm4 + .byte 102,15,111,37,213,218,1,0 // movdqa 0x1dad5(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> + .byte 102,15,219,224 // pand %xmm0,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 102,15,111,239 // movdqa %xmm7,%xmm5 - .byte 102,15,56,0,45,18,215,1,0 // pshufb 0x1d712(%rip),%xmm5 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc9c> + .byte 102,15,111,232 // movdqa %xmm0,%xmm5 + .byte 102,15,56,0,45,209,218,1,0 // pshufb 0x1dad1(%rip),%xmm5 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8> .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 - .byte 102,15,111,247 // movdqa %xmm7,%xmm6 - .byte 102,15,56,0,53,18,215,1,0 // pshufb 0x1d712(%rip),%xmm6 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0xcac> + .byte 102,15,111,240 // movdqa %xmm0,%xmm6 + .byte 102,15,56,0,53,209,218,1,0 // pshufb 0x1dad1(%rip),%xmm6 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8> + .byte 69,15,87,219 // xorps %xmm11,%xmm11 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 - .byte 102,15,114,215,24 // psrld $0x18,%xmm7 - .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7 - .byte 68,15,40,5,47,214,1,0 // movaps 0x1d62f(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 102,15,114,208,24 // psrld $0x18,%xmm0 + .byte 15,91,248 // cvtdq2ps %xmm0,%xmm7 + .byte 68,15,40,5,234,217,1,0 // movaps 0x1d9ea(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,92,195 // subps %xmm3,%xmm8 - .byte 68,15,40,37,3,215,1,0 // movaps 0x1d703(%rip),%xmm12 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> - .byte 65,15,89,196 // mulps %xmm12,%xmm0 - .byte 69,15,40,200 // movaps %xmm8,%xmm9 - .byte 68,15,89,204 // mulps %xmm4,%xmm9 - .byte 68,15,88,200 // addps %xmm0,%xmm9 + .byte 68,15,40,37,190,218,1,0 // movaps 0x1dabe(%rip),%xmm12 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> + .byte 69,15,89,204 // mulps %xmm12,%xmm9 + .byte 65,15,40,192 // movaps %xmm8,%xmm0 + .byte 15,89,196 // mulps %xmm4,%xmm0 + .byte 65,15,88,193 // addps %xmm9,%xmm0 .byte 65,15,89,204 // mulps %xmm12,%xmm1 - .byte 69,15,40,208 // movaps %xmm8,%xmm10 - .byte 68,15,89,213 // mulps %xmm5,%xmm10 - .byte 68,15,88,209 // addps %xmm1,%xmm10 + .byte 69,15,40,200 // movaps %xmm8,%xmm9 + .byte 68,15,89,205 // mulps %xmm5,%xmm9 + .byte 68,15,88,201 // addps %xmm1,%xmm9 .byte 65,15,89,212 // mulps %xmm12,%xmm2 - .byte 69,15,40,216 // movaps %xmm8,%xmm11 - .byte 68,15,89,222 // mulps %xmm6,%xmm11 - .byte 68,15,88,218 // addps %xmm2,%xmm11 + .byte 69,15,40,208 // movaps %xmm8,%xmm10 + .byte 68,15,89,214 // mulps %xmm6,%xmm10 + .byte 68,15,88,210 // addps %xmm2,%xmm10 .byte 65,15,89,220 // mulps %xmm12,%xmm3 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 68,15,88,195 // addps %xmm3,%xmm8 - .byte 102,65,15,91,193 // cvtps2dq %xmm9,%xmm0 - .byte 102,65,15,91,202 // cvtps2dq %xmm10,%xmm1 - .byte 102,15,114,241,8 // pslld $0x8,%xmm1 - .byte 102,15,235,200 // por %xmm0,%xmm1 - .byte 102,65,15,91,211 // cvtps2dq %xmm11,%xmm2 - .byte 102,15,114,242,16 // pslld $0x10,%xmm2 - .byte 102,65,15,91,192 // cvtps2dq %xmm8,%xmm0 - .byte 102,15,114,240,24 // pslld $0x18,%xmm0 - .byte 102,15,235,194 // por %xmm2,%xmm0 - .byte 102,15,235,193 // por %xmm1,%xmm0 - .byte 117,88 // jne 1cbd2 <_sk_srcover_rgba_8888_sse41+0x139> - .byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4) + .byte 15,87,201 // xorps %xmm1,%xmm1 + .byte 15,95,200 // maxps %xmm0,%xmm1 + .byte 65,15,93,204 // minps %xmm12,%xmm1 + .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 + .byte 15,87,210 // xorps %xmm2,%xmm2 + .byte 65,15,95,209 // maxps %xmm9,%xmm2 + .byte 65,15,93,212 // minps %xmm12,%xmm2 + .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2 + .byte 102,15,114,242,8 // pslld $0x8,%xmm2 + .byte 102,15,235,209 // por %xmm1,%xmm2 + .byte 102,15,87,201 // xorpd %xmm1,%xmm1 + .byte 65,15,95,202 // maxps %xmm10,%xmm1 + .byte 65,15,93,204 // minps %xmm12,%xmm1 + .byte 102,15,91,217 // cvtps2dq %xmm1,%xmm3 + .byte 102,15,114,243,16 // pslld $0x10,%xmm3 + .byte 69,15,95,216 // maxps %xmm8,%xmm11 + .byte 69,15,93,220 // minps %xmm12,%xmm11 + .byte 102,65,15,91,203 // cvtps2dq %xmm11,%xmm1 + .byte 102,15,114,241,24 // pslld $0x18,%xmm1 + .byte 102,15,235,203 // por %xmm3,%xmm1 + .byte 102,15,235,202 // por %xmm2,%xmm1 + .byte 117,84 // jne 1d258 <_sk_srcover_rgba_8888_sse41+0x163> + .byte 243,65,15,127,12,128 // movdqu %xmm1,(%r8,%rax,4) .byte 72,173 // lods %ds:(%rsi),%rax - .byte 65,15,40,193 // movaps %xmm9,%xmm0 - .byte 65,15,40,202 // movaps %xmm10,%xmm1 - .byte 65,15,40,211 // movaps %xmm11,%xmm2 + .byte 65,15,40,201 // movaps %xmm9,%xmm1 + .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 65,15,40,216 // movaps %xmm8,%xmm3 .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,91 // je 1cbfc <_sk_srcover_rgba_8888_sse41+0x163> - .byte 102,15,239,255 // pxor %xmm7,%xmm7 + .byte 116,91 // je 1d282 <_sk_srcover_rgba_8888_sse41+0x18d> + .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,22 // je 1cbc1 <_sk_srcover_rgba_8888_sse41+0x128> + .byte 116,22 // je 1d247 <_sk_srcover_rgba_8888_sse41+0x152> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 15,133,10,255,255,255 // jne 1cabf <_sk_srcover_rgba_8888_sse41+0x26> - .byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4 - .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7 + .byte 15,133,229,254,255,255 // jne 1d120 <_sk_srcover_rgba_8888_sse41+0x2b> + .byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0 + .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 .byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4 - .byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7 - .byte 233,237,254,255,255 // jmpq 1cabf <_sk_srcover_rgba_8888_sse41+0x26> + .byte 102,15,58,14,196,15 // pblendw $0xf,%xmm4,%xmm0 + .byte 233,200,254,255,255 // jmpq 1d120 <_sk_srcover_rgba_8888_sse41+0x2b> .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,40 // je 1cc07 <_sk_srcover_rgba_8888_sse41+0x16e> + .byte 116,40 // je 1d28d <_sk_srcover_rgba_8888_sse41+0x198> .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,15 // je 1cbf4 <_sk_srcover_rgba_8888_sse41+0x15b> + .byte 116,15 // je 1d27a <_sk_srcover_rgba_8888_sse41+0x185> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,149 // jne 1cb80 <_sk_srcover_rgba_8888_sse41+0xe7> - .byte 102,65,15,58,22,68,128,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rax,4) - .byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4) - .byte 235,132 // jmp 1cb80 <_sk_srcover_rgba_8888_sse41+0xe7> - .byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7 - .byte 233,184,254,255,255 // jmpq 1cabf <_sk_srcover_rgba_8888_sse41+0x26> - .byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4) - .byte 233,110,255,255,255 // jmpq 1cb80 <_sk_srcover_rgba_8888_sse41+0xe7> + .byte 117,153 // jne 1d20a <_sk_srcover_rgba_8888_sse41+0x115> + .byte 102,65,15,58,22,76,128,8,2 // pextrd $0x2,%xmm1,0x8(%r8,%rax,4) + .byte 102,65,15,214,12,128 // movq %xmm1,(%r8,%rax,4) + .byte 235,136 // jmp 1d20a <_sk_srcover_rgba_8888_sse41+0x115> + .byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0 + .byte 233,147,254,255,255 // jmpq 1d120 <_sk_srcover_rgba_8888_sse41+0x2b> + .byte 102,65,15,126,12,128 // movd %xmm1,(%r8,%rax,4) + .byte 233,114,255,255,255 // jmpq 1d20a <_sk_srcover_rgba_8888_sse41+0x115> HIDDEN _sk_srcover_bgra_8888_sse41 .globl _sk_srcover_bgra_8888_sse41 FUNCTION(_sk_srcover_bgra_8888_sse41) _sk_srcover_bgra_8888_sse41: + .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,72,8 // movslq 0x8(%rax),%r9 .byte 76,99,193 // movslq %ecx,%r8 @@ -27605,85 +27945,96 @@ _sk_srcover_bgra_8888_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,219,0,0,0 // jne 1cd0d <_sk_srcover_bgra_8888_sse41+0xfb> - .byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7 + .byte 15,133,0,1,0,0 // jne 1d3bd <_sk_srcover_bgra_8888_sse41+0x125> + .byte 243,65,15,111,4,128 // movdqu (%r8,%rax,4),%xmm0 .byte 72,133,255 // test %rdi,%rdi - .byte 102,15,111,37,157,213,1,0 // movdqa 0x1d59d(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> - .byte 102,15,219,231 // pand %xmm7,%xmm4 + .byte 102,15,111,37,50,217,1,0 // movdqa 0x1d932(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> + .byte 102,15,219,224 // pand %xmm0,%xmm4 .byte 15,91,244 // cvtdq2ps %xmm4,%xmm6 - .byte 102,15,111,231 // movdqa %xmm7,%xmm4 - .byte 102,15,56,0,37,153,213,1,0 // pshufb 0x1d599(%rip),%xmm4 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc9c> + .byte 102,15,111,224 // movdqa %xmm0,%xmm4 + .byte 102,15,56,0,37,46,217,1,0 // pshufb 0x1d92e(%rip),%xmm4 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8> .byte 15,91,236 // cvtdq2ps %xmm4,%xmm5 - .byte 102,15,111,231 // movdqa %xmm7,%xmm4 - .byte 102,15,56,0,37,153,213,1,0 // pshufb 0x1d599(%rip),%xmm4 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0xcac> + .byte 102,15,111,224 // movdqa %xmm0,%xmm4 + .byte 102,15,56,0,37,46,217,1,0 // pshufb 0x1d92e(%rip),%xmm4 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8> + .byte 69,15,87,219 // xorps %xmm11,%xmm11 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 102,15,114,215,24 // psrld $0x18,%xmm7 - .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7 - .byte 68,15,40,5,182,212,1,0 // movaps 0x1d4b6(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 102,15,114,208,24 // psrld $0x18,%xmm0 + .byte 15,91,248 // cvtdq2ps %xmm0,%xmm7 + .byte 68,15,40,5,71,216,1,0 // movaps 0x1d847(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,92,195 // subps %xmm3,%xmm8 - .byte 68,15,40,37,138,213,1,0 // movaps 0x1d58a(%rip),%xmm12 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> - .byte 65,15,89,196 // mulps %xmm12,%xmm0 - .byte 69,15,40,200 // movaps %xmm8,%xmm9 - .byte 68,15,89,204 // mulps %xmm4,%xmm9 - .byte 68,15,88,200 // addps %xmm0,%xmm9 + .byte 68,15,40,37,27,217,1,0 // movaps 0x1d91b(%rip),%xmm12 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> + .byte 69,15,89,204 // mulps %xmm12,%xmm9 + .byte 65,15,40,192 // movaps %xmm8,%xmm0 + .byte 15,89,196 // mulps %xmm4,%xmm0 + .byte 65,15,88,193 // addps %xmm9,%xmm0 .byte 65,15,89,204 // mulps %xmm12,%xmm1 - .byte 69,15,40,208 // movaps %xmm8,%xmm10 - .byte 68,15,89,213 // mulps %xmm5,%xmm10 - .byte 68,15,88,209 // addps %xmm1,%xmm10 + .byte 69,15,40,200 // movaps %xmm8,%xmm9 + .byte 68,15,89,205 // mulps %xmm5,%xmm9 + .byte 68,15,88,201 // addps %xmm1,%xmm9 .byte 65,15,89,212 // mulps %xmm12,%xmm2 - .byte 69,15,40,216 // movaps %xmm8,%xmm11 - .byte 68,15,89,222 // mulps %xmm6,%xmm11 - .byte 68,15,88,218 // addps %xmm2,%xmm11 + .byte 69,15,40,208 // movaps %xmm8,%xmm10 + .byte 68,15,89,214 // mulps %xmm6,%xmm10 + .byte 68,15,88,210 // addps %xmm2,%xmm10 .byte 65,15,89,220 // mulps %xmm12,%xmm3 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 68,15,88,195 // addps %xmm3,%xmm8 - .byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0 - .byte 102,65,15,91,202 // cvtps2dq %xmm10,%xmm1 - .byte 102,15,114,241,8 // pslld $0x8,%xmm1 - .byte 102,15,235,200 // por %xmm0,%xmm1 - .byte 102,65,15,91,209 // cvtps2dq %xmm9,%xmm2 - .byte 102,15,114,242,16 // pslld $0x10,%xmm2 - .byte 102,65,15,91,192 // cvtps2dq %xmm8,%xmm0 - .byte 102,15,114,240,24 // pslld $0x18,%xmm0 - .byte 102,15,235,194 // por %xmm2,%xmm0 - .byte 102,15,235,193 // por %xmm1,%xmm0 - .byte 117,88 // jne 1cd4b <_sk_srcover_bgra_8888_sse41+0x139> - .byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4) + .byte 15,87,201 // xorps %xmm1,%xmm1 + .byte 65,15,95,202 // maxps %xmm10,%xmm1 + .byte 65,15,93,204 // minps %xmm12,%xmm1 + .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 + .byte 15,87,210 // xorps %xmm2,%xmm2 + .byte 65,15,95,209 // maxps %xmm9,%xmm2 + .byte 65,15,93,212 // minps %xmm12,%xmm2 + .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2 + .byte 102,15,114,242,8 // pslld $0x8,%xmm2 + .byte 102,15,235,209 // por %xmm1,%xmm2 + .byte 102,15,87,201 // xorpd %xmm1,%xmm1 + .byte 15,95,200 // maxps %xmm0,%xmm1 + .byte 65,15,93,204 // minps %xmm12,%xmm1 + .byte 102,15,91,217 // cvtps2dq %xmm1,%xmm3 + .byte 102,15,114,243,16 // pslld $0x10,%xmm3 + .byte 69,15,95,216 // maxps %xmm8,%xmm11 + .byte 69,15,93,220 // minps %xmm12,%xmm11 + .byte 102,65,15,91,203 // cvtps2dq %xmm11,%xmm1 + .byte 102,15,114,241,24 // pslld $0x18,%xmm1 + .byte 102,15,235,203 // por %xmm3,%xmm1 + .byte 102,15,235,202 // por %xmm2,%xmm1 + .byte 117,84 // jne 1d3fb <_sk_srcover_bgra_8888_sse41+0x163> + .byte 243,65,15,127,12,128 // movdqu %xmm1,(%r8,%rax,4) .byte 72,173 // lods %ds:(%rsi),%rax - .byte 65,15,40,193 // movaps %xmm9,%xmm0 - .byte 65,15,40,202 // movaps %xmm10,%xmm1 - .byte 65,15,40,211 // movaps %xmm11,%xmm2 + .byte 65,15,40,201 // movaps %xmm9,%xmm1 + .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 65,15,40,216 // movaps %xmm8,%xmm3 .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,91 // je 1cd75 <_sk_srcover_bgra_8888_sse41+0x163> - .byte 102,15,239,255 // pxor %xmm7,%xmm7 + .byte 116,91 // je 1d425 <_sk_srcover_bgra_8888_sse41+0x18d> + .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,22 // je 1cd3a <_sk_srcover_bgra_8888_sse41+0x128> + .byte 116,22 // je 1d3ea <_sk_srcover_bgra_8888_sse41+0x152> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 15,133,10,255,255,255 // jne 1cc38 <_sk_srcover_bgra_8888_sse41+0x26> - .byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4 - .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7 + .byte 15,133,229,254,255,255 // jne 1d2c3 <_sk_srcover_bgra_8888_sse41+0x2b> + .byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0 + .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 .byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4 - .byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7 - .byte 233,237,254,255,255 // jmpq 1cc38 <_sk_srcover_bgra_8888_sse41+0x26> + .byte 102,15,58,14,196,15 // pblendw $0xf,%xmm4,%xmm0 + .byte 233,200,254,255,255 // jmpq 1d2c3 <_sk_srcover_bgra_8888_sse41+0x2b> .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,40 // je 1cd80 <_sk_srcover_bgra_8888_sse41+0x16e> + .byte 116,40 // je 1d430 <_sk_srcover_bgra_8888_sse41+0x198> .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,15 // je 1cd6d <_sk_srcover_bgra_8888_sse41+0x15b> + .byte 116,15 // je 1d41d <_sk_srcover_bgra_8888_sse41+0x185> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,149 // jne 1ccf9 <_sk_srcover_bgra_8888_sse41+0xe7> - .byte 102,65,15,58,22,68,128,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rax,4) - .byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4) - .byte 235,132 // jmp 1ccf9 <_sk_srcover_bgra_8888_sse41+0xe7> - .byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7 - .byte 233,184,254,255,255 // jmpq 1cc38 <_sk_srcover_bgra_8888_sse41+0x26> - .byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4) - .byte 233,110,255,255,255 // jmpq 1ccf9 <_sk_srcover_bgra_8888_sse41+0xe7> + .byte 117,153 // jne 1d3ad <_sk_srcover_bgra_8888_sse41+0x115> + .byte 102,65,15,58,22,76,128,8,2 // pextrd $0x2,%xmm1,0x8(%r8,%rax,4) + .byte 102,65,15,214,12,128 // movq %xmm1,(%r8,%rax,4) + .byte 235,136 // jmp 1d3ad <_sk_srcover_bgra_8888_sse41+0x115> + .byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0 + .byte 233,147,254,255,255 // jmpq 1d2c3 <_sk_srcover_bgra_8888_sse41+0x2b> + .byte 102,65,15,126,12,128 // movd %xmm1,(%r8,%rax,4) + .byte 233,114,255,255,255 // jmpq 1d3ad <_sk_srcover_bgra_8888_sse41+0x115> HIDDEN _sk_clamp_0_sse41 .globl _sk_clamp_0_sse41 @@ -27701,7 +28052,7 @@ HIDDEN _sk_clamp_1_sse41 .globl _sk_clamp_1_sse41 FUNCTION(_sk_clamp_1_sse41) _sk_clamp_1_sse41: - .byte 68,15,40,5,133,211,1,0 // movaps 0x1d385(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,245,214,1,0 // movaps 0x1d6f5(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 65,15,93,192 // minps %xmm8,%xmm0 .byte 65,15,93,200 // minps %xmm8,%xmm1 .byte 65,15,93,208 // minps %xmm8,%xmm2 @@ -27713,7 +28064,7 @@ HIDDEN _sk_clamp_a_sse41 .globl _sk_clamp_a_sse41 FUNCTION(_sk_clamp_a_sse41) _sk_clamp_a_sse41: - .byte 15,93,29,106,211,1,0 // minps 0x1d36a(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,93,29,218,214,1,0 // minps 0x1d6da(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,93,195 // minps %xmm3,%xmm0 .byte 15,93,203 // minps %xmm3,%xmm1 .byte 15,93,211 // minps %xmm3,%xmm2 @@ -27724,7 +28075,7 @@ HIDDEN _sk_clamp_a_dst_sse41 .globl _sk_clamp_a_dst_sse41 FUNCTION(_sk_clamp_a_dst_sse41) _sk_clamp_a_dst_sse41: - .byte 15,93,61,86,211,1,0 // minps 0x1d356(%rip),%xmm7 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,93,61,198,214,1,0 // minps 0x1d6c6(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,93,231 // minps %xmm7,%xmm4 .byte 15,93,239 // minps %xmm7,%xmm5 .byte 15,93,247 // minps %xmm7,%xmm6 @@ -27759,7 +28110,7 @@ HIDDEN _sk_invert_sse41 .globl _sk_invert_sse41 FUNCTION(_sk_invert_sse41) _sk_invert_sse41: - .byte 68,15,40,5,18,211,1,0 // movaps 0x1d312(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,130,214,1,0 // movaps 0x1d682(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,92,200 // subps %xmm0,%xmm9 .byte 69,15,40,208 // movaps %xmm8,%xmm10 @@ -27820,10 +28171,10 @@ HIDDEN _sk_unpremul_sse41 .globl _sk_unpremul_sse41 FUNCTION(_sk_unpremul_sse41) _sk_unpremul_sse41: - .byte 68,15,40,5,160,210,1,0 // movaps 0x1d2a0(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,16,214,1,0 // movaps 0x1d610(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,94,195 // divps %xmm3,%xmm8 .byte 69,15,40,200 // movaps %xmm8,%xmm9 - .byte 68,15,194,13,127,211,1,0,1 // cmpltps 0x1d37f(%rip),%xmm9 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0xccc> + .byte 68,15,194,13,239,214,1,0,1 // cmpltps 0x1d6ef(%rip),%xmm9 # 3ac40 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8> .byte 69,15,84,200 // andps %xmm8,%xmm9 .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 65,15,89,201 // mulps %xmm9,%xmm1 @@ -27835,20 +28186,20 @@ HIDDEN _sk_from_srgb_sse41 .globl _sk_from_srgb_sse41 FUNCTION(_sk_from_srgb_sse41) _sk_from_srgb_sse41: - .byte 68,15,40,29,115,211,1,0 // movaps 0x1d373(%rip),%xmm11 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0xcdc> + .byte 68,15,40,29,227,214,1,0 // movaps 0x1d6e3(%rip),%xmm11 # 3ac50 <_sk_srcover_bgra_8888_sse2_lowp+0xce8> .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 68,15,40,208 // movaps %xmm0,%xmm10 .byte 69,15,89,210 // mulps %xmm10,%xmm10 - .byte 68,15,40,37,219,210,1,0 // movaps 0x1d2db(%rip),%xmm12 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c> + .byte 68,15,40,37,75,214,1,0 // movaps 0x1d64b(%rip),%xmm12 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68> .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 69,15,89,196 // mulps %xmm12,%xmm8 - .byte 68,15,40,45,91,211,1,0 // movaps 0x1d35b(%rip),%xmm13 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0xcec> + .byte 68,15,40,45,203,214,1,0 // movaps 0x1d6cb(%rip),%xmm13 # 3ac60 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8> .byte 69,15,88,197 // addps %xmm13,%xmm8 .byte 69,15,89,194 // mulps %xmm10,%xmm8 - .byte 68,15,40,53,91,211,1,0 // movaps 0x1d35b(%rip),%xmm14 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0xcfc> + .byte 68,15,40,53,203,214,1,0 // movaps 0x1d6cb(%rip),%xmm14 # 3ac70 <_sk_srcover_bgra_8888_sse2_lowp+0xd08> .byte 69,15,88,198 // addps %xmm14,%xmm8 - .byte 68,15,40,61,95,211,1,0 // movaps 0x1d35f(%rip),%xmm15 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0xd0c> + .byte 68,15,40,61,207,214,1,0 // movaps 0x1d6cf(%rip),%xmm15 # 3ac80 <_sk_srcover_bgra_8888_sse2_lowp+0xd18> .byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0 .byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8 .byte 68,15,40,209 // movaps %xmm1,%xmm10 @@ -27885,19 +28236,19 @@ FUNCTION(_sk_from_srgb_dst_sse41) _sk_from_srgb_dst_sse41: .byte 68,15,40,204 // movaps %xmm4,%xmm9 .byte 68,15,40,192 // movaps %xmm0,%xmm8 - .byte 68,15,40,29,170,210,1,0 // movaps 0x1d2aa(%rip),%xmm11 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0xcdc> + .byte 68,15,40,29,26,214,1,0 // movaps 0x1d61a(%rip),%xmm11 # 3ac50 <_sk_srcover_bgra_8888_sse2_lowp+0xce8> .byte 69,15,40,209 // movaps %xmm9,%xmm10 .byte 69,15,89,211 // mulps %xmm11,%xmm10 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 - .byte 68,15,40,37,19,210,1,0 // movaps 0x1d213(%rip),%xmm12 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c> + .byte 68,15,40,37,131,213,1,0 // movaps 0x1d583(%rip),%xmm12 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68> .byte 65,15,89,228 // mulps %xmm12,%xmm4 - .byte 68,15,40,45,151,210,1,0 // movaps 0x1d297(%rip),%xmm13 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0xcec> + .byte 68,15,40,45,7,214,1,0 // movaps 0x1d607(%rip),%xmm13 # 3ac60 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8> .byte 65,15,88,229 // addps %xmm13,%xmm4 .byte 15,89,224 // mulps %xmm0,%xmm4 - .byte 68,15,40,53,152,210,1,0 // movaps 0x1d298(%rip),%xmm14 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0xcfc> + .byte 68,15,40,53,8,214,1,0 // movaps 0x1d608(%rip),%xmm14 # 3ac70 <_sk_srcover_bgra_8888_sse2_lowp+0xd08> .byte 65,15,88,230 // addps %xmm14,%xmm4 - .byte 68,15,40,61,156,210,1,0 // movaps 0x1d29c(%rip),%xmm15 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0xd0c> + .byte 68,15,40,61,12,214,1,0 // movaps 0x1d60c(%rip),%xmm15 # 3ac80 <_sk_srcover_bgra_8888_sse2_lowp+0xd18> .byte 69,15,194,207,1 // cmpltps %xmm15,%xmm9 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 102,65,15,56,20,226 // blendvps %xmm0,%xmm10,%xmm4 @@ -27941,22 +28292,22 @@ _sk_to_srgb_sse41: .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,40,209 // movaps %xmm1,%xmm2 .byte 68,15,82,192 // rsqrtps %xmm0,%xmm8 - .byte 68,15,40,29,16,210,1,0 // movaps 0x1d210(%rip),%xmm11 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0xd1c> + .byte 68,15,40,29,128,213,1,0 // movaps 0x1d580(%rip),%xmm11 # 3ac90 <_sk_srcover_bgra_8888_sse2_lowp+0xd28> .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 69,15,89,203 // mulps %xmm11,%xmm9 - .byte 68,15,40,37,16,210,1,0 // movaps 0x1d210(%rip),%xmm12 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0xd2c> + .byte 68,15,40,37,128,213,1,0 // movaps 0x1d580(%rip),%xmm12 # 3aca0 <_sk_srcover_bgra_8888_sse2_lowp+0xd38> .byte 69,15,40,248 // movaps %xmm8,%xmm15 .byte 69,15,89,252 // mulps %xmm12,%xmm15 - .byte 68,15,40,21,16,210,1,0 // movaps 0x1d210(%rip),%xmm10 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0xd3c> + .byte 68,15,40,21,128,213,1,0 // movaps 0x1d580(%rip),%xmm10 # 3acb0 <_sk_srcover_bgra_8888_sse2_lowp+0xd48> .byte 69,15,88,250 // addps %xmm10,%xmm15 .byte 69,15,89,248 // mulps %xmm8,%xmm15 - .byte 68,15,40,45,16,210,1,0 // movaps 0x1d210(%rip),%xmm13 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0xd4c> + .byte 68,15,40,45,128,213,1,0 // movaps 0x1d580(%rip),%xmm13 # 3acc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd58> .byte 69,15,88,253 // addps %xmm13,%xmm15 - .byte 68,15,40,53,20,210,1,0 // movaps 0x1d214(%rip),%xmm14 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd5c> + .byte 68,15,40,53,132,213,1,0 // movaps 0x1d584(%rip),%xmm14 # 3acd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd68> .byte 69,15,88,198 // addps %xmm14,%xmm8 .byte 69,15,83,192 // rcpps %xmm8,%xmm8 .byte 69,15,89,199 // mulps %xmm15,%xmm8 - .byte 68,15,40,61,16,210,1,0 // movaps 0x1d210(%rip),%xmm15 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0xd6c> + .byte 68,15,40,61,128,213,1,0 // movaps 0x1d580(%rip),%xmm15 # 3ace0 <_sk_srcover_bgra_8888_sse2_lowp+0xd78> .byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0 .byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8 .byte 68,15,82,202 // rsqrtps %xmm2,%xmm9 @@ -28011,7 +28362,7 @@ _sk_rgb_to_hsl_sse41: .byte 68,15,93,224 // minps %xmm0,%xmm12 .byte 65,15,40,203 // movaps %xmm11,%xmm1 .byte 65,15,92,204 // subps %xmm12,%xmm1 - .byte 68,15,40,53,183,207,1,0 // movaps 0x1cfb7(%rip),%xmm14 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,53,39,211,1,0 // movaps 0x1d327(%rip),%xmm14 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,94,241 // divps %xmm1,%xmm14 .byte 69,15,40,211 // movaps %xmm11,%xmm10 .byte 69,15,194,208,0 // cmpeqps %xmm8,%xmm10 @@ -28020,27 +28371,27 @@ _sk_rgb_to_hsl_sse41: .byte 65,15,89,198 // mulps %xmm14,%xmm0 .byte 69,15,40,249 // movaps %xmm9,%xmm15 .byte 68,15,194,250,1 // cmpltps %xmm2,%xmm15 - .byte 68,15,84,61,46,209,1,0 // andps 0x1d12e(%rip),%xmm15 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd7c> + .byte 68,15,84,61,158,212,1,0 // andps 0x1d49e(%rip),%xmm15 # 3acf0 <_sk_srcover_bgra_8888_sse2_lowp+0xd88> .byte 68,15,88,248 // addps %xmm0,%xmm15 .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0 .byte 65,15,92,208 // subps %xmm8,%xmm2 .byte 65,15,89,214 // mulps %xmm14,%xmm2 - .byte 68,15,40,45,33,209,1,0 // movaps 0x1d121(%rip),%xmm13 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd8c> + .byte 68,15,40,45,145,212,1,0 // movaps 0x1d491(%rip),%xmm13 # 3ad00 <_sk_srcover_bgra_8888_sse2_lowp+0xd98> .byte 65,15,88,213 // addps %xmm13,%xmm2 .byte 69,15,92,193 // subps %xmm9,%xmm8 .byte 69,15,89,198 // mulps %xmm14,%xmm8 - .byte 68,15,88,5,29,209,1,0 // addps 0x1d11d(%rip),%xmm8 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd9c> + .byte 68,15,88,5,141,212,1,0 // addps 0x1d48d(%rip),%xmm8 # 3ad10 <_sk_srcover_bgra_8888_sse2_lowp+0xda8> .byte 102,68,15,56,20,194 // blendvps %xmm0,%xmm2,%xmm8 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 102,69,15,56,20,199 // blendvps %xmm0,%xmm15,%xmm8 - .byte 68,15,89,5,21,209,1,0 // mulps 0x1d115(%rip),%xmm8 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0xdac> + .byte 68,15,89,5,133,212,1,0 // mulps 0x1d485(%rip),%xmm8 # 3ad20 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8> .byte 69,15,40,203 // movaps %xmm11,%xmm9 .byte 69,15,194,204,4 // cmpneqps %xmm12,%xmm9 .byte 69,15,84,193 // andps %xmm9,%xmm8 .byte 69,15,92,235 // subps %xmm11,%xmm13 .byte 69,15,88,220 // addps %xmm12,%xmm11 - .byte 15,40,5,25,207,1,0 // movaps 0x1cf19(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,40,5,137,210,1,0 // movaps 0x1d289(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 65,15,40,211 // movaps %xmm11,%xmm2 .byte 15,89,208 // mulps %xmm0,%xmm2 .byte 15,194,194,1 // cmpltps %xmm2,%xmm0 @@ -28062,7 +28413,7 @@ _sk_hsl_to_rgb_sse41: .byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp) .byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp) .byte 68,15,40,208 // movaps %xmm0,%xmm10 - .byte 68,15,40,13,207,206,1,0 // movaps 0x1cecf(%rip),%xmm9 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,40,13,63,210,1,0 // movaps 0x1d23f(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 15,194,194,2 // cmpleps %xmm2,%xmm0 .byte 15,40,217 // movaps %xmm1,%xmm3 @@ -28075,19 +28426,19 @@ _sk_hsl_to_rgb_sse41: .byte 15,41,84,36,152 // movaps %xmm2,-0x68(%rsp) .byte 69,15,88,192 // addps %xmm8,%xmm8 .byte 68,15,92,197 // subps %xmm5,%xmm8 - .byte 68,15,40,53,138,208,1,0 // movaps 0x1d08a(%rip),%xmm14 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0xdbc> + .byte 68,15,40,53,250,211,1,0 // movaps 0x1d3fa(%rip),%xmm14 # 3ad30 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8> .byte 69,15,88,242 // addps %xmm10,%xmm14 .byte 102,65,15,58,8,198,1 // roundps $0x1,%xmm14,%xmm0 .byte 68,15,92,240 // subps %xmm0,%xmm14 - .byte 68,15,40,29,131,208,1,0 // movaps 0x1d083(%rip),%xmm11 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0xdcc> + .byte 68,15,40,29,243,211,1,0 // movaps 0x1d3f3(%rip),%xmm11 # 3ad40 <_sk_srcover_bgra_8888_sse2_lowp+0xdd8> .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0 .byte 15,40,245 // movaps %xmm5,%xmm6 .byte 65,15,92,240 // subps %xmm8,%xmm6 - .byte 15,40,61,28,208,1,0 // movaps 0x1d01c(%rip),%xmm7 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd7c> + .byte 15,40,61,140,211,1,0 // movaps 0x1d38c(%rip),%xmm7 # 3acf0 <_sk_srcover_bgra_8888_sse2_lowp+0xd88> .byte 69,15,40,238 // movaps %xmm14,%xmm13 .byte 68,15,89,239 // mulps %xmm7,%xmm13 - .byte 15,40,29,45,208,1,0 // movaps 0x1d02d(%rip),%xmm3 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd9c> + .byte 15,40,29,157,211,1,0 // movaps 0x1d39d(%rip),%xmm3 # 3ad10 <_sk_srcover_bgra_8888_sse2_lowp+0xda8> .byte 68,15,40,227 // movaps %xmm3,%xmm12 .byte 69,15,92,229 // subps %xmm13,%xmm12 .byte 68,15,89,230 // mulps %xmm6,%xmm12 @@ -28097,7 +28448,7 @@ _sk_hsl_to_rgb_sse41: .byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0 .byte 68,15,40,253 // movaps %xmm5,%xmm15 .byte 102,69,15,56,20,252 // blendvps %xmm0,%xmm12,%xmm15 - .byte 68,15,40,37,12,208,1,0 // movaps 0x1d00c(%rip),%xmm12 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0xdac> + .byte 68,15,40,37,124,211,1,0 // movaps 0x1d37c(%rip),%xmm12 # 3ad20 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8> .byte 65,15,40,196 // movaps %xmm12,%xmm0 .byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0 .byte 68,15,89,238 // mulps %xmm6,%xmm13 @@ -28131,7 +28482,7 @@ _sk_hsl_to_rgb_sse41: .byte 65,15,40,198 // movaps %xmm14,%xmm0 .byte 15,40,84,36,152 // movaps -0x68(%rsp),%xmm2 .byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1 - .byte 68,15,88,21,164,207,1,0 // addps 0x1cfa4(%rip),%xmm10 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc> + .byte 68,15,88,21,20,211,1,0 // addps 0x1d314(%rip),%xmm10 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8> .byte 102,65,15,58,8,194,1 // roundps $0x1,%xmm10,%xmm0 .byte 68,15,92,208 // subps %xmm0,%xmm10 .byte 69,15,194,218,2 // cmpleps %xmm10,%xmm11 @@ -28186,11 +28537,11 @@ _sk_scale_u8_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,52 // jne 1d473 <_sk_scale_u8_sse41+0x4c> + .byte 117,52 // jne 1db23 <_sk_scale_u8_sse41+0x4c> .byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8 - .byte 102,68,15,219,5,145,205,1,0 // pand 0x1cd91(%rip),%xmm8 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,68,15,219,5,1,209,1,0 // pand 0x1d101(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 - .byte 68,15,89,5,229,206,1,0 // mulps 0x1cee5(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 68,15,89,5,85,210,1,0 // mulps 0x1d255(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 65,15,89,208 // mulps %xmm8,%xmm2 @@ -28201,12 +28552,12 @@ _sk_scale_u8_sse41: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,59 // je 1d4bb <_sk_scale_u8_sse41+0x94> + .byte 116,59 // je 1db6b <_sk_scale_u8_sse41+0x94> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,23 // je 1d4a2 <_sk_scale_u8_sse41+0x7b> + .byte 116,23 // je 1db52 <_sk_scale_u8_sse41+0x7b> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,181 // jne 1d446 <_sk_scale_u8_sse41+0x1f> + .byte 117,181 // jne 1daf6 <_sk_scale_u8_sse41+0x1f> .byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8 @@ -28214,10 +28565,10 @@ _sk_scale_u8_sse41: .byte 102,68,15,110,200 // movd %eax,%xmm9 .byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9 .byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8 - .byte 235,139 // jmp 1d446 <_sk_scale_u8_sse41+0x1f> + .byte 235,139 // jmp 1daf6 <_sk_scale_u8_sse41+0x1f> .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 - .byte 233,124,255,255,255 // jmpq 1d446 <_sk_scale_u8_sse41+0x1f> + .byte 233,124,255,255,255 // jmpq 1daf6 <_sk_scale_u8_sse41+0x1f> HIDDEN _sk_scale_565_sse41 .globl _sk_scale_565_sse41 @@ -28232,19 +28583,19 @@ _sk_scale_565_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,159,0,0,0 // jne 1d58d <_sk_scale_565_sse41+0xc3> + .byte 15,133,159,0,0,0 // jne 1dc3d <_sk_scale_565_sse41+0xc3> .byte 102,71,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm11 - .byte 102,15,111,5,83,206,1,0 // movdqa 0x1ce53(%rip),%xmm0 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc> + .byte 102,15,111,5,195,209,1,0 // movdqa 0x1d1c3(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08> .byte 102,65,15,219,195 // pand %xmm11,%xmm0 .byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9 - .byte 68,15,89,13,82,206,1,0 // mulps 0x1ce52(%rip),%xmm9 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c> - .byte 102,15,111,5,90,206,1,0 // movdqa 0x1ce5a(%rip),%xmm0 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c> + .byte 68,15,89,13,194,209,1,0 // mulps 0x1d1c2(%rip),%xmm9 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18> + .byte 102,15,111,5,202,209,1,0 // movdqa 0x1d1ca(%rip),%xmm0 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28> .byte 102,65,15,219,195 // pand %xmm11,%xmm0 .byte 68,15,91,208 // cvtdq2ps %xmm0,%xmm10 - .byte 68,15,89,21,89,206,1,0 // mulps 0x1ce59(%rip),%xmm10 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c> - .byte 102,68,15,219,29,96,206,1,0 // pand 0x1ce60(%rip),%xmm11 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c> + .byte 68,15,89,21,201,209,1,0 // mulps 0x1d1c9(%rip),%xmm10 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38> + .byte 102,68,15,219,29,208,209,1,0 // pand 0x1d1d0(%rip),%xmm11 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48> .byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11 - .byte 68,15,89,29,100,206,1,0 // mulps 0x1ce64(%rip),%xmm11 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c> + .byte 68,15,89,29,212,209,1,0 // mulps 0x1d1d4(%rip),%xmm11 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58> .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,194,199,1 // cmpltps %xmm7,%xmm0 .byte 69,15,40,226 // movaps %xmm10,%xmm12 @@ -28269,22 +28620,22 @@ _sk_scale_565_sse41: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,60 // je 1d5d6 <_sk_scale_565_sse41+0x10c> + .byte 116,60 // je 1dc86 <_sk_scale_565_sse41+0x10c> .byte 102,69,15,239,219 // pxor %xmm11,%xmm11 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,26 // je 1d5bf <_sk_scale_565_sse41+0xf5> + .byte 116,26 // je 1dc6f <_sk_scale_565_sse41+0xf5> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 15,133,70,255,255,255 // jne 1d4f5 <_sk_scale_565_sse41+0x2b> + .byte 15,133,70,255,255,255 // jne 1dba5 <_sk_scale_565_sse41+0x2b> .byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,68,15,112,216,69 // pshufd $0x45,%xmm0,%xmm11 .byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0 .byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0 .byte 102,68,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm11 - .byte 233,31,255,255,255 // jmpq 1d4f5 <_sk_scale_565_sse41+0x2b> + .byte 233,31,255,255,255 // jmpq 1dba5 <_sk_scale_565_sse41+0x2b> .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax .byte 102,68,15,110,216 // movd %eax,%xmm11 - .byte 233,16,255,255,255 // jmpq 1d4f5 <_sk_scale_565_sse41+0x2b> + .byte 233,16,255,255,255 // jmpq 1dba5 <_sk_scale_565_sse41+0x2b> HIDDEN _sk_lerp_1_float_sse41 .globl _sk_lerp_1_float_sse41 @@ -28319,11 +28670,11 @@ _sk_lerp_u8_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,72 // jne 1d67d <_sk_lerp_u8_sse41+0x60> + .byte 117,72 // jne 1dd2d <_sk_lerp_u8_sse41+0x60> .byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8 - .byte 102,68,15,219,5,155,203,1,0 // pand 0x1cb9b(%rip),%xmm8 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,68,15,219,5,11,207,1,0 // pand 0x1cf0b(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 - .byte 68,15,89,5,239,204,1,0 // mulps 0x1ccef(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 68,15,89,5,95,208,1,0 // mulps 0x1d05f(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 15,92,196 // subps %xmm4,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 @@ -28341,12 +28692,12 @@ _sk_lerp_u8_sse41: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,62 // je 1d6c8 <_sk_lerp_u8_sse41+0xab> + .byte 116,62 // je 1dd78 <_sk_lerp_u8_sse41+0xab> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,23 // je 1d6ac <_sk_lerp_u8_sse41+0x8f> + .byte 116,23 // je 1dd5c <_sk_lerp_u8_sse41+0x8f> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,161 // jne 1d63c <_sk_lerp_u8_sse41+0x1f> + .byte 117,161 // jne 1dcec <_sk_lerp_u8_sse41+0x1f> .byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8 @@ -28354,10 +28705,10 @@ _sk_lerp_u8_sse41: .byte 102,68,15,110,200 // movd %eax,%xmm9 .byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9 .byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8 - .byte 233,116,255,255,255 // jmpq 1d63c <_sk_lerp_u8_sse41+0x1f> + .byte 233,116,255,255,255 // jmpq 1dcec <_sk_lerp_u8_sse41+0x1f> .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 - .byte 233,101,255,255,255 // jmpq 1d63c <_sk_lerp_u8_sse41+0x1f> + .byte 233,101,255,255,255 // jmpq 1dcec <_sk_lerp_u8_sse41+0x1f> HIDDEN _sk_lerp_565_sse41 .globl _sk_lerp_565_sse41 @@ -28372,19 +28723,19 @@ _sk_lerp_565_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,165,0,0,0 // jne 1d7a0 <_sk_lerp_565_sse41+0xc9> + .byte 15,133,165,0,0,0 // jne 1de50 <_sk_lerp_565_sse41+0xc9> .byte 102,71,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm10 - .byte 102,15,111,5,70,204,1,0 // movdqa 0x1cc46(%rip),%xmm0 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc> + .byte 102,15,111,5,182,207,1,0 // movdqa 0x1cfb6(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08> .byte 102,65,15,219,194 // pand %xmm10,%xmm0 .byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9 - .byte 68,15,89,13,69,204,1,0 // mulps 0x1cc45(%rip),%xmm9 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c> - .byte 102,15,111,5,77,204,1,0 // movdqa 0x1cc4d(%rip),%xmm0 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c> + .byte 68,15,89,13,181,207,1,0 // mulps 0x1cfb5(%rip),%xmm9 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18> + .byte 102,15,111,5,189,207,1,0 // movdqa 0x1cfbd(%rip),%xmm0 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28> .byte 102,65,15,219,194 // pand %xmm10,%xmm0 .byte 68,15,91,216 // cvtdq2ps %xmm0,%xmm11 - .byte 68,15,89,29,76,204,1,0 // mulps 0x1cc4c(%rip),%xmm11 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c> - .byte 102,68,15,219,21,83,204,1,0 // pand 0x1cc53(%rip),%xmm10 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c> + .byte 68,15,89,29,188,207,1,0 // mulps 0x1cfbc(%rip),%xmm11 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38> + .byte 102,68,15,219,21,195,207,1,0 // pand 0x1cfc3(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48> .byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10 - .byte 68,15,89,21,87,204,1,0 // mulps 0x1cc57(%rip),%xmm10 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c> + .byte 68,15,89,21,199,207,1,0 // mulps 0x1cfc7(%rip),%xmm10 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58> .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,194,199,1 // cmpltps %xmm7,%xmm0 .byte 69,15,40,227 // movaps %xmm11,%xmm12 @@ -28412,22 +28763,22 @@ _sk_lerp_565_sse41: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,60 // je 1d7e9 <_sk_lerp_565_sse41+0x112> + .byte 116,60 // je 1de99 <_sk_lerp_565_sse41+0x112> .byte 102,69,15,239,210 // pxor %xmm10,%xmm10 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,26 // je 1d7d2 <_sk_lerp_565_sse41+0xfb> + .byte 116,26 // je 1de82 <_sk_lerp_565_sse41+0xfb> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 15,133,64,255,255,255 // jne 1d702 <_sk_lerp_565_sse41+0x2b> + .byte 15,133,64,255,255,255 // jne 1ddb2 <_sk_lerp_565_sse41+0x2b> .byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,68,15,112,208,69 // pshufd $0x45,%xmm0,%xmm10 .byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0 .byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0 .byte 102,68,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm10 - .byte 233,25,255,255,255 // jmpq 1d702 <_sk_lerp_565_sse41+0x2b> + .byte 233,25,255,255,255 // jmpq 1ddb2 <_sk_lerp_565_sse41+0x2b> .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax .byte 102,68,15,110,208 // movd %eax,%xmm10 - .byte 233,10,255,255,255 // jmpq 1d702 <_sk_lerp_565_sse41+0x2b> + .byte 233,10,255,255,255 // jmpq 1ddb2 <_sk_lerp_565_sse41+0x2b> HIDDEN _sk_load_tables_sse41 .globl _sk_load_tables_sse41 @@ -28436,11 +28787,11 @@ _sk_load_tables_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,0 // mov (%rax),%r8 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,20,1,0,0 // jne 1d91a <_sk_load_tables_sse41+0x122> + .byte 15,133,20,1,0,0 // jne 1dfca <_sk_load_tables_sse41+0x122> .byte 243,69,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm8 .byte 65,86 // push %r14 .byte 83 // push %rbx - .byte 102,15,111,5,201,201,1,0 // movdqa 0x1c9c9(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,111,5,57,205,1,0 // movdqa 0x1cd39(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 102,65,15,219,192 // pand %xmm8,%xmm0 .byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8 .byte 102,73,15,126,193 // movq %xmm0,%r9 @@ -28455,7 +28806,7 @@ _sk_load_tables_sse41: .byte 102,66,15,58,33,4,155,32 // insertps $0x20,(%rbx,%r11,4),%xmm0 .byte 102,66,15,58,33,4,3,48 // insertps $0x30,(%rbx,%r8,1),%xmm0 .byte 102,65,15,111,200 // movdqa %xmm8,%xmm1 - .byte 102,15,56,0,13,132,201,1,0 // pshufb 0x1c984(%rip),%xmm1 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc9c> + .byte 102,15,56,0,13,244,204,1,0 // pshufb 0x1ccf4(%rip),%xmm1 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8> .byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8 .byte 102,72,15,126,203 // movq %xmm1,%rbx .byte 68,15,182,203 // movzbl %bl,%r9d @@ -28470,7 +28821,7 @@ _sk_load_tables_sse41: .byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1 .byte 76,139,64,24 // mov 0x18(%rax),%r8 .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2 - .byte 102,15,56,0,21,64,201,1,0 // pshufb 0x1c940(%rip),%xmm2 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0xcac> + .byte 102,15,56,0,21,176,204,1,0 // pshufb 0x1ccb0(%rip),%xmm2 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8> .byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx .byte 102,72,15,126,208 // movq %xmm2,%rax .byte 68,15,182,200 // movzbl %al,%r9d @@ -28485,7 +28836,7 @@ _sk_load_tables_sse41: .byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2 .byte 102,65,15,114,208,24 // psrld $0x18,%xmm8 .byte 65,15,91,216 // cvtdq2ps %xmm8,%xmm3 - .byte 15,89,29,45,202,1,0 // mulps 0x1ca2d(%rip),%xmm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 15,89,29,157,205,1,0 // mulps 0x1cd9d(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 65,94 // pop %r14 @@ -28493,19 +28844,19 @@ _sk_load_tables_sse41: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,52 // je 1d95b <_sk_load_tables_sse41+0x163> + .byte 116,52 // je 1e00b <_sk_load_tables_sse41+0x163> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,23 // je 1d949 <_sk_load_tables_sse41+0x151> + .byte 116,23 // je 1dff9 <_sk_load_tables_sse41+0x151> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 15,133,208,254,255,255 // jne 1d80c <_sk_load_tables_sse41+0x14> + .byte 15,133,208,254,255,255 // jne 1debc <_sk_load_tables_sse41+0x14> .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0 .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8 .byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0 .byte 102,68,15,58,14,192,15 // pblendw $0xf,%xmm0,%xmm8 - .byte 233,177,254,255,255 // jmpq 1d80c <_sk_load_tables_sse41+0x14> + .byte 233,177,254,255,255 // jmpq 1debc <_sk_load_tables_sse41+0x14> .byte 102,69,15,110,4,144 // movd (%r8,%rdx,4),%xmm8 - .byte 233,166,254,255,255 // jmpq 1d80c <_sk_load_tables_sse41+0x14> + .byte 233,166,254,255,255 // jmpq 1debc <_sk_load_tables_sse41+0x14> HIDDEN _sk_load_tables_u16_be_sse41 .globl _sk_load_tables_u16_be_sse41 @@ -28515,7 +28866,7 @@ _sk_load_tables_u16_be_sse41: .byte 76,139,0 // mov (%rax),%r8 .byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,95,1,0,0 // jne 1dadb <_sk_load_tables_u16_be_sse41+0x175> + .byte 15,133,95,1,0,0 // jne 1e18b <_sk_load_tables_u16_be_sse41+0x175> .byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0 .byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1 .byte 65,86 // push %r14 @@ -28526,7 +28877,7 @@ _sk_load_tables_u16_be_sse41: .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9 - .byte 102,68,15,111,5,255,201,1,0 // movdqa 0x1c9ff(%rip),%xmm8 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe5c> + .byte 102,68,15,111,5,111,205,1,0 // movdqa 0x1cd6f(%rip),%xmm8 # 3add0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68> .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,65,15,219,192 // pand %xmm8,%xmm0 .byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0 @@ -28544,7 +28895,7 @@ _sk_load_tables_u16_be_sse41: .byte 102,15,58,33,194,32 // insertps $0x20,%xmm2,%xmm0 .byte 243,66,15,16,20,3 // movss (%rbx,%r8,1),%xmm2 .byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0 - .byte 102,15,56,0,13,174,201,1,0 // pshufb 0x1c9ae(%rip),%xmm1 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe6c> + .byte 102,15,56,0,13,30,205,1,0 // pshufb 0x1cd1e(%rip),%xmm1 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xe78> .byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1 .byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8 .byte 102,72,15,126,203 // movq %xmm1,%rbx @@ -28580,23 +28931,23 @@ _sk_load_tables_u16_be_sse41: .byte 102,65,15,235,216 // por %xmm8,%xmm3 .byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 - .byte 15,89,29,252,200,1,0 // mulps 0x1c8fc(%rip),%xmm3 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe7c> + .byte 15,89,29,108,204,1,0 // mulps 0x1cc6c(%rip),%xmm3 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88> .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 65,94 // pop %r14 .byte 255,224 // jmpq *%rax .byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,13 // jne 1daf4 <_sk_load_tables_u16_be_sse41+0x18e> + .byte 117,13 // jne 1e1a4 <_sk_load_tables_u16_be_sse41+0x18e> .byte 243,15,126,192 // movq %xmm0,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 - .byte 233,149,254,255,255 // jmpq 1d989 <_sk_load_tables_u16_be_sse41+0x23> + .byte 233,149,254,255,255 // jmpq 1e039 <_sk_load_tables_u16_be_sse41+0x23> .byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 15,130,128,254,255,255 // jb 1d989 <_sk_load_tables_u16_be_sse41+0x23> + .byte 15,130,128,254,255,255 // jb 1e039 <_sk_load_tables_u16_be_sse41+0x23> .byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1 - .byte 233,116,254,255,255 // jmpq 1d989 <_sk_load_tables_u16_be_sse41+0x23> + .byte 233,116,254,255,255 // jmpq 1e039 <_sk_load_tables_u16_be_sse41+0x23> HIDDEN _sk_load_tables_rgb_u16_be_sse41 .globl _sk_load_tables_rgb_u16_be_sse41 @@ -28606,7 +28957,7 @@ _sk_load_tables_rgb_u16_be_sse41: .byte 76,139,0 // mov (%rax),%r8 .byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,79,1,0,0 // jne 1dc76 <_sk_load_tables_rgb_u16_be_sse41+0x161> + .byte 15,133,79,1,0,0 // jne 1e326 <_sk_load_tables_rgb_u16_be_sse41+0x161> .byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2 .byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1 .byte 102,15,115,217,4 // psrldq $0x4,%xmm1 @@ -28620,7 +28971,7 @@ _sk_load_tables_rgb_u16_be_sse41: .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2 .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1 - .byte 102,68,15,111,5,69,200,1,0 // movdqa 0x1c845(%rip),%xmm8 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe5c> + .byte 102,68,15,111,5,181,203,1,0 // movdqa 0x1cbb5(%rip),%xmm8 # 3add0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68> .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,65,15,219,192 // pand %xmm8,%xmm0 .byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0 @@ -28638,7 +28989,7 @@ _sk_load_tables_rgb_u16_be_sse41: .byte 102,15,58,33,195,32 // insertps $0x20,%xmm3,%xmm0 .byte 243,66,15,16,28,3 // movss (%rbx,%r8,1),%xmm3 .byte 102,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm0 - .byte 102,15,56,0,13,244,199,1,0 // pshufb 0x1c7f4(%rip),%xmm1 # 3a3c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe6c> + .byte 102,15,56,0,13,100,203,1,0 // pshufb 0x1cb64(%rip),%xmm1 # 3ade0 <_sk_srcover_bgra_8888_sse2_lowp+0xe78> .byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1 .byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8 .byte 102,72,15,126,203 // movq %xmm1,%rbx @@ -28669,7 +29020,7 @@ _sk_load_tables_rgb_u16_be_sse41: .byte 243,65,15,16,28,24 // movss (%r8,%rbx,1),%xmm3 .byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,191,196,1,0 // movaps 0x1c4bf(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,29,47,200,1,0 // movaps 0x1c82f(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 91 // pop %rbx .byte 65,94 // pop %r14 .byte 255,224 // jmpq *%rax @@ -28677,21 +29028,21 @@ _sk_load_tables_rgb_u16_be_sse41: .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,14 // jne 1dc9c <_sk_load_tables_rgb_u16_be_sse41+0x187> + .byte 117,14 // jne 1e34c <_sk_load_tables_rgb_u16_be_sse41+0x187> .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 - .byte 233,177,254,255,255 // jmpq 1db4d <_sk_load_tables_rgb_u16_be_sse41+0x38> + .byte 233,177,254,255,255 // jmpq 1e1fd <_sk_load_tables_rgb_u16_be_sse41+0x38> .byte 102,71,15,110,76,72,6 // movd 0x6(%r8,%r9,2),%xmm9 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,71,15,196,76,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm9 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,24 // jb 1dccd <_sk_load_tables_rgb_u16_be_sse41+0x1b8> + .byte 114,24 // jb 1e37d <_sk_load_tables_rgb_u16_be_sse41+0x1b8> .byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1 - .byte 233,128,254,255,255 // jmpq 1db4d <_sk_load_tables_rgb_u16_be_sse41+0x38> + .byte 233,128,254,255,255 // jmpq 1e1fd <_sk_load_tables_rgb_u16_be_sse41+0x38> .byte 102,15,239,201 // pxor %xmm1,%xmm1 - .byte 233,119,254,255,255 // jmpq 1db4d <_sk_load_tables_rgb_u16_be_sse41+0x38> + .byte 233,119,254,255,255 // jmpq 1e1fd <_sk_load_tables_rgb_u16_be_sse41+0x38> HIDDEN _sk_byte_tables_sse41 .globl _sk_byte_tables_sse41 @@ -28701,9 +29052,14 @@ _sk_byte_tables_sse41: .byte 65,86 // push %r14 .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax - .byte 68,15,40,5,44,197,1,0 // movaps 0x1c52c(%rip),%xmm8 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> - .byte 65,15,89,192 // mulps %xmm8,%xmm0 - .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 + .byte 69,15,87,192 // xorps %xmm8,%xmm8 + .byte 69,15,87,219 // xorps %xmm11,%xmm11 + .byte 68,15,95,216 // maxps %xmm0,%xmm11 + .byte 68,15,40,13,176,199,1,0 // movaps 0x1c7b0(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,93,217 // minps %xmm9,%xmm11 + .byte 68,15,40,21,132,200,1,0 // movaps 0x1c884(%rip),%xmm10 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> + .byte 69,15,89,218 // mulps %xmm10,%xmm11 + .byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0 .byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8 .byte 69,137,193 // mov %r8d,%r9d .byte 77,137,194 // mov %r8,%r10 @@ -28724,10 +29080,13 @@ _sk_byte_tables_sse41: .byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0 .byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 68,15,40,13,242,197,1,0 // movaps 0x1c5f2(%rip),%xmm9 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> - .byte 65,15,89,193 // mulps %xmm9,%xmm0 - .byte 65,15,89,200 // mulps %xmm8,%xmm1 - .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 + .byte 68,15,40,29,73,201,1,0 // movaps 0x1c949(%rip),%xmm11 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> + .byte 65,15,89,195 // mulps %xmm11,%xmm0 + .byte 69,15,87,228 // xorps %xmm12,%xmm12 + .byte 68,15,95,225 // maxps %xmm1,%xmm12 + .byte 69,15,93,225 // minps %xmm9,%xmm12 + .byte 69,15,89,226 // mulps %xmm10,%xmm12 + .byte 102,65,15,91,204 // cvtps2dq %xmm12,%xmm1 .byte 102,72,15,58,22,205,1 // pextrq $0x1,%xmm1,%rbp .byte 65,137,233 // mov %ebp,%r9d .byte 72,193,237,32 // shr $0x20,%rbp @@ -28744,10 +29103,13 @@ _sk_byte_tables_sse41: .byte 102,15,58,32,205,3 // pinsrb $0x3,%ebp,%xmm1 .byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 - .byte 65,15,89,201 // mulps %xmm9,%xmm1 + .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 76,139,72,16 // mov 0x10(%rax),%r9 - .byte 65,15,89,208 // mulps %xmm8,%xmm2 - .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2 + .byte 69,15,87,228 // xorps %xmm12,%xmm12 + .byte 68,15,95,226 // maxps %xmm2,%xmm12 + .byte 69,15,93,225 // minps %xmm9,%xmm12 + .byte 69,15,89,226 // mulps %xmm10,%xmm12 + .byte 102,65,15,91,212 // cvtps2dq %xmm12,%xmm2 .byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx .byte 65,137,216 // mov %ebx,%r8d .byte 72,193,235,32 // shr $0x20,%rbx @@ -28764,10 +29126,12 @@ _sk_byte_tables_sse41: .byte 102,15,58,32,213,3 // pinsrb $0x3,%ebp,%xmm2 .byte 102,15,56,49,210 // pmovzxbd %xmm2,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 - .byte 65,15,89,209 // mulps %xmm9,%xmm2 + .byte 65,15,89,211 // mulps %xmm11,%xmm2 .byte 72,139,64,24 // mov 0x18(%rax),%rax - .byte 65,15,89,216 // mulps %xmm8,%xmm3 - .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3 + .byte 68,15,95,195 // maxps %xmm3,%xmm8 + .byte 69,15,93,193 // minps %xmm9,%xmm8 + .byte 69,15,89,194 // mulps %xmm10,%xmm8 + .byte 102,65,15,91,216 // cvtps2dq %xmm8,%xmm3 .byte 102,72,15,58,22,221,1 // pextrq $0x1,%xmm3,%rbp .byte 65,137,232 // mov %ebp,%r8d .byte 72,193,237,32 // shr $0x20,%rbp @@ -28784,7 +29148,7 @@ _sk_byte_tables_sse41: .byte 102,15,58,32,216,3 // pinsrb $0x3,%eax,%xmm3 .byte 102,15,56,49,219 // pmovzxbd %xmm3,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 - .byte 65,15,89,217 // mulps %xmm9,%xmm3 + .byte 65,15,89,219 // mulps %xmm11,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 65,94 // pop %r14 @@ -28804,8 +29168,13 @@ _sk_byte_tables_rgb_sse41: .byte 102,69,15,110,192 // movd %r8d,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 - .byte 65,15,89,192 // mulps %xmm8,%xmm0 - .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 + .byte 69,15,87,201 // xorps %xmm9,%xmm9 + .byte 69,15,87,219 // xorps %xmm11,%xmm11 + .byte 68,15,95,216 // maxps %xmm0,%xmm11 + .byte 68,15,40,21,200,197,1,0 // movaps 0x1c5c8(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,93,218 // minps %xmm10,%xmm11 + .byte 69,15,89,216 // mulps %xmm8,%xmm11 + .byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0 .byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8 .byte 69,137,193 // mov %r8d,%r9d .byte 77,137,194 // mov %r8,%r10 @@ -28826,10 +29195,13 @@ _sk_byte_tables_rgb_sse41: .byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0 .byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 68,15,40,13,78,196,1,0 // movaps 0x1c44e(%rip),%xmm9 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> - .byte 65,15,89,193 // mulps %xmm9,%xmm0 - .byte 65,15,89,200 // mulps %xmm8,%xmm1 - .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 + .byte 68,15,40,29,105,199,1,0 // movaps 0x1c769(%rip),%xmm11 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> + .byte 65,15,89,195 // mulps %xmm11,%xmm0 + .byte 69,15,87,228 // xorps %xmm12,%xmm12 + .byte 68,15,95,225 // maxps %xmm1,%xmm12 + .byte 69,15,93,226 // minps %xmm10,%xmm12 + .byte 69,15,89,224 // mulps %xmm8,%xmm12 + .byte 102,65,15,91,204 // cvtps2dq %xmm12,%xmm1 .byte 102,72,15,58,22,205,1 // pextrq $0x1,%xmm1,%rbp .byte 65,137,233 // mov %ebp,%r9d .byte 72,193,237,32 // shr $0x20,%rbp @@ -28846,10 +29218,12 @@ _sk_byte_tables_rgb_sse41: .byte 102,15,58,32,205,3 // pinsrb $0x3,%ebp,%xmm1 .byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 - .byte 65,15,89,201 // mulps %xmm9,%xmm1 + .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 72,139,64,16 // mov 0x10(%rax),%rax - .byte 65,15,89,208 // mulps %xmm8,%xmm2 - .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2 + .byte 68,15,95,202 // maxps %xmm2,%xmm9 + .byte 69,15,93,202 // minps %xmm10,%xmm9 + .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 102,65,15,91,209 // cvtps2dq %xmm9,%xmm2 .byte 102,72,15,58,22,213,1 // pextrq $0x1,%xmm2,%rbp .byte 65,137,232 // mov %ebp,%r8d .byte 72,193,237,32 // shr $0x20,%rbp @@ -28866,7 +29240,7 @@ _sk_byte_tables_rgb_sse41: .byte 102,15,58,32,208,3 // pinsrb $0x3,%eax,%xmm2 .byte 102,15,56,49,210 // pmovzxbd %xmm2,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 - .byte 65,15,89,209 // mulps %xmm9,%xmm2 + .byte 65,15,89,211 // mulps %xmm11,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 65,94 // pop %r14 @@ -28884,8 +29258,11 @@ _sk_table_r_sse41: .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 - .byte 68,15,89,192 // mulps %xmm0,%xmm8 - .byte 102,65,15,91,192 // cvtps2dq %xmm8,%xmm0 + .byte 69,15,87,201 // xorps %xmm9,%xmm9 + .byte 68,15,95,200 // maxps %xmm0,%xmm9 + .byte 68,15,93,13,89,196,1,0 // minps 0x1c459(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 102,65,15,91,193 // cvtps2dq %xmm9,%xmm0 .byte 102,72,15,58,22,192,1 // pextrq $0x1,%xmm0,%rax .byte 65,137,193 // mov %eax,%r9d .byte 72,193,232,32 // shr $0x20,%rax @@ -28912,8 +29289,11 @@ _sk_table_g_sse41: .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 - .byte 68,15,89,193 // mulps %xmm1,%xmm8 - .byte 102,65,15,91,200 // cvtps2dq %xmm8,%xmm1 + .byte 69,15,87,201 // xorps %xmm9,%xmm9 + .byte 68,15,95,201 // maxps %xmm1,%xmm9 + .byte 68,15,93,13,225,195,1,0 // minps 0x1c3e1(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 102,65,15,91,201 // cvtps2dq %xmm9,%xmm1 .byte 102,72,15,58,22,200,1 // pextrq $0x1,%xmm1,%rax .byte 65,137,193 // mov %eax,%r9d .byte 72,193,232,32 // shr $0x20,%rax @@ -28940,8 +29320,11 @@ _sk_table_b_sse41: .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 - .byte 68,15,89,194 // mulps %xmm2,%xmm8 - .byte 102,65,15,91,208 // cvtps2dq %xmm8,%xmm2 + .byte 69,15,87,201 // xorps %xmm9,%xmm9 + .byte 68,15,95,202 // maxps %xmm2,%xmm9 + .byte 68,15,93,13,105,195,1,0 // minps 0x1c369(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 102,65,15,91,209 // cvtps2dq %xmm9,%xmm2 .byte 102,72,15,58,22,208,1 // pextrq $0x1,%xmm2,%rax .byte 65,137,193 // mov %eax,%r9d .byte 72,193,232,32 // shr $0x20,%rax @@ -28968,8 +29351,11 @@ _sk_table_a_sse41: .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 - .byte 68,15,89,195 // mulps %xmm3,%xmm8 - .byte 102,65,15,91,216 // cvtps2dq %xmm8,%xmm3 + .byte 69,15,87,201 // xorps %xmm9,%xmm9 + .byte 68,15,95,203 // maxps %xmm3,%xmm9 + .byte 68,15,93,13,241,194,1,0 // minps 0x1c2f1(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 102,65,15,91,217 // cvtps2dq %xmm9,%xmm3 .byte 102,72,15,58,22,216,1 // pextrq $0x1,%xmm3,%rax .byte 65,137,193 // mov %eax,%r9d .byte 72,193,232,32 // shr $0x20,%rax @@ -29009,32 +29395,32 @@ _sk_parametric_r_sse41: .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 69,15,87,219 // xorps %xmm11,%xmm11 .byte 69,15,91,194 // cvtdq2ps %xmm10,%xmm8 - .byte 68,15,89,5,37,194,1,0 // mulps 0x1c225(%rip),%xmm8 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c> - .byte 68,15,40,45,45,194,1,0 // movaps 0x1c22d(%rip),%xmm13 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c> + .byte 68,15,89,5,234,196,1,0 // mulps 0x1c4ea(%rip),%xmm8 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98> + .byte 68,15,40,45,242,196,1,0 // movaps 0x1c4f2(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8> .byte 69,15,84,234 // andps %xmm10,%xmm13 - .byte 68,15,86,45,81,191,1,0 // orps 0x1bf51(%rip),%xmm13 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> - .byte 68,15,88,5,41,194,1,0 // addps 0x1c229(%rip),%xmm8 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> - .byte 68,15,40,53,49,194,1,0 // movaps 0x1c231(%rip),%xmm14 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc> + .byte 68,15,86,45,22,194,1,0 // orps 0x1c216(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> + .byte 68,15,88,5,238,196,1,0 // addps 0x1c4ee(%rip),%xmm8 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> + .byte 68,15,40,53,246,196,1,0 // movaps 0x1c4f6(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8> .byte 69,15,89,245 // mulps %xmm13,%xmm14 .byte 69,15,92,198 // subps %xmm14,%xmm8 - .byte 68,15,88,45,49,194,1,0 // addps 0x1c231(%rip),%xmm13 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc> - .byte 68,15,40,53,57,194,1,0 // movaps 0x1c239(%rip),%xmm14 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc> + .byte 68,15,88,45,246,196,1,0 // addps 0x1c4f6(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8> + .byte 68,15,40,53,254,196,1,0 // movaps 0x1c4fe(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8> .byte 69,15,94,245 // divps %xmm13,%xmm14 .byte 69,15,92,198 // subps %xmm14,%xmm8 .byte 69,15,89,196 // mulps %xmm12,%xmm8 .byte 102,69,15,58,8,224,1 // roundps $0x1,%xmm8,%xmm12 .byte 69,15,40,232 // movaps %xmm8,%xmm13 .byte 69,15,92,236 // subps %xmm12,%xmm13 - .byte 68,15,88,5,38,194,1,0 // addps 0x1c226(%rip),%xmm8 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec> - .byte 68,15,40,37,46,194,1,0 // movaps 0x1c22e(%rip),%xmm12 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc> + .byte 68,15,88,5,235,196,1,0 // addps 0x1c4eb(%rip),%xmm8 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8> + .byte 68,15,40,37,243,196,1,0 // movaps 0x1c4f3(%rip),%xmm12 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08> .byte 69,15,89,229 // mulps %xmm13,%xmm12 .byte 69,15,92,196 // subps %xmm12,%xmm8 - .byte 68,15,40,37,46,194,1,0 // movaps 0x1c22e(%rip),%xmm12 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c> + .byte 68,15,40,37,243,196,1,0 // movaps 0x1c4f3(%rip),%xmm12 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18> .byte 69,15,92,229 // subps %xmm13,%xmm12 - .byte 68,15,40,45,50,194,1,0 // movaps 0x1c232(%rip),%xmm13 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c> + .byte 68,15,40,45,247,196,1,0 // movaps 0x1c4f7(%rip),%xmm13 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28> .byte 69,15,94,236 // divps %xmm12,%xmm13 .byte 69,15,88,232 // addps %xmm8,%xmm13 - .byte 68,15,89,45,50,194,1,0 // mulps 0x1c232(%rip),%xmm13 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c> + .byte 68,15,89,45,247,196,1,0 // mulps 0x1c4f7(%rip),%xmm13 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38> .byte 102,69,15,91,197 // cvtps2dq %xmm13,%xmm8 .byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10 .byte 69,15,84,208 // andps %xmm8,%xmm10 @@ -29043,7 +29429,7 @@ _sk_parametric_r_sse41: .byte 69,15,88,194 // addps %xmm10,%xmm8 .byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8 .byte 69,15,95,195 // maxps %xmm11,%xmm8 - .byte 68,15,93,5,179,190,1,0 // minps 0x1beb3(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,93,5,120,193,1,0 // minps 0x1c178(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax @@ -29074,32 +29460,32 @@ _sk_parametric_g_sse41: .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 69,15,87,219 // xorps %xmm11,%xmm11 .byte 69,15,91,242 // cvtdq2ps %xmm10,%xmm14 - .byte 68,15,89,53,240,192,1,0 // mulps 0x1c0f0(%rip),%xmm14 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c> - .byte 68,15,40,45,248,192,1,0 // movaps 0x1c0f8(%rip),%xmm13 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c> + .byte 68,15,89,53,181,195,1,0 // mulps 0x1c3b5(%rip),%xmm14 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98> + .byte 68,15,40,45,189,195,1,0 // movaps 0x1c3bd(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8> .byte 69,15,84,234 // andps %xmm10,%xmm13 - .byte 68,15,86,45,28,190,1,0 // orps 0x1be1c(%rip),%xmm13 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> - .byte 68,15,88,53,244,192,1,0 // addps 0x1c0f4(%rip),%xmm14 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> - .byte 15,40,13,253,192,1,0 // movaps 0x1c0fd(%rip),%xmm1 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc> + .byte 68,15,86,45,225,192,1,0 // orps 0x1c0e1(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> + .byte 68,15,88,53,185,195,1,0 // addps 0x1c3b9(%rip),%xmm14 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> + .byte 15,40,13,194,195,1,0 // movaps 0x1c3c2(%rip),%xmm1 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8> .byte 65,15,89,205 // mulps %xmm13,%xmm1 .byte 68,15,92,241 // subps %xmm1,%xmm14 - .byte 68,15,88,45,253,192,1,0 // addps 0x1c0fd(%rip),%xmm13 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc> - .byte 15,40,13,6,193,1,0 // movaps 0x1c106(%rip),%xmm1 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc> + .byte 68,15,88,45,194,195,1,0 // addps 0x1c3c2(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8> + .byte 15,40,13,203,195,1,0 // movaps 0x1c3cb(%rip),%xmm1 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8> .byte 65,15,94,205 // divps %xmm13,%xmm1 .byte 68,15,92,241 // subps %xmm1,%xmm14 .byte 69,15,89,244 // mulps %xmm12,%xmm14 .byte 102,69,15,58,8,230,1 // roundps $0x1,%xmm14,%xmm12 .byte 69,15,40,238 // movaps %xmm14,%xmm13 .byte 69,15,92,236 // subps %xmm12,%xmm13 - .byte 68,15,88,53,243,192,1,0 // addps 0x1c0f3(%rip),%xmm14 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec> - .byte 15,40,13,252,192,1,0 // movaps 0x1c0fc(%rip),%xmm1 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc> + .byte 68,15,88,53,184,195,1,0 // addps 0x1c3b8(%rip),%xmm14 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8> + .byte 15,40,13,193,195,1,0 // movaps 0x1c3c1(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08> .byte 65,15,89,205 // mulps %xmm13,%xmm1 .byte 68,15,92,241 // subps %xmm1,%xmm14 - .byte 68,15,40,37,252,192,1,0 // movaps 0x1c0fc(%rip),%xmm12 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c> + .byte 68,15,40,37,193,195,1,0 // movaps 0x1c3c1(%rip),%xmm12 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18> .byte 69,15,92,229 // subps %xmm13,%xmm12 - .byte 15,40,13,1,193,1,0 // movaps 0x1c101(%rip),%xmm1 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c> + .byte 15,40,13,198,195,1,0 // movaps 0x1c3c6(%rip),%xmm1 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28> .byte 65,15,94,204 // divps %xmm12,%xmm1 .byte 65,15,88,206 // addps %xmm14,%xmm1 - .byte 15,89,13,2,193,1,0 // mulps 0x1c102(%rip),%xmm1 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c> + .byte 15,89,13,199,195,1,0 // mulps 0x1c3c7(%rip),%xmm1 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38> .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 .byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10 .byte 68,15,84,209 // andps %xmm1,%xmm10 @@ -29108,7 +29494,7 @@ _sk_parametric_g_sse41: .byte 65,15,88,202 // addps %xmm10,%xmm1 .byte 102,65,15,56,20,201 // blendvps %xmm0,%xmm9,%xmm1 .byte 65,15,95,203 // maxps %xmm11,%xmm1 - .byte 15,93,13,135,189,1,0 // minps 0x1bd87(%rip),%xmm1 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,93,13,76,192,1,0 // minps 0x1c04c(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax @@ -29139,32 +29525,32 @@ _sk_parametric_b_sse41: .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 69,15,87,219 // xorps %xmm11,%xmm11 .byte 69,15,91,242 // cvtdq2ps %xmm10,%xmm14 - .byte 68,15,89,53,196,191,1,0 // mulps 0x1bfc4(%rip),%xmm14 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c> - .byte 68,15,40,45,204,191,1,0 // movaps 0x1bfcc(%rip),%xmm13 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c> + .byte 68,15,89,53,137,194,1,0 // mulps 0x1c289(%rip),%xmm14 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98> + .byte 68,15,40,45,145,194,1,0 // movaps 0x1c291(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8> .byte 69,15,84,234 // andps %xmm10,%xmm13 - .byte 68,15,86,45,240,188,1,0 // orps 0x1bcf0(%rip),%xmm13 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> - .byte 68,15,88,53,200,191,1,0 // addps 0x1bfc8(%rip),%xmm14 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> - .byte 15,40,21,209,191,1,0 // movaps 0x1bfd1(%rip),%xmm2 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc> + .byte 68,15,86,45,181,191,1,0 // orps 0x1bfb5(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> + .byte 68,15,88,53,141,194,1,0 // addps 0x1c28d(%rip),%xmm14 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> + .byte 15,40,21,150,194,1,0 // movaps 0x1c296(%rip),%xmm2 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8> .byte 65,15,89,213 // mulps %xmm13,%xmm2 .byte 68,15,92,242 // subps %xmm2,%xmm14 - .byte 68,15,88,45,209,191,1,0 // addps 0x1bfd1(%rip),%xmm13 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc> - .byte 15,40,21,218,191,1,0 // movaps 0x1bfda(%rip),%xmm2 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc> + .byte 68,15,88,45,150,194,1,0 // addps 0x1c296(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8> + .byte 15,40,21,159,194,1,0 // movaps 0x1c29f(%rip),%xmm2 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8> .byte 65,15,94,213 // divps %xmm13,%xmm2 .byte 68,15,92,242 // subps %xmm2,%xmm14 .byte 69,15,89,244 // mulps %xmm12,%xmm14 .byte 102,69,15,58,8,230,1 // roundps $0x1,%xmm14,%xmm12 .byte 69,15,40,238 // movaps %xmm14,%xmm13 .byte 69,15,92,236 // subps %xmm12,%xmm13 - .byte 68,15,88,53,199,191,1,0 // addps 0x1bfc7(%rip),%xmm14 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec> - .byte 15,40,21,208,191,1,0 // movaps 0x1bfd0(%rip),%xmm2 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc> + .byte 68,15,88,53,140,194,1,0 // addps 0x1c28c(%rip),%xmm14 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8> + .byte 15,40,21,149,194,1,0 // movaps 0x1c295(%rip),%xmm2 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08> .byte 65,15,89,213 // mulps %xmm13,%xmm2 .byte 68,15,92,242 // subps %xmm2,%xmm14 - .byte 68,15,40,37,208,191,1,0 // movaps 0x1bfd0(%rip),%xmm12 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c> + .byte 68,15,40,37,149,194,1,0 // movaps 0x1c295(%rip),%xmm12 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18> .byte 69,15,92,229 // subps %xmm13,%xmm12 - .byte 15,40,21,213,191,1,0 // movaps 0x1bfd5(%rip),%xmm2 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c> + .byte 15,40,21,154,194,1,0 // movaps 0x1c29a(%rip),%xmm2 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28> .byte 65,15,94,212 // divps %xmm12,%xmm2 .byte 65,15,88,214 // addps %xmm14,%xmm2 - .byte 15,89,21,214,191,1,0 // mulps 0x1bfd6(%rip),%xmm2 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c> + .byte 15,89,21,155,194,1,0 // mulps 0x1c29b(%rip),%xmm2 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38> .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2 .byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10 .byte 68,15,84,210 // andps %xmm2,%xmm10 @@ -29173,7 +29559,7 @@ _sk_parametric_b_sse41: .byte 65,15,88,210 // addps %xmm10,%xmm2 .byte 102,65,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm2 .byte 65,15,95,211 // maxps %xmm11,%xmm2 - .byte 15,93,21,91,188,1,0 // minps 0x1bc5b(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,93,21,32,191,1,0 // minps 0x1bf20(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax @@ -29204,32 +29590,32 @@ _sk_parametric_a_sse41: .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 69,15,87,219 // xorps %xmm11,%xmm11 .byte 69,15,91,242 // cvtdq2ps %xmm10,%xmm14 - .byte 68,15,89,53,152,190,1,0 // mulps 0x1be98(%rip),%xmm14 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c> - .byte 68,15,40,45,160,190,1,0 // movaps 0x1bea0(%rip),%xmm13 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c> + .byte 68,15,89,53,93,193,1,0 // mulps 0x1c15d(%rip),%xmm14 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98> + .byte 68,15,40,45,101,193,1,0 // movaps 0x1c165(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8> .byte 69,15,84,234 // andps %xmm10,%xmm13 - .byte 68,15,86,45,196,187,1,0 // orps 0x1bbc4(%rip),%xmm13 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> - .byte 68,15,88,53,156,190,1,0 // addps 0x1be9c(%rip),%xmm14 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> - .byte 15,40,29,165,190,1,0 // movaps 0x1bea5(%rip),%xmm3 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc> + .byte 68,15,86,45,137,190,1,0 // orps 0x1be89(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> + .byte 68,15,88,53,97,193,1,0 // addps 0x1c161(%rip),%xmm14 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> + .byte 15,40,29,106,193,1,0 // movaps 0x1c16a(%rip),%xmm3 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8> .byte 65,15,89,221 // mulps %xmm13,%xmm3 .byte 68,15,92,243 // subps %xmm3,%xmm14 - .byte 68,15,88,45,165,190,1,0 // addps 0x1bea5(%rip),%xmm13 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc> - .byte 15,40,29,174,190,1,0 // movaps 0x1beae(%rip),%xmm3 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc> + .byte 68,15,88,45,106,193,1,0 // addps 0x1c16a(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8> + .byte 15,40,29,115,193,1,0 // movaps 0x1c173(%rip),%xmm3 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8> .byte 65,15,94,221 // divps %xmm13,%xmm3 .byte 68,15,92,243 // subps %xmm3,%xmm14 .byte 69,15,89,244 // mulps %xmm12,%xmm14 .byte 102,69,15,58,8,230,1 // roundps $0x1,%xmm14,%xmm12 .byte 69,15,40,238 // movaps %xmm14,%xmm13 .byte 69,15,92,236 // subps %xmm12,%xmm13 - .byte 68,15,88,53,155,190,1,0 // addps 0x1be9b(%rip),%xmm14 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec> - .byte 15,40,29,164,190,1,0 // movaps 0x1bea4(%rip),%xmm3 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc> + .byte 68,15,88,53,96,193,1,0 // addps 0x1c160(%rip),%xmm14 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8> + .byte 15,40,29,105,193,1,0 // movaps 0x1c169(%rip),%xmm3 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08> .byte 65,15,89,221 // mulps %xmm13,%xmm3 .byte 68,15,92,243 // subps %xmm3,%xmm14 - .byte 68,15,40,37,164,190,1,0 // movaps 0x1bea4(%rip),%xmm12 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c> + .byte 68,15,40,37,105,193,1,0 // movaps 0x1c169(%rip),%xmm12 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18> .byte 69,15,92,229 // subps %xmm13,%xmm12 - .byte 15,40,29,169,190,1,0 // movaps 0x1bea9(%rip),%xmm3 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c> + .byte 15,40,29,110,193,1,0 // movaps 0x1c16e(%rip),%xmm3 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28> .byte 65,15,94,220 // divps %xmm12,%xmm3 .byte 65,15,88,222 // addps %xmm14,%xmm3 - .byte 15,89,29,170,190,1,0 // mulps 0x1beaa(%rip),%xmm3 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c> + .byte 15,89,29,111,193,1,0 // mulps 0x1c16f(%rip),%xmm3 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38> .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3 .byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10 .byte 68,15,84,211 // andps %xmm3,%xmm10 @@ -29238,7 +29624,7 @@ _sk_parametric_a_sse41: .byte 65,15,88,218 // addps %xmm10,%xmm3 .byte 102,65,15,56,20,217 // blendvps %xmm0,%xmm9,%xmm3 .byte 65,15,95,219 // maxps %xmm11,%xmm3 - .byte 15,93,29,47,187,1,0 // minps 0x1bb2f(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,93,29,244,189,1,0 // minps 0x1bdf4(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax @@ -29256,21 +29642,21 @@ _sk_gamma_sse41: .byte 68,15,40,209 // movaps %xmm1,%xmm10 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,91,244 // cvtdq2ps %xmm4,%xmm6 - .byte 15,40,5,169,189,1,0 // movaps 0x1bda9(%rip),%xmm0 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c> + .byte 15,40,5,110,192,1,0 // movaps 0x1c06e(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98> .byte 15,89,240 // mulps %xmm0,%xmm6 .byte 15,40,232 // movaps %xmm0,%xmm5 - .byte 68,15,40,5,171,189,1,0 // movaps 0x1bdab(%rip),%xmm8 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c> + .byte 68,15,40,5,112,192,1,0 // movaps 0x1c070(%rip),%xmm8 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8> .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 65,15,84,192 // andps %xmm8,%xmm0 - .byte 15,86,5,205,186,1,0 // orps 0x1bacd(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> - .byte 15,88,53,166,189,1,0 // addps 0x1bda6(%rip),%xmm6 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> - .byte 68,15,40,29,174,189,1,0 // movaps 0x1bdae(%rip),%xmm11 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc> + .byte 15,86,5,146,189,1,0 // orps 0x1bd92(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> + .byte 15,88,53,107,192,1,0 // addps 0x1c06b(%rip),%xmm6 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> + .byte 68,15,40,29,115,192,1,0 // movaps 0x1c073(%rip),%xmm11 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8> .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 15,92,241 // subps %xmm1,%xmm6 - .byte 68,15,40,61,172,189,1,0 // movaps 0x1bdac(%rip),%xmm15 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc> + .byte 68,15,40,61,113,192,1,0 // movaps 0x1c071(%rip),%xmm15 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8> .byte 65,15,88,199 // addps %xmm15,%xmm0 - .byte 68,15,40,53,176,189,1,0 // movaps 0x1bdb0(%rip),%xmm14 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc> + .byte 68,15,40,53,117,192,1,0 // movaps 0x1c075(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8> .byte 65,15,40,206 // movaps %xmm14,%xmm1 .byte 15,94,200 // divps %xmm0,%xmm1 .byte 15,92,241 // subps %xmm1,%xmm6 @@ -29281,19 +29667,19 @@ _sk_gamma_sse41: .byte 102,15,58,8,198,1 // roundps $0x1,%xmm6,%xmm0 .byte 15,40,206 // movaps %xmm6,%xmm1 .byte 15,92,200 // subps %xmm0,%xmm1 - .byte 15,88,53,150,189,1,0 // addps 0x1bd96(%rip),%xmm6 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec> - .byte 15,40,29,175,189,1,0 // movaps 0x1bdaf(%rip),%xmm3 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c> + .byte 15,88,53,91,192,1,0 // addps 0x1c05b(%rip),%xmm6 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8> + .byte 15,40,29,116,192,1,0 // movaps 0x1c074(%rip),%xmm3 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18> .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,92,201 // subps %xmm1,%xmm9 .byte 15,40,193 // movaps %xmm1,%xmm0 - .byte 15,40,13,141,189,1,0 // movaps 0x1bd8d(%rip),%xmm1 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc> + .byte 15,40,13,82,192,1,0 // movaps 0x1c052(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08> .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,92,240 // subps %xmm0,%xmm6 - .byte 68,15,40,45,159,189,1,0 // movaps 0x1bd9f(%rip),%xmm13 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c> + .byte 68,15,40,45,100,192,1,0 // movaps 0x1c064(%rip),%xmm13 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28> .byte 65,15,40,197 // movaps %xmm13,%xmm0 .byte 65,15,94,193 // divps %xmm9,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 - .byte 68,15,40,13,156,189,1,0 // movaps 0x1bd9c(%rip),%xmm9 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c> + .byte 68,15,40,13,97,192,1,0 // movaps 0x1c061(%rip),%xmm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38> .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 .byte 15,87,246 // xorps %xmm6,%xmm6 @@ -29303,9 +29689,9 @@ _sk_gamma_sse41: .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 65,15,40,250 // movaps %xmm10,%xmm7 .byte 65,15,84,248 // andps %xmm8,%xmm7 - .byte 15,40,53,20,186,1,0 // movaps 0x1ba14(%rip),%xmm6 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,40,53,217,188,1,0 // movaps 0x1bcd9(%rip),%xmm6 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 15,86,254 // orps %xmm6,%xmm7 - .byte 15,88,5,234,188,1,0 // addps 0x1bcea(%rip),%xmm0 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> + .byte 15,88,5,175,191,1,0 // addps 0x1bfaf(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> .byte 15,40,239 // movaps %xmm7,%xmm5 .byte 65,15,89,235 // mulps %xmm11,%xmm5 .byte 15,92,197 // subps %xmm5,%xmm0 @@ -29317,7 +29703,7 @@ _sk_gamma_sse41: .byte 102,15,58,8,232,1 // roundps $0x1,%xmm0,%xmm5 .byte 15,40,248 // movaps %xmm0,%xmm7 .byte 15,92,253 // subps %xmm5,%xmm7 - .byte 68,15,40,61,251,188,1,0 // movaps 0x1bcfb(%rip),%xmm15 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec> + .byte 68,15,40,61,192,191,1,0 // movaps 0x1bfc0(%rip),%xmm15 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8> .byte 65,15,88,199 // addps %xmm15,%xmm0 .byte 15,40,235 // movaps %xmm3,%xmm5 .byte 15,92,239 // subps %xmm7,%xmm5 @@ -29332,13 +29718,13 @@ _sk_gamma_sse41: .byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10 .byte 68,15,84,208 // andps %xmm0,%xmm10 .byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0 - .byte 15,89,5,98,188,1,0 // mulps 0x1bc62(%rip),%xmm0 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c> + .byte 15,89,5,39,191,1,0 // mulps 0x1bf27(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98> .byte 69,15,84,196 // andps %xmm12,%xmm8 .byte 68,15,86,198 // orps %xmm6,%xmm8 - .byte 15,88,5,115,188,1,0 // addps 0x1bc73(%rip),%xmm0 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> + .byte 15,88,5,56,191,1,0 // addps 0x1bf38(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> .byte 69,15,89,216 // mulps %xmm8,%xmm11 .byte 65,15,92,195 // subps %xmm11,%xmm0 - .byte 68,15,88,5,131,188,1,0 // addps 0x1bc83(%rip),%xmm8 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc> + .byte 68,15,88,5,72,191,1,0 // addps 0x1bf48(%rip),%xmm8 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8> .byte 69,15,94,240 // divps %xmm8,%xmm14 .byte 65,15,92,198 // subps %xmm14,%xmm0 .byte 15,89,194 // mulps %xmm2,%xmm0 @@ -29379,21 +29765,21 @@ _sk_gamma_dst_sse41: .byte 15,41,76,36,184 // movaps %xmm1,-0x48(%rsp) .byte 15,41,68,36,168 // movaps %xmm0,-0x58(%rsp) .byte 15,91,221 // cvtdq2ps %xmm5,%xmm3 - .byte 15,40,5,175,187,1,0 // movaps 0x1bbaf(%rip),%xmm0 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c> + .byte 15,40,5,116,190,1,0 // movaps 0x1be74(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98> .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 15,40,240 // movaps %xmm0,%xmm6 - .byte 68,15,40,5,177,187,1,0 // movaps 0x1bbb1(%rip),%xmm8 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c> + .byte 68,15,40,5,118,190,1,0 // movaps 0x1be76(%rip),%xmm8 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8> .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 65,15,84,192 // andps %xmm8,%xmm0 - .byte 15,86,5,211,184,1,0 // orps 0x1b8d3(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> - .byte 15,88,29,172,187,1,0 // addps 0x1bbac(%rip),%xmm3 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> - .byte 68,15,40,29,180,187,1,0 // movaps 0x1bbb4(%rip),%xmm11 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc> + .byte 15,86,5,152,187,1,0 // orps 0x1bb98(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> + .byte 15,88,29,113,190,1,0 // addps 0x1be71(%rip),%xmm3 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> + .byte 68,15,40,29,121,190,1,0 // movaps 0x1be79(%rip),%xmm11 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8> .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 15,92,217 // subps %xmm1,%xmm3 - .byte 68,15,40,61,178,187,1,0 // movaps 0x1bbb2(%rip),%xmm15 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc> + .byte 68,15,40,61,119,190,1,0 // movaps 0x1be77(%rip),%xmm15 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8> .byte 65,15,88,199 // addps %xmm15,%xmm0 - .byte 68,15,40,53,182,187,1,0 // movaps 0x1bbb6(%rip),%xmm14 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc> + .byte 68,15,40,53,123,190,1,0 // movaps 0x1be7b(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8> .byte 65,15,40,206 // movaps %xmm14,%xmm1 .byte 15,94,200 // divps %xmm0,%xmm1 .byte 15,92,217 // subps %xmm1,%xmm3 @@ -29404,19 +29790,19 @@ _sk_gamma_dst_sse41: .byte 102,15,58,8,195,1 // roundps $0x1,%xmm3,%xmm0 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,92,200 // subps %xmm0,%xmm1 - .byte 15,88,29,156,187,1,0 // addps 0x1bb9c(%rip),%xmm3 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec> - .byte 15,40,37,181,187,1,0 // movaps 0x1bbb5(%rip),%xmm4 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c> + .byte 15,88,29,97,190,1,0 // addps 0x1be61(%rip),%xmm3 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8> + .byte 15,40,37,122,190,1,0 // movaps 0x1be7a(%rip),%xmm4 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18> .byte 68,15,40,204 // movaps %xmm4,%xmm9 .byte 68,15,92,201 // subps %xmm1,%xmm9 .byte 15,40,193 // movaps %xmm1,%xmm0 - .byte 15,40,13,147,187,1,0 // movaps 0x1bb93(%rip),%xmm1 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc> + .byte 15,40,13,88,190,1,0 // movaps 0x1be58(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08> .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,92,216 // subps %xmm0,%xmm3 - .byte 68,15,40,45,165,187,1,0 // movaps 0x1bba5(%rip),%xmm13 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c> + .byte 68,15,40,45,106,190,1,0 // movaps 0x1be6a(%rip),%xmm13 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28> .byte 65,15,40,197 // movaps %xmm13,%xmm0 .byte 65,15,94,193 // divps %xmm9,%xmm0 .byte 15,88,195 // addps %xmm3,%xmm0 - .byte 68,15,40,13,162,187,1,0 // movaps 0x1bba2(%rip),%xmm9 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c> + .byte 68,15,40,13,103,190,1,0 // movaps 0x1be67(%rip),%xmm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38> .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 .byte 15,87,219 // xorps %xmm3,%xmm3 @@ -29426,9 +29812,9 @@ _sk_gamma_dst_sse41: .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 65,15,40,250 // movaps %xmm10,%xmm7 .byte 65,15,84,248 // andps %xmm8,%xmm7 - .byte 15,40,29,26,184,1,0 // movaps 0x1b81a(%rip),%xmm3 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,40,29,223,186,1,0 // movaps 0x1badf(%rip),%xmm3 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 15,86,251 // orps %xmm3,%xmm7 - .byte 15,88,5,240,186,1,0 // addps 0x1baf0(%rip),%xmm0 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> + .byte 15,88,5,181,189,1,0 // addps 0x1bdb5(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> .byte 15,40,247 // movaps %xmm7,%xmm6 .byte 65,15,89,243 // mulps %xmm11,%xmm6 .byte 15,92,198 // subps %xmm6,%xmm0 @@ -29440,7 +29826,7 @@ _sk_gamma_dst_sse41: .byte 102,15,58,8,240,1 // roundps $0x1,%xmm0,%xmm6 .byte 15,40,248 // movaps %xmm0,%xmm7 .byte 15,92,254 // subps %xmm6,%xmm7 - .byte 68,15,40,61,1,187,1,0 // movaps 0x1bb01(%rip),%xmm15 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec> + .byte 68,15,40,61,198,189,1,0 // movaps 0x1bdc6(%rip),%xmm15 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8> .byte 65,15,88,199 // addps %xmm15,%xmm0 .byte 15,40,244 // movaps %xmm4,%xmm6 .byte 15,92,247 // subps %xmm7,%xmm6 @@ -29455,13 +29841,13 @@ _sk_gamma_dst_sse41: .byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10 .byte 68,15,84,208 // andps %xmm0,%xmm10 .byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0 - .byte 15,89,5,104,186,1,0 // mulps 0x1ba68(%rip),%xmm0 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c> + .byte 15,89,5,45,189,1,0 // mulps 0x1bd2d(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98> .byte 69,15,84,196 // andps %xmm12,%xmm8 .byte 68,15,86,195 // orps %xmm3,%xmm8 - .byte 15,88,5,121,186,1,0 // addps 0x1ba79(%rip),%xmm0 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> + .byte 15,88,5,62,189,1,0 // addps 0x1bd3e(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> .byte 69,15,89,216 // mulps %xmm8,%xmm11 .byte 65,15,92,195 // subps %xmm11,%xmm0 - .byte 68,15,88,5,137,186,1,0 // addps 0x1ba89(%rip),%xmm8 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc> + .byte 68,15,88,5,78,189,1,0 // addps 0x1bd4e(%rip),%xmm8 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8> .byte 69,15,94,240 // divps %xmm8,%xmm14 .byte 65,15,92,198 // subps %xmm14,%xmm0 .byte 15,89,194 // mulps %xmm2,%xmm0 @@ -29494,29 +29880,29 @@ HIDDEN _sk_lab_to_xyz_sse41 FUNCTION(_sk_lab_to_xyz_sse41) _sk_lab_to_xyz_sse41: .byte 68,15,40,192 // movaps %xmm0,%xmm8 - .byte 68,15,89,5,135,186,1,0 // mulps 0x1ba87(%rip),%xmm8 # 3a490 <_sk_srcover_bgra_8888_sse2_lowp+0xf3c> - .byte 68,15,40,13,255,183,1,0 // movaps 0x1b7ff(%rip),%xmm9 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> + .byte 68,15,89,5,76,189,1,0 // mulps 0x1bd4c(%rip),%xmm8 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48> + .byte 68,15,40,13,196,186,1,0 // movaps 0x1bac4(%rip),%xmm9 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> .byte 65,15,89,201 // mulps %xmm9,%xmm1 - .byte 15,40,5,132,186,1,0 // movaps 0x1ba84(%rip),%xmm0 # 3a4a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf4c> + .byte 15,40,5,73,189,1,0 // movaps 0x1bd49(%rip),%xmm0 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0xf58> .byte 15,88,200 // addps %xmm0,%xmm1 .byte 65,15,89,209 // mulps %xmm9,%xmm2 .byte 15,88,208 // addps %xmm0,%xmm2 - .byte 68,15,88,5,130,186,1,0 // addps 0x1ba82(%rip),%xmm8 # 3a4b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf5c> - .byte 68,15,89,5,138,186,1,0 // mulps 0x1ba8a(%rip),%xmm8 # 3a4c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf6c> - .byte 15,89,13,147,186,1,0 // mulps 0x1ba93(%rip),%xmm1 # 3a4d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf7c> + .byte 68,15,88,5,71,189,1,0 // addps 0x1bd47(%rip),%xmm8 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0xf68> + .byte 68,15,89,5,79,189,1,0 // mulps 0x1bd4f(%rip),%xmm8 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0xf78> + .byte 15,89,13,88,189,1,0 // mulps 0x1bd58(%rip),%xmm1 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88> .byte 65,15,88,200 // addps %xmm8,%xmm1 - .byte 15,89,21,152,186,1,0 // mulps 0x1ba98(%rip),%xmm2 # 3a4e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf8c> + .byte 15,89,21,93,189,1,0 // mulps 0x1bd5d(%rip),%xmm2 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0xf98> .byte 69,15,40,208 // movaps %xmm8,%xmm10 .byte 68,15,92,210 // subps %xmm2,%xmm10 .byte 68,15,40,217 // movaps %xmm1,%xmm11 .byte 69,15,89,219 // mulps %xmm11,%xmm11 .byte 68,15,89,217 // mulps %xmm1,%xmm11 - .byte 68,15,40,13,140,186,1,0 // movaps 0x1ba8c(%rip),%xmm9 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf9c> + .byte 68,15,40,13,81,189,1,0 // movaps 0x1bd51(%rip),%xmm9 # 3af10 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8> .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0 - .byte 15,40,21,140,186,1,0 // movaps 0x1ba8c(%rip),%xmm2 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0xfac> + .byte 15,40,21,81,189,1,0 // movaps 0x1bd51(%rip),%xmm2 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8> .byte 15,88,202 // addps %xmm2,%xmm1 - .byte 68,15,40,37,145,186,1,0 // movaps 0x1ba91(%rip),%xmm12 # 3a510 <_sk_srcover_bgra_8888_sse2_lowp+0xfbc> + .byte 68,15,40,37,86,189,1,0 // movaps 0x1bd56(%rip),%xmm12 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8> .byte 65,15,89,204 // mulps %xmm12,%xmm1 .byte 102,65,15,56,20,203 // blendvps %xmm0,%xmm11,%xmm1 .byte 69,15,40,216 // movaps %xmm8,%xmm11 @@ -29535,8 +29921,8 @@ _sk_lab_to_xyz_sse41: .byte 65,15,89,212 // mulps %xmm12,%xmm2 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2 - .byte 15,89,13,74,186,1,0 // mulps 0x1ba4a(%rip),%xmm1 # 3a520 <_sk_srcover_bgra_8888_sse2_lowp+0xfcc> - .byte 15,89,21,83,186,1,0 // mulps 0x1ba53(%rip),%xmm2 # 3a530 <_sk_srcover_bgra_8888_sse2_lowp+0xfdc> + .byte 15,89,13,15,189,1,0 // mulps 0x1bd0f(%rip),%xmm1 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8> + .byte 15,89,21,24,189,1,0 // mulps 0x1bd18(%rip),%xmm2 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 65,15,40,200 // movaps %xmm8,%xmm1 @@ -29553,11 +29939,11 @@ _sk_load_a8_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,39 // jne 1eb27 <_sk_load_a8_sse41+0x3f> + .byte 117,39 // jne 1f282 <_sk_load_a8_sse41+0x3f> .byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0 - .byte 102,15,219,5,209,182,1,0 // pand 0x1b6d1(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,219,5,150,185,1,0 // pand 0x1b996(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3 - .byte 15,89,29,39,184,1,0 // mulps 0x1b827(%rip),%xmm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 15,89,29,236,186,1,0 // mulps 0x1baec(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 @@ -29566,12 +29952,12 @@ _sk_load_a8_sse41: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,53 // je 1eb69 <_sk_load_a8_sse41+0x81> + .byte 116,53 // je 1f2c4 <_sk_load_a8_sse41+0x81> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,21 // je 1eb53 <_sk_load_a8_sse41+0x6b> + .byte 116,21 // je 1f2ae <_sk_load_a8_sse41+0x6b> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,195 // jne 1eb07 <_sk_load_a8_sse41+0x1f> + .byte 117,195 // jne 1f262 <_sk_load_a8_sse41+0x1f> .byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 @@ -29579,10 +29965,10 @@ _sk_load_a8_sse41: .byte 102,15,110,200 // movd %eax,%xmm1 .byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1 .byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0 - .byte 235,158 // jmp 1eb07 <_sk_load_a8_sse41+0x1f> + .byte 235,158 // jmp 1f262 <_sk_load_a8_sse41+0x1f> .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 - .byte 235,147 // jmp 1eb07 <_sk_load_a8_sse41+0x1f> + .byte 235,147 // jmp 1f262 <_sk_load_a8_sse41+0x1f> HIDDEN _sk_load_a8_dst_sse41 .globl _sk_load_a8_dst_sse41 @@ -29595,11 +29981,11 @@ _sk_load_a8_dst_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,39 // jne 1ebb3 <_sk_load_a8_dst_sse41+0x3f> + .byte 117,39 // jne 1f30e <_sk_load_a8_dst_sse41+0x3f> .byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4 - .byte 102,15,219,37,69,182,1,0 // pand 0x1b645(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,219,37,10,185,1,0 // pand 0x1b90a(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 15,91,252 // cvtdq2ps %xmm4,%xmm7 - .byte 15,89,61,155,183,1,0 // mulps 0x1b79b(%rip),%xmm7 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 15,89,61,96,186,1,0 // mulps 0x1ba60(%rip),%xmm7 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 102,15,239,237 // pxor %xmm5,%xmm5 @@ -29608,12 +29994,12 @@ _sk_load_a8_dst_sse41: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,53 // je 1ebf5 <_sk_load_a8_dst_sse41+0x81> + .byte 116,53 // je 1f350 <_sk_load_a8_dst_sse41+0x81> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,21 // je 1ebdf <_sk_load_a8_dst_sse41+0x6b> + .byte 116,21 // je 1f33a <_sk_load_a8_dst_sse41+0x6b> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,195 // jne 1eb93 <_sk_load_a8_dst_sse41+0x1f> + .byte 117,195 // jne 1f2ee <_sk_load_a8_dst_sse41+0x1f> .byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 @@ -29621,10 +30007,10 @@ _sk_load_a8_dst_sse41: .byte 102,15,110,232 // movd %eax,%xmm5 .byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5 .byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4 - .byte 235,158 // jmp 1eb93 <_sk_load_a8_dst_sse41+0x1f> + .byte 235,158 // jmp 1f2ee <_sk_load_a8_dst_sse41+0x1f> .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax .byte 102,15,110,224 // movd %eax,%xmm4 - .byte 235,147 // jmp 1eb93 <_sk_load_a8_dst_sse41+0x1f> + .byte 235,147 // jmp 1f2ee <_sk_load_a8_dst_sse41+0x1f> HIDDEN _sk_gather_a8_sse41 .globl _sk_gather_a8_sse41 @@ -29667,7 +30053,7 @@ _sk_gather_a8_sse41: .byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0 .byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0 .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3 - .byte 15,89,29,147,182,1,0 // mulps 0x1b693(%rip),%xmm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 15,89,29,88,185,1,0 // mulps 0x1b958(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 @@ -29684,13 +30070,15 @@ _sk_store_a8_sse41: .byte 77,15,175,193 // imul %r9,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 - .byte 68,15,40,5,58,181,1,0 // movaps 0x1b53a(%rip),%xmm8 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> - .byte 68,15,89,195 // mulps %xmm3,%xmm8 + .byte 69,15,87,192 // xorps %xmm8,%xmm8 + .byte 68,15,95,195 // maxps %xmm3,%xmm8 + .byte 68,15,93,5,23,183,1,0 // minps 0x1b717(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 68,15,89,5,239,183,1,0 // mulps 0x1b7ef(%rip),%xmm8 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8 .byte 102,68,15,103,192 // packuswb %xmm0,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,13 // jne 1ecfc <_sk_store_a8_sse41+0x41> + .byte 117,13 // jne 1f463 <_sk_store_a8_sse41+0x4d> .byte 102,68,15,126,192 // movd %xmm8,%eax .byte 67,137,4,16 // mov %eax,(%r8,%r10,1) .byte 72,173 // lods %ds:(%rsi),%rax @@ -29699,17 +30087,17 @@ _sk_store_a8_sse41: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,41 // je 1ed38 <_sk_store_a8_sse41+0x7d> + .byte 116,41 // je 1f49f <_sk_store_a8_sse41+0x89> .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,15 // je 1ed24 <_sk_store_a8_sse41+0x69> + .byte 116,15 // je 1f48b <_sk_store_a8_sse41+0x75> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,221 // jne 1ecf8 <_sk_store_a8_sse41+0x3d> + .byte 117,221 // jne 1f45f <_sk_store_a8_sse41+0x49> .byte 102,71,15,58,20,68,16,2,8 // pextrb $0x8,%xmm8,0x2(%r8,%r10,1) - .byte 102,68,15,56,0,5,18,184,1,0 // pshufb 0x1b812(%rip),%xmm8 # 3a540 <_sk_srcover_bgra_8888_sse2_lowp+0xfec> + .byte 102,68,15,56,0,5,203,186,1,0 // pshufb 0x1bacb(%rip),%xmm8 # 3af60 <_sk_srcover_bgra_8888_sse2_lowp+0xff8> .byte 102,71,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%r10,1) - .byte 235,192 // jmp 1ecf8 <_sk_store_a8_sse41+0x3d> + .byte 235,192 // jmp 1f45f <_sk_store_a8_sse41+0x49> .byte 102,71,15,58,20,4,16,0 // pextrb $0x0,%xmm8,(%r8,%r10,1) - .byte 235,182 // jmp 1ecf8 <_sk_store_a8_sse41+0x3d> + .byte 235,182 // jmp 1f45f <_sk_store_a8_sse41+0x49> HIDDEN _sk_load_g8_sse41 .globl _sk_load_g8_sse41 @@ -29722,25 +30110,25 @@ _sk_load_g8_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,42 // jne 1ed84 <_sk_load_g8_sse41+0x42> + .byte 117,42 // jne 1f4eb <_sk_load_g8_sse41+0x42> .byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0 - .byte 102,15,219,5,119,180,1,0 // pand 0x1b477(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,219,5,48,183,1,0 // pand 0x1b730(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,89,5,205,181,1,0 // mulps 0x1b5cd(%rip),%xmm0 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 15,89,5,134,184,1,0 // mulps 0x1b886(%rip),%xmm0 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,180,179,1,0 // movaps 0x1b3b4(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,29,109,182,1,0 // movaps 0x1b66d(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,53 // je 1edc6 <_sk_load_g8_sse41+0x84> + .byte 116,53 // je 1f52d <_sk_load_g8_sse41+0x84> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,21 // je 1edb0 <_sk_load_g8_sse41+0x6e> + .byte 116,21 // je 1f517 <_sk_load_g8_sse41+0x6e> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,192 // jne 1ed61 <_sk_load_g8_sse41+0x1f> + .byte 117,192 // jne 1f4c8 <_sk_load_g8_sse41+0x1f> .byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 @@ -29748,10 +30136,10 @@ _sk_load_g8_sse41: .byte 102,15,110,200 // movd %eax,%xmm1 .byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1 .byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0 - .byte 235,155 // jmp 1ed61 <_sk_load_g8_sse41+0x1f> + .byte 235,155 // jmp 1f4c8 <_sk_load_g8_sse41+0x1f> .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 - .byte 235,144 // jmp 1ed61 <_sk_load_g8_sse41+0x1f> + .byte 235,144 // jmp 1f4c8 <_sk_load_g8_sse41+0x1f> HIDDEN _sk_load_g8_dst_sse41 .globl _sk_load_g8_dst_sse41 @@ -29764,25 +30152,25 @@ _sk_load_g8_dst_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,42 // jne 1ee13 <_sk_load_g8_dst_sse41+0x42> + .byte 117,42 // jne 1f57a <_sk_load_g8_dst_sse41+0x42> .byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4 - .byte 102,15,219,37,232,179,1,0 // pand 0x1b3e8(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,219,37,161,182,1,0 // pand 0x1b6a1(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 15,89,37,62,181,1,0 // mulps 0x1b53e(%rip),%xmm4 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 15,89,37,247,183,1,0 // mulps 0x1b7f7(%rip),%xmm4 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,61,37,179,1,0 // movaps 0x1b325(%rip),%xmm7 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,61,222,181,1,0 // movaps 0x1b5de(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,40,244 // movaps %xmm4,%xmm6 .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,53 // je 1ee55 <_sk_load_g8_dst_sse41+0x84> + .byte 116,53 // je 1f5bc <_sk_load_g8_dst_sse41+0x84> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,21 // je 1ee3f <_sk_load_g8_dst_sse41+0x6e> + .byte 116,21 // je 1f5a6 <_sk_load_g8_dst_sse41+0x6e> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,192 // jne 1edf0 <_sk_load_g8_dst_sse41+0x1f> + .byte 117,192 // jne 1f557 <_sk_load_g8_dst_sse41+0x1f> .byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 @@ -29790,10 +30178,10 @@ _sk_load_g8_dst_sse41: .byte 102,15,110,232 // movd %eax,%xmm5 .byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5 .byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4 - .byte 235,155 // jmp 1edf0 <_sk_load_g8_dst_sse41+0x1f> + .byte 235,155 // jmp 1f557 <_sk_load_g8_dst_sse41+0x1f> .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax .byte 102,15,110,224 // movd %eax,%xmm4 - .byte 235,144 // jmp 1edf0 <_sk_load_g8_dst_sse41+0x1f> + .byte 235,144 // jmp 1f557 <_sk_load_g8_dst_sse41+0x1f> HIDDEN _sk_gather_g8_sse41 .globl _sk_gather_g8_sse41 @@ -29836,9 +30224,9 @@ _sk_gather_g8_sse41: .byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0 .byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,89,5,51,180,1,0 // mulps 0x1b433(%rip),%xmm0 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 15,89,5,236,182,1,0 // mulps 0x1b6ec(%rip),%xmm0 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,26,178,1,0 // movaps 0x1b21a(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,29,211,180,1,0 // movaps 0x1b4d3(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 255,224 // jmpq *%rax @@ -29855,41 +30243,41 @@ _sk_load_565_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,80 // jne 1ef89 <_sk_load_565_sse41+0x6b> + .byte 117,80 // jne 1f6f0 <_sk_load_565_sse41+0x6b> .byte 102,67,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm2 - .byte 102,15,111,5,8,180,1,0 // movdqa 0x1b408(%rip),%xmm0 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc> + .byte 102,15,111,5,193,182,1,0 // movdqa 0x1b6c1(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08> .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,89,5,10,180,1,0 // mulps 0x1b40a(%rip),%xmm0 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c> - .byte 102,15,111,13,18,180,1,0 // movdqa 0x1b412(%rip),%xmm1 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c> + .byte 15,89,5,195,182,1,0 // mulps 0x1b6c3(%rip),%xmm0 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18> + .byte 102,15,111,13,203,182,1,0 // movdqa 0x1b6cb(%rip),%xmm1 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28> .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 - .byte 15,89,13,20,180,1,0 // mulps 0x1b414(%rip),%xmm1 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c> - .byte 102,15,219,21,28,180,1,0 // pand 0x1b41c(%rip),%xmm2 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c> + .byte 15,89,13,205,182,1,0 // mulps 0x1b6cd(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38> + .byte 102,15,219,21,213,182,1,0 // pand 0x1b6d5(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48> .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 - .byte 15,89,21,34,180,1,0 // mulps 0x1b422(%rip),%xmm2 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c> + .byte 15,89,21,219,182,1,0 // mulps 0x1b6db(%rip),%xmm2 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,169,177,1,0 // movaps 0x1b1a9(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,29,98,180,1,0 // movaps 0x1b462(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,53 // je 1efcb <_sk_load_565_sse41+0xad> + .byte 116,53 // je 1f732 <_sk_load_565_sse41+0xad> .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,21 // je 1efb5 <_sk_load_565_sse41+0x97> + .byte 116,21 // je 1f71c <_sk_load_565_sse41+0x97> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,154 // jne 1ef40 <_sk_load_565_sse41+0x22> + .byte 117,154 // jne 1f6a7 <_sk_load_565_sse41+0x22> .byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2 .byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0 .byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0 .byte 102,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm2 - .byte 233,117,255,255,255 // jmpq 1ef40 <_sk_load_565_sse41+0x22> + .byte 233,117,255,255,255 // jmpq 1f6a7 <_sk_load_565_sse41+0x22> .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax .byte 102,15,110,208 // movd %eax,%xmm2 - .byte 233,103,255,255,255 // jmpq 1ef40 <_sk_load_565_sse41+0x22> + .byte 233,103,255,255,255 // jmpq 1f6a7 <_sk_load_565_sse41+0x22> HIDDEN _sk_load_565_dst_sse41 .globl _sk_load_565_dst_sse41 @@ -29903,41 +30291,41 @@ _sk_load_565_dst_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,80 // jne 1f044 <_sk_load_565_dst_sse41+0x6b> + .byte 117,80 // jne 1f7ab <_sk_load_565_dst_sse41+0x6b> .byte 102,67,15,56,51,52,80 // pmovzxwd (%r8,%r10,2),%xmm6 - .byte 102,15,111,37,77,179,1,0 // movdqa 0x1b34d(%rip),%xmm4 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc> + .byte 102,15,111,37,6,182,1,0 // movdqa 0x1b606(%rip),%xmm4 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08> .byte 102,15,219,230 // pand %xmm6,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 15,89,37,79,179,1,0 // mulps 0x1b34f(%rip),%xmm4 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c> - .byte 102,15,111,45,87,179,1,0 // movdqa 0x1b357(%rip),%xmm5 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c> + .byte 15,89,37,8,182,1,0 // mulps 0x1b608(%rip),%xmm4 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18> + .byte 102,15,111,45,16,182,1,0 // movdqa 0x1b610(%rip),%xmm5 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28> .byte 102,15,219,238 // pand %xmm6,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 - .byte 15,89,45,89,179,1,0 // mulps 0x1b359(%rip),%xmm5 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c> - .byte 102,15,219,53,97,179,1,0 // pand 0x1b361(%rip),%xmm6 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c> + .byte 15,89,45,18,182,1,0 // mulps 0x1b612(%rip),%xmm5 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38> + .byte 102,15,219,53,26,182,1,0 // pand 0x1b61a(%rip),%xmm6 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48> .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 - .byte 15,89,53,103,179,1,0 // mulps 0x1b367(%rip),%xmm6 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c> + .byte 15,89,53,32,182,1,0 // mulps 0x1b620(%rip),%xmm6 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,61,238,176,1,0 // movaps 0x1b0ee(%rip),%xmm7 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,61,167,179,1,0 // movaps 0x1b3a7(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,53 // je 1f086 <_sk_load_565_dst_sse41+0xad> + .byte 116,53 // je 1f7ed <_sk_load_565_dst_sse41+0xad> .byte 102,15,239,246 // pxor %xmm6,%xmm6 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,21 // je 1f070 <_sk_load_565_dst_sse41+0x97> + .byte 116,21 // je 1f7d7 <_sk_load_565_dst_sse41+0x97> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,154 // jne 1effb <_sk_load_565_dst_sse41+0x22> + .byte 117,154 // jne 1f762 <_sk_load_565_dst_sse41+0x22> .byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6 .byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4 .byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4 .byte 102,15,58,14,244,15 // pblendw $0xf,%xmm4,%xmm6 - .byte 233,117,255,255,255 // jmpq 1effb <_sk_load_565_dst_sse41+0x22> + .byte 233,117,255,255,255 // jmpq 1f762 <_sk_load_565_dst_sse41+0x22> .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax .byte 102,15,110,240 // movd %eax,%xmm6 - .byte 233,103,255,255,255 // jmpq 1effb <_sk_load_565_dst_sse41+0x22> + .byte 233,103,255,255,255 // jmpq 1f762 <_sk_load_565_dst_sse41+0x22> HIDDEN _sk_gather_565_sse41 .globl _sk_gather_565_sse41 @@ -29979,19 +30367,19 @@ _sk_gather_565_sse41: .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax .byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0 .byte 102,15,56,51,208 // pmovzxwd %xmm0,%xmm2 - .byte 102,15,111,5,20,178,1,0 // movdqa 0x1b214(%rip),%xmm0 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc> + .byte 102,15,111,5,205,180,1,0 // movdqa 0x1b4cd(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08> .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,89,5,22,178,1,0 // mulps 0x1b216(%rip),%xmm0 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c> - .byte 102,15,111,13,30,178,1,0 // movdqa 0x1b21e(%rip),%xmm1 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c> + .byte 15,89,5,207,180,1,0 // mulps 0x1b4cf(%rip),%xmm0 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18> + .byte 102,15,111,13,215,180,1,0 // movdqa 0x1b4d7(%rip),%xmm1 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28> .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 - .byte 15,89,13,32,178,1,0 // mulps 0x1b220(%rip),%xmm1 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c> - .byte 102,15,219,21,40,178,1,0 // pand 0x1b228(%rip),%xmm2 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c> + .byte 15,89,13,217,180,1,0 // mulps 0x1b4d9(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38> + .byte 102,15,219,21,225,180,1,0 // pand 0x1b4e1(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48> .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 - .byte 15,89,21,46,178,1,0 // mulps 0x1b22e(%rip),%xmm2 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c> + .byte 15,89,21,231,180,1,0 // mulps 0x1b4e7(%rip),%xmm2 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,181,175,1,0 // movaps 0x1afb5(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,29,110,178,1,0 // movaps 0x1b26e(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 255,224 // jmpq *%rax HIDDEN _sk_store_565_sse41 @@ -30005,22 +30393,30 @@ _sk_store_565_sse41: .byte 77,1,192 // add %r8,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax - .byte 68,15,40,5,181,179,1,0 // movaps 0x1b3b5(%rip),%xmm8 # 3a550 <_sk_srcover_bgra_8888_sse2_lowp+0xffc> - .byte 68,15,40,200 // movaps %xmm0,%xmm9 - .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 69,15,87,192 // xorps %xmm8,%xmm8 + .byte 69,15,87,201 // xorps %xmm9,%xmm9 + .byte 68,15,95,200 // maxps %xmm0,%xmm9 + .byte 68,15,40,21,66,178,1,0 // movaps 0x1b242(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,93,202 // minps %xmm10,%xmm9 + .byte 68,15,40,29,86,182,1,0 // movaps 0x1b656(%rip),%xmm11 # 3af70 <_sk_srcover_bgra_8888_sse2_lowp+0x1008> + .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,11 // pslld $0xb,%xmm9 - .byte 68,15,40,21,170,179,1,0 // movaps 0x1b3aa(%rip),%xmm10 # 3a560 <_sk_srcover_bgra_8888_sse2_lowp+0x100c> - .byte 68,15,89,209 // mulps %xmm1,%xmm10 - .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 - .byte 102,65,15,114,242,5 // pslld $0x5,%xmm10 - .byte 102,69,15,235,209 // por %xmm9,%xmm10 - .byte 68,15,89,194 // mulps %xmm2,%xmm8 + .byte 69,15,87,228 // xorps %xmm12,%xmm12 + .byte 68,15,95,225 // maxps %xmm1,%xmm12 + .byte 69,15,93,226 // minps %xmm10,%xmm12 + .byte 68,15,89,37,67,182,1,0 // mulps 0x1b643(%rip),%xmm12 # 3af80 <_sk_srcover_bgra_8888_sse2_lowp+0x1018> + .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12 + .byte 102,65,15,114,244,5 // pslld $0x5,%xmm12 + .byte 68,15,95,194 // maxps %xmm2,%xmm8 + .byte 69,15,93,194 // minps %xmm10,%xmm8 + .byte 69,15,89,195 // mulps %xmm11,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 - .byte 102,69,15,86,194 // orpd %xmm10,%xmm8 + .byte 102,69,15,86,193 // orpd %xmm9,%xmm8 + .byte 102,69,15,86,196 // orpd %xmm12,%xmm8 .byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne 1f1ed <_sk_store_565_sse41+0x70> + .byte 117,10 // jne 1f978 <_sk_store_565_sse41+0x94> .byte 102,69,15,214,4,64 // movq %xmm8,(%r8,%rax,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -30028,17 +30424,17 @@ _sk_store_565_sse41: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,35 // je 1f223 <_sk_store_565_sse41+0xa6> + .byte 116,35 // je 1f9ae <_sk_store_565_sse41+0xca> .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,15 // je 1f215 <_sk_store_565_sse41+0x98> + .byte 116,15 // je 1f9a0 <_sk_store_565_sse41+0xbc> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,221 // jne 1f1e9 <_sk_store_565_sse41+0x6c> + .byte 117,221 // jne 1f974 <_sk_store_565_sse41+0x90> .byte 102,69,15,58,21,68,64,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rax,2) .byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8 .byte 102,69,15,126,4,64 // movd %xmm8,(%r8,%rax,2) - .byte 235,198 // jmp 1f1e9 <_sk_store_565_sse41+0x6c> + .byte 235,198 // jmp 1f974 <_sk_store_565_sse41+0x90> .byte 102,69,15,58,21,4,64,0 // pextrw $0x0,%xmm8,(%r8,%rax,2) - .byte 235,188 // jmp 1f1e9 <_sk_store_565_sse41+0x6c> + .byte 235,188 // jmp 1f974 <_sk_store_565_sse41+0x90> HIDDEN _sk_load_4444_sse41 .globl _sk_load_4444_sse41 @@ -30052,44 +30448,44 @@ _sk_load_4444_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,95 // jne 1f2a7 <_sk_load_4444_sse41+0x7a> + .byte 117,95 // jne 1fa32 <_sk_load_4444_sse41+0x7a> .byte 102,67,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm3 - .byte 102,15,111,5,25,179,1,0 // movdqa 0x1b319(%rip),%xmm0 # 3a570 <_sk_srcover_bgra_8888_sse2_lowp+0x101c> + .byte 102,15,111,5,174,181,1,0 // movdqa 0x1b5ae(%rip),%xmm0 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028> .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,89,5,27,179,1,0 // mulps 0x1b31b(%rip),%xmm0 # 3a580 <_sk_srcover_bgra_8888_sse2_lowp+0x102c> - .byte 102,15,111,13,35,179,1,0 // movdqa 0x1b323(%rip),%xmm1 # 3a590 <_sk_srcover_bgra_8888_sse2_lowp+0x103c> + .byte 15,89,5,176,181,1,0 // mulps 0x1b5b0(%rip),%xmm0 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038> + .byte 102,15,111,13,184,181,1,0 // movdqa 0x1b5b8(%rip),%xmm1 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048> .byte 102,15,219,203 // pand %xmm3,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 - .byte 15,89,13,37,179,1,0 // mulps 0x1b325(%rip),%xmm1 # 3a5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x104c> - .byte 102,15,111,21,45,179,1,0 // movdqa 0x1b32d(%rip),%xmm2 # 3a5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x105c> + .byte 15,89,13,186,181,1,0 // mulps 0x1b5ba(%rip),%xmm1 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058> + .byte 102,15,111,21,194,181,1,0 // movdqa 0x1b5c2(%rip),%xmm2 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068> .byte 102,15,219,211 // pand %xmm3,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 - .byte 15,89,21,47,179,1,0 // mulps 0x1b32f(%rip),%xmm2 # 3a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x106c> - .byte 102,15,219,29,55,179,1,0 // pand 0x1b337(%rip),%xmm3 # 3a5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x107c> + .byte 15,89,21,196,181,1,0 // mulps 0x1b5c4(%rip),%xmm2 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078> + .byte 102,15,219,29,204,181,1,0 // pand 0x1b5cc(%rip),%xmm3 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088> .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 - .byte 15,89,29,61,179,1,0 // mulps 0x1b33d(%rip),%xmm3 # 3a5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x108c> + .byte 15,89,29,210,181,1,0 // mulps 0x1b5d2(%rip),%xmm3 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,53 // je 1f2e9 <_sk_load_4444_sse41+0xbc> + .byte 116,53 // je 1fa74 <_sk_load_4444_sse41+0xbc> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,21 // je 1f2d3 <_sk_load_4444_sse41+0xa6> + .byte 116,21 // je 1fa5e <_sk_load_4444_sse41+0xa6> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,139 // jne 1f24f <_sk_load_4444_sse41+0x22> + .byte 117,139 // jne 1f9da <_sk_load_4444_sse41+0x22> .byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0 .byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0 .byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3 - .byte 233,102,255,255,255 // jmpq 1f24f <_sk_load_4444_sse41+0x22> + .byte 233,102,255,255,255 // jmpq 1f9da <_sk_load_4444_sse41+0x22> .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax .byte 102,15,110,216 // movd %eax,%xmm3 - .byte 233,88,255,255,255 // jmpq 1f24f <_sk_load_4444_sse41+0x22> + .byte 233,88,255,255,255 // jmpq 1f9da <_sk_load_4444_sse41+0x22> HIDDEN _sk_load_4444_dst_sse41 .globl _sk_load_4444_dst_sse41 @@ -30103,44 +30499,44 @@ _sk_load_4444_dst_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,95 // jne 1f371 <_sk_load_4444_dst_sse41+0x7a> + .byte 117,95 // jne 1fafc <_sk_load_4444_dst_sse41+0x7a> .byte 102,67,15,56,51,60,80 // pmovzxwd (%r8,%r10,2),%xmm7 - .byte 102,15,111,37,79,178,1,0 // movdqa 0x1b24f(%rip),%xmm4 # 3a570 <_sk_srcover_bgra_8888_sse2_lowp+0x101c> + .byte 102,15,111,37,228,180,1,0 // movdqa 0x1b4e4(%rip),%xmm4 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028> .byte 102,15,219,231 // pand %xmm7,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 15,89,37,81,178,1,0 // mulps 0x1b251(%rip),%xmm4 # 3a580 <_sk_srcover_bgra_8888_sse2_lowp+0x102c> - .byte 102,15,111,45,89,178,1,0 // movdqa 0x1b259(%rip),%xmm5 # 3a590 <_sk_srcover_bgra_8888_sse2_lowp+0x103c> + .byte 15,89,37,230,180,1,0 // mulps 0x1b4e6(%rip),%xmm4 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038> + .byte 102,15,111,45,238,180,1,0 // movdqa 0x1b4ee(%rip),%xmm5 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048> .byte 102,15,219,239 // pand %xmm7,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 - .byte 15,89,45,91,178,1,0 // mulps 0x1b25b(%rip),%xmm5 # 3a5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x104c> - .byte 102,15,111,53,99,178,1,0 // movdqa 0x1b263(%rip),%xmm6 # 3a5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x105c> + .byte 15,89,45,240,180,1,0 // mulps 0x1b4f0(%rip),%xmm5 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058> + .byte 102,15,111,53,248,180,1,0 // movdqa 0x1b4f8(%rip),%xmm6 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068> .byte 102,15,219,247 // pand %xmm7,%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 - .byte 15,89,53,101,178,1,0 // mulps 0x1b265(%rip),%xmm6 # 3a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x106c> - .byte 102,15,219,61,109,178,1,0 // pand 0x1b26d(%rip),%xmm7 # 3a5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x107c> + .byte 15,89,53,250,180,1,0 // mulps 0x1b4fa(%rip),%xmm6 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078> + .byte 102,15,219,61,2,181,1,0 // pand 0x1b502(%rip),%xmm7 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088> .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7 - .byte 15,89,61,115,178,1,0 // mulps 0x1b273(%rip),%xmm7 # 3a5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x108c> + .byte 15,89,61,8,181,1,0 // mulps 0x1b508(%rip),%xmm7 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,53 // je 1f3b3 <_sk_load_4444_dst_sse41+0xbc> + .byte 116,53 // je 1fb3e <_sk_load_4444_dst_sse41+0xbc> .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,21 // je 1f39d <_sk_load_4444_dst_sse41+0xa6> + .byte 116,21 // je 1fb28 <_sk_load_4444_dst_sse41+0xa6> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,139 // jne 1f319 <_sk_load_4444_dst_sse41+0x22> + .byte 117,139 // jne 1faa4 <_sk_load_4444_dst_sse41+0x22> .byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7 .byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4 .byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4 .byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7 - .byte 233,102,255,255,255 // jmpq 1f319 <_sk_load_4444_dst_sse41+0x22> + .byte 233,102,255,255,255 // jmpq 1faa4 <_sk_load_4444_dst_sse41+0x22> .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax .byte 102,15,110,248 // movd %eax,%xmm7 - .byte 233,88,255,255,255 // jmpq 1f319 <_sk_load_4444_dst_sse41+0x22> + .byte 233,88,255,255,255 // jmpq 1faa4 <_sk_load_4444_dst_sse41+0x22> HIDDEN _sk_gather_4444_sse41 .globl _sk_gather_4444_sse41 @@ -30182,21 +30578,21 @@ _sk_gather_4444_sse41: .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax .byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0 .byte 102,15,56,51,216 // pmovzxwd %xmm0,%xmm3 - .byte 102,15,111,5,7,177,1,0 // movdqa 0x1b107(%rip),%xmm0 # 3a570 <_sk_srcover_bgra_8888_sse2_lowp+0x101c> + .byte 102,15,111,5,156,179,1,0 // movdqa 0x1b39c(%rip),%xmm0 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028> .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,89,5,9,177,1,0 // mulps 0x1b109(%rip),%xmm0 # 3a580 <_sk_srcover_bgra_8888_sse2_lowp+0x102c> - .byte 102,15,111,13,17,177,1,0 // movdqa 0x1b111(%rip),%xmm1 # 3a590 <_sk_srcover_bgra_8888_sse2_lowp+0x103c> + .byte 15,89,5,158,179,1,0 // mulps 0x1b39e(%rip),%xmm0 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038> + .byte 102,15,111,13,166,179,1,0 // movdqa 0x1b3a6(%rip),%xmm1 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048> .byte 102,15,219,203 // pand %xmm3,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 - .byte 15,89,13,19,177,1,0 // mulps 0x1b113(%rip),%xmm1 # 3a5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x104c> - .byte 102,15,111,21,27,177,1,0 // movdqa 0x1b11b(%rip),%xmm2 # 3a5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x105c> + .byte 15,89,13,168,179,1,0 // mulps 0x1b3a8(%rip),%xmm1 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058> + .byte 102,15,111,21,176,179,1,0 // movdqa 0x1b3b0(%rip),%xmm2 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068> .byte 102,15,219,211 // pand %xmm3,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 - .byte 15,89,21,29,177,1,0 // mulps 0x1b11d(%rip),%xmm2 # 3a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x106c> - .byte 102,15,219,29,37,177,1,0 // pand 0x1b125(%rip),%xmm3 # 3a5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x107c> + .byte 15,89,21,178,179,1,0 // mulps 0x1b3b2(%rip),%xmm2 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078> + .byte 102,15,219,29,186,179,1,0 // pand 0x1b3ba(%rip),%xmm3 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088> .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 - .byte 15,89,29,43,177,1,0 // mulps 0x1b12b(%rip),%xmm3 # 3a5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x108c> + .byte 15,89,29,192,179,1,0 // mulps 0x1b3c0(%rip),%xmm3 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -30211,27 +30607,37 @@ _sk_store_4444_sse41: .byte 77,1,192 // add %r8,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax - .byte 68,15,40,5,25,177,1,0 // movaps 0x1b119(%rip),%xmm8 # 3a5f0 <_sk_srcover_bgra_8888_sse2_lowp+0x109c> - .byte 68,15,40,200 // movaps %xmm0,%xmm9 - .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 69,15,87,192 // xorps %xmm8,%xmm8 + .byte 69,15,87,201 // xorps %xmm9,%xmm9 + .byte 68,15,95,200 // maxps %xmm0,%xmm9 + .byte 68,15,40,21,226,174,1,0 // movaps 0x1aee2(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,93,202 // minps %xmm10,%xmm9 + .byte 68,15,40,29,150,179,1,0 // movaps 0x1b396(%rip),%xmm11 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8> + .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,12 // pslld $0xc,%xmm9 - .byte 68,15,40,209 // movaps %xmm1,%xmm10 - .byte 69,15,89,208 // mulps %xmm8,%xmm10 - .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 - .byte 102,65,15,114,242,8 // pslld $0x8,%xmm10 - .byte 102,69,15,235,209 // por %xmm9,%xmm10 - .byte 68,15,40,202 // movaps %xmm2,%xmm9 - .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 69,15,87,228 // xorps %xmm12,%xmm12 + .byte 68,15,95,225 // maxps %xmm1,%xmm12 + .byte 69,15,93,226 // minps %xmm10,%xmm12 + .byte 69,15,89,227 // mulps %xmm11,%xmm12 + .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12 + .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12 + .byte 102,69,15,235,225 // por %xmm9,%xmm12 + .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 + .byte 68,15,95,202 // maxps %xmm2,%xmm9 + .byte 69,15,93,202 // minps %xmm10,%xmm9 + .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,4 // pslld $0x4,%xmm9 - .byte 68,15,89,195 // mulps %xmm3,%xmm8 + .byte 68,15,95,195 // maxps %xmm3,%xmm8 + .byte 69,15,93,194 // minps %xmm10,%xmm8 + .byte 69,15,89,195 // mulps %xmm11,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,69,15,86,193 // orpd %xmm9,%xmm8 - .byte 102,69,15,86,194 // orpd %xmm10,%xmm8 + .byte 102,69,15,86,196 // orpd %xmm12,%xmm8 .byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne 1f53d <_sk_store_4444_sse41+0x84> + .byte 117,10 // jne 1fcf5 <_sk_store_4444_sse41+0xb1> .byte 102,69,15,214,4,64 // movq %xmm8,(%r8,%rax,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -30239,17 +30645,17 @@ _sk_store_4444_sse41: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,35 // je 1f573 <_sk_store_4444_sse41+0xba> + .byte 116,35 // je 1fd2b <_sk_store_4444_sse41+0xe7> .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,15 // je 1f565 <_sk_store_4444_sse41+0xac> + .byte 116,15 // je 1fd1d <_sk_store_4444_sse41+0xd9> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,221 // jne 1f539 <_sk_store_4444_sse41+0x80> + .byte 117,221 // jne 1fcf1 <_sk_store_4444_sse41+0xad> .byte 102,69,15,58,21,68,64,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rax,2) .byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8 .byte 102,69,15,126,4,64 // movd %xmm8,(%r8,%rax,2) - .byte 235,198 // jmp 1f539 <_sk_store_4444_sse41+0x80> + .byte 235,198 // jmp 1fcf1 <_sk_store_4444_sse41+0xad> .byte 102,69,15,58,21,4,64,0 // pextrw $0x0,%xmm8,(%r8,%rax,2) - .byte 235,188 // jmp 1f539 <_sk_store_4444_sse41+0x80> + .byte 235,188 // jmp 1fcf1 <_sk_store_4444_sse41+0xad> HIDDEN _sk_load_8888_sse41 .globl _sk_load_8888_sse41 @@ -30263,19 +30669,19 @@ _sk_load_8888_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 117,89 // jne 1f5f2 <_sk_load_8888_sse41+0x75> + .byte 117,89 // jne 1fdaa <_sk_load_8888_sse41+0x75> .byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3 - .byte 102,15,111,5,57,172,1,0 // movdqa 0x1ac39(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,111,5,161,174,1,0 // movdqa 0x1aea1(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 68,15,40,5,138,173,1,0 // movaps 0x1ad8a(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 68,15,40,5,242,175,1,0 // movaps 0x1aff2(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 - .byte 102,15,56,0,13,41,172,1,0 // pshufb 0x1ac29(%rip),%xmm1 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc9c> + .byte 102,15,56,0,13,145,174,1,0 // pshufb 0x1ae91(%rip),%xmm1 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8> .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 102,15,111,211 // movdqa %xmm3,%xmm2 - .byte 102,15,56,0,21,37,172,1,0 // pshufb 0x1ac25(%rip),%xmm2 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0xcac> + .byte 102,15,56,0,21,141,174,1,0 // pshufb 0x1ae8d(%rip),%xmm2 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8> .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,15,114,211,24 // psrld $0x18,%xmm3 @@ -30286,19 +30692,19 @@ _sk_load_8888_sse41: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,45 // je 1f62c <_sk_load_8888_sse41+0xaf> + .byte 116,45 // je 1fde4 <_sk_load_8888_sse41+0xaf> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,18 // je 1f61b <_sk_load_8888_sse41+0x9e> + .byte 116,18 // je 1fdd3 <_sk_load_8888_sse41+0x9e> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,144 // jne 1f59f <_sk_load_8888_sse41+0x22> + .byte 117,144 // jne 1fd57 <_sk_load_8888_sse41+0x22> .byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 243,65,15,126,4,128 // movq (%r8,%rax,4),%xmm0 .byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3 - .byte 233,115,255,255,255 // jmpq 1f59f <_sk_load_8888_sse41+0x22> + .byte 233,115,255,255,255 // jmpq 1fd57 <_sk_load_8888_sse41+0x22> .byte 102,65,15,110,28,128 // movd (%r8,%rax,4),%xmm3 - .byte 233,104,255,255,255 // jmpq 1f59f <_sk_load_8888_sse41+0x22> + .byte 233,104,255,255,255 // jmpq 1fd57 <_sk_load_8888_sse41+0x22> HIDDEN _sk_load_8888_dst_sse41 .globl _sk_load_8888_dst_sse41 @@ -30312,19 +30718,19 @@ _sk_load_8888_dst_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 117,89 // jne 1f6ac <_sk_load_8888_dst_sse41+0x75> + .byte 117,89 // jne 1fe64 <_sk_load_8888_dst_sse41+0x75> .byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7 - .byte 102,15,111,37,127,171,1,0 // movdqa 0x1ab7f(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,111,37,231,173,1,0 // movdqa 0x1ade7(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 102,15,219,231 // pand %xmm7,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 68,15,40,5,208,172,1,0 // movaps 0x1acd0(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 68,15,40,5,56,175,1,0 // movaps 0x1af38(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 65,15,89,224 // mulps %xmm8,%xmm4 .byte 102,15,111,239 // movdqa %xmm7,%xmm5 - .byte 102,15,56,0,45,111,171,1,0 // pshufb 0x1ab6f(%rip),%xmm5 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc9c> + .byte 102,15,56,0,45,215,173,1,0 // pshufb 0x1add7(%rip),%xmm5 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8> .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 .byte 65,15,89,232 // mulps %xmm8,%xmm5 .byte 102,15,111,247 // movdqa %xmm7,%xmm6 - .byte 102,15,56,0,53,107,171,1,0 // pshufb 0x1ab6b(%rip),%xmm6 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0xcac> + .byte 102,15,56,0,53,211,173,1,0 // pshufb 0x1add3(%rip),%xmm6 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8> .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 65,15,89,240 // mulps %xmm8,%xmm6 .byte 102,15,114,215,24 // psrld $0x18,%xmm7 @@ -30335,19 +30741,19 @@ _sk_load_8888_dst_sse41: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,45 // je 1f6e6 <_sk_load_8888_dst_sse41+0xaf> + .byte 116,45 // je 1fe9e <_sk_load_8888_dst_sse41+0xaf> .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,18 // je 1f6d5 <_sk_load_8888_dst_sse41+0x9e> + .byte 116,18 // je 1fe8d <_sk_load_8888_dst_sse41+0x9e> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,144 // jne 1f659 <_sk_load_8888_dst_sse41+0x22> + .byte 117,144 // jne 1fe11 <_sk_load_8888_dst_sse41+0x22> .byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4 .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7 .byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4 .byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7 - .byte 233,115,255,255,255 // jmpq 1f659 <_sk_load_8888_dst_sse41+0x22> + .byte 233,115,255,255,255 // jmpq 1fe11 <_sk_load_8888_dst_sse41+0x22> .byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7 - .byte 233,104,255,255,255 // jmpq 1f659 <_sk_load_8888_dst_sse41+0x22> + .byte 233,104,255,255,255 // jmpq 1fe11 <_sk_load_8888_dst_sse41+0x22> HIDDEN _sk_gather_8888_sse41 .globl _sk_gather_8888_sse41 @@ -30384,17 +30790,17 @@ _sk_gather_8888_sse41: .byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3 .byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3 .byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3 - .byte 102,15,111,5,88,170,1,0 // movdqa 0x1aa58(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,111,5,192,172,1,0 // movdqa 0x1acc0(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 68,15,40,5,169,171,1,0 // movaps 0x1aba9(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 68,15,40,5,17,174,1,0 // movaps 0x1ae11(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 - .byte 102,15,56,0,13,72,170,1,0 // pshufb 0x1aa48(%rip),%xmm1 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc9c> + .byte 102,15,56,0,13,176,172,1,0 // pshufb 0x1acb0(%rip),%xmm1 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8> .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 102,15,111,211 // movdqa %xmm3,%xmm2 - .byte 102,15,56,0,21,68,170,1,0 // pshufb 0x1aa44(%rip),%xmm2 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0xcac> + .byte 102,15,56,0,21,172,172,1,0 // pshufb 0x1acac(%rip),%xmm2 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8> .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,15,114,211,24 // psrld $0x18,%xmm3 @@ -30414,42 +30820,52 @@ _sk_store_8888_sse41: .byte 73,193,224,2 // shl $0x2,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax - .byte 68,15,40,5,30,170,1,0 // movaps 0x1aa1e(%rip),%xmm8 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> - .byte 68,15,40,200 // movaps %xmm0,%xmm9 - .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 69,15,87,192 // xorps %xmm8,%xmm8 + .byte 69,15,87,201 // xorps %xmm9,%xmm9 + .byte 68,15,95,200 // maxps %xmm0,%xmm9 + .byte 68,15,40,21,154,171,1,0 // movaps 0x1ab9a(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,93,202 // minps %xmm10,%xmm9 + .byte 68,15,40,29,110,172,1,0 // movaps 0x1ac6e(%rip),%xmm11 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> + .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 - .byte 68,15,40,209 // movaps %xmm1,%xmm10 - .byte 69,15,89,208 // mulps %xmm8,%xmm10 - .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 - .byte 102,65,15,114,242,8 // pslld $0x8,%xmm10 - .byte 102,69,15,235,209 // por %xmm9,%xmm10 - .byte 68,15,40,202 // movaps %xmm2,%xmm9 - .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 69,15,87,228 // xorps %xmm12,%xmm12 + .byte 68,15,95,225 // maxps %xmm1,%xmm12 + .byte 69,15,93,226 // minps %xmm10,%xmm12 + .byte 69,15,89,227 // mulps %xmm11,%xmm12 + .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12 + .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12 + .byte 102,69,15,235,225 // por %xmm9,%xmm12 + .byte 102,69,15,87,201 // xorpd %xmm9,%xmm9 + .byte 68,15,95,202 // maxps %xmm2,%xmm9 + .byte 69,15,93,202 // minps %xmm10,%xmm9 + .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9 - .byte 68,15,89,195 // mulps %xmm3,%xmm8 + .byte 68,15,95,195 // maxps %xmm3,%xmm8 + .byte 69,15,93,194 // minps %xmm10,%xmm8 + .byte 69,15,89,195 // mulps %xmm11,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,65,15,114,240,24 // pslld $0x18,%xmm8 .byte 102,69,15,235,193 // por %xmm9,%xmm8 - .byte 102,69,15,235,194 // por %xmm10,%xmm8 + .byte 102,69,15,235,196 // por %xmm12,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne 1f852 <_sk_store_8888_sse41+0x7f> + .byte 117,10 // jne 20037 <_sk_store_8888_sse41+0xac> .byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,29 // je 1f87c <_sk_store_8888_sse41+0xa9> + .byte 116,29 // je 20061 <_sk_store_8888_sse41+0xd6> .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,15 // je 1f874 <_sk_store_8888_sse41+0xa1> + .byte 116,15 // je 20059 <_sk_store_8888_sse41+0xce> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,227 // jne 1f84e <_sk_store_8888_sse41+0x7b> + .byte 117,227 // jne 20033 <_sk_store_8888_sse41+0xa8> .byte 102,69,15,58,22,68,128,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rax,4) .byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4) - .byte 235,210 // jmp 1f84e <_sk_store_8888_sse41+0x7b> + .byte 235,210 // jmp 20033 <_sk_store_8888_sse41+0xa8> .byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4) - .byte 235,202 // jmp 1f84e <_sk_store_8888_sse41+0x7b> + .byte 235,202 // jmp 20033 <_sk_store_8888_sse41+0xa8> HIDDEN _sk_load_bgra_sse41 .globl _sk_load_bgra_sse41 @@ -30463,19 +30879,19 @@ _sk_load_bgra_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 117,89 // jne 1f8f9 <_sk_load_bgra_sse41+0x75> + .byte 117,89 // jne 200de <_sk_load_bgra_sse41+0x75> .byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3 - .byte 102,15,111,5,50,169,1,0 // movdqa 0x1a932(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,111,5,109,171,1,0 // movdqa 0x1ab6d(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,208 // cvtdq2ps %xmm0,%xmm2 - .byte 68,15,40,5,131,170,1,0 // movaps 0x1aa83(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 68,15,40,5,190,172,1,0 // movaps 0x1acbe(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 - .byte 102,15,56,0,5,34,169,1,0 // pshufb 0x1a922(%rip),%xmm0 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc9c> + .byte 102,15,56,0,5,93,171,1,0 // pshufb 0x1ab5d(%rip),%xmm0 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8> .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 - .byte 102,15,56,0,5,30,169,1,0 // pshufb 0x1a91e(%rip),%xmm0 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0xcac> + .byte 102,15,56,0,5,89,171,1,0 // pshufb 0x1ab59(%rip),%xmm0 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8> .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,114,211,24 // psrld $0x18,%xmm3 @@ -30486,19 +30902,19 @@ _sk_load_bgra_sse41: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,45 // je 1f933 <_sk_load_bgra_sse41+0xaf> + .byte 116,45 // je 20118 <_sk_load_bgra_sse41+0xaf> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,18 // je 1f922 <_sk_load_bgra_sse41+0x9e> + .byte 116,18 // je 20107 <_sk_load_bgra_sse41+0x9e> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,144 // jne 1f8a6 <_sk_load_bgra_sse41+0x22> + .byte 117,144 // jne 2008b <_sk_load_bgra_sse41+0x22> .byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 243,65,15,126,4,128 // movq (%r8,%rax,4),%xmm0 .byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3 - .byte 233,115,255,255,255 // jmpq 1f8a6 <_sk_load_bgra_sse41+0x22> + .byte 233,115,255,255,255 // jmpq 2008b <_sk_load_bgra_sse41+0x22> .byte 102,65,15,110,28,128 // movd (%r8,%rax,4),%xmm3 - .byte 233,104,255,255,255 // jmpq 1f8a6 <_sk_load_bgra_sse41+0x22> + .byte 233,104,255,255,255 // jmpq 2008b <_sk_load_bgra_sse41+0x22> HIDDEN _sk_load_bgra_dst_sse41 .globl _sk_load_bgra_dst_sse41 @@ -30512,19 +30928,19 @@ _sk_load_bgra_dst_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 117,89 // jne 1f9b3 <_sk_load_bgra_dst_sse41+0x75> + .byte 117,89 // jne 20198 <_sk_load_bgra_dst_sse41+0x75> .byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7 - .byte 102,15,111,37,120,168,1,0 // movdqa 0x1a878(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,111,37,179,170,1,0 // movdqa 0x1aab3(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 102,15,219,231 // pand %xmm7,%xmm4 .byte 15,91,244 // cvtdq2ps %xmm4,%xmm6 - .byte 68,15,40,5,201,169,1,0 // movaps 0x1a9c9(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 68,15,40,5,4,172,1,0 // movaps 0x1ac04(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 65,15,89,240 // mulps %xmm8,%xmm6 .byte 102,15,111,231 // movdqa %xmm7,%xmm4 - .byte 102,15,56,0,37,104,168,1,0 // pshufb 0x1a868(%rip),%xmm4 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc9c> + .byte 102,15,56,0,37,163,170,1,0 // pshufb 0x1aaa3(%rip),%xmm4 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8> .byte 15,91,236 // cvtdq2ps %xmm4,%xmm5 .byte 65,15,89,232 // mulps %xmm8,%xmm5 .byte 102,15,111,231 // movdqa %xmm7,%xmm4 - .byte 102,15,56,0,37,100,168,1,0 // pshufb 0x1a864(%rip),%xmm4 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0xcac> + .byte 102,15,56,0,37,159,170,1,0 // pshufb 0x1aa9f(%rip),%xmm4 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8> .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 65,15,89,224 // mulps %xmm8,%xmm4 .byte 102,15,114,215,24 // psrld $0x18,%xmm7 @@ -30535,19 +30951,19 @@ _sk_load_bgra_dst_sse41: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,45 // je 1f9ed <_sk_load_bgra_dst_sse41+0xaf> + .byte 116,45 // je 201d2 <_sk_load_bgra_dst_sse41+0xaf> .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,18 // je 1f9dc <_sk_load_bgra_dst_sse41+0x9e> + .byte 116,18 // je 201c1 <_sk_load_bgra_dst_sse41+0x9e> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,144 // jne 1f960 <_sk_load_bgra_dst_sse41+0x22> + .byte 117,144 // jne 20145 <_sk_load_bgra_dst_sse41+0x22> .byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4 .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7 .byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4 .byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7 - .byte 233,115,255,255,255 // jmpq 1f960 <_sk_load_bgra_dst_sse41+0x22> + .byte 233,115,255,255,255 // jmpq 20145 <_sk_load_bgra_dst_sse41+0x22> .byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7 - .byte 233,104,255,255,255 // jmpq 1f960 <_sk_load_bgra_dst_sse41+0x22> + .byte 233,104,255,255,255 // jmpq 20145 <_sk_load_bgra_dst_sse41+0x22> HIDDEN _sk_gather_bgra_sse41 .globl _sk_gather_bgra_sse41 @@ -30584,17 +31000,17 @@ _sk_gather_bgra_sse41: .byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3 .byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3 .byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3 - .byte 102,15,111,5,81,167,1,0 // movdqa 0x1a751(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,111,5,140,169,1,0 // movdqa 0x1a98c(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,208 // cvtdq2ps %xmm0,%xmm2 - .byte 68,15,40,5,162,168,1,0 // movaps 0x1a8a2(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 68,15,40,5,221,170,1,0 // movaps 0x1aadd(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 - .byte 102,15,56,0,5,65,167,1,0 // pshufb 0x1a741(%rip),%xmm0 # 3a1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xc9c> + .byte 102,15,56,0,5,124,169,1,0 // pshufb 0x1a97c(%rip),%xmm0 # 3ac10 <_sk_srcover_bgra_8888_sse2_lowp+0xca8> .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 - .byte 102,15,56,0,5,61,167,1,0 // pshufb 0x1a73d(%rip),%xmm0 # 3a200 <_sk_srcover_bgra_8888_sse2_lowp+0xcac> + .byte 102,15,56,0,5,120,169,1,0 // pshufb 0x1a978(%rip),%xmm0 # 3ac20 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8> .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,114,211,24 // psrld $0x18,%xmm3 @@ -30614,42 +31030,52 @@ _sk_store_bgra_sse41: .byte 73,193,224,2 // shl $0x2,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax - .byte 68,15,40,5,23,167,1,0 // movaps 0x1a717(%rip),%xmm8 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> - .byte 68,15,40,202 // movaps %xmm2,%xmm9 - .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 69,15,87,192 // xorps %xmm8,%xmm8 + .byte 69,15,87,201 // xorps %xmm9,%xmm9 + .byte 68,15,95,202 // maxps %xmm2,%xmm9 + .byte 68,15,40,21,102,168,1,0 // movaps 0x1a866(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,93,202 // minps %xmm10,%xmm9 + .byte 68,15,40,29,58,169,1,0 // movaps 0x1a93a(%rip),%xmm11 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> + .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 - .byte 68,15,40,209 // movaps %xmm1,%xmm10 - .byte 69,15,89,208 // mulps %xmm8,%xmm10 - .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 - .byte 102,65,15,114,242,8 // pslld $0x8,%xmm10 - .byte 102,69,15,235,209 // por %xmm9,%xmm10 - .byte 68,15,40,200 // movaps %xmm0,%xmm9 - .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 69,15,87,228 // xorps %xmm12,%xmm12 + .byte 68,15,95,225 // maxps %xmm1,%xmm12 + .byte 69,15,93,226 // minps %xmm10,%xmm12 + .byte 69,15,89,227 // mulps %xmm11,%xmm12 + .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12 + .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12 + .byte 102,69,15,235,225 // por %xmm9,%xmm12 + .byte 102,69,15,87,201 // xorpd %xmm9,%xmm9 + .byte 68,15,95,200 // maxps %xmm0,%xmm9 + .byte 69,15,93,202 // minps %xmm10,%xmm9 + .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9 - .byte 68,15,89,195 // mulps %xmm3,%xmm8 + .byte 68,15,95,195 // maxps %xmm3,%xmm8 + .byte 69,15,93,194 // minps %xmm10,%xmm8 + .byte 69,15,89,195 // mulps %xmm11,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,65,15,114,240,24 // pslld $0x18,%xmm8 .byte 102,69,15,235,193 // por %xmm9,%xmm8 - .byte 102,69,15,235,194 // por %xmm10,%xmm8 + .byte 102,69,15,235,196 // por %xmm12,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne 1fb59 <_sk_store_bgra_sse41+0x7f> + .byte 117,10 // jne 2036b <_sk_store_bgra_sse41+0xac> .byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,29 // je 1fb83 <_sk_store_bgra_sse41+0xa9> + .byte 116,29 // je 20395 <_sk_store_bgra_sse41+0xd6> .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,15 // je 1fb7b <_sk_store_bgra_sse41+0xa1> + .byte 116,15 // je 2038d <_sk_store_bgra_sse41+0xce> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,227 // jne 1fb55 <_sk_store_bgra_sse41+0x7b> + .byte 117,227 // jne 20367 <_sk_store_bgra_sse41+0xa8> .byte 102,69,15,58,22,68,128,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rax,4) .byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4) - .byte 235,210 // jmp 1fb55 <_sk_store_bgra_sse41+0x7b> + .byte 235,210 // jmp 20367 <_sk_store_bgra_sse41+0xa8> .byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4) - .byte 235,202 // jmp 1fb55 <_sk_store_bgra_sse41+0x7b> + .byte 235,202 // jmp 20367 <_sk_store_bgra_sse41+0xa8> HIDDEN _sk_load_f16_sse41 .globl _sk_load_f16_sse41 @@ -30663,7 +31089,7 @@ _sk_load_f16_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,68,1,0,0 // jne 1fcef <_sk_load_f16_sse41+0x164> + .byte 15,133,68,1,0,0 // jne 20501 <_sk_load_f16_sse41+0x164> .byte 102,65,15,16,4,192 // movupd (%r8,%rax,8),%xmm0 .byte 243,65,15,111,76,192,16 // movdqu 0x10(%r8,%rax,8),%xmm1 .byte 102,68,15,40,200 // movapd %xmm0,%xmm9 @@ -30673,19 +31099,19 @@ _sk_load_f16_sse41: .byte 102,68,15,97,224 // punpcklwd %xmm0,%xmm12 .byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9 .byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2 - .byte 102,68,15,111,5,28,170,1,0 // movdqa 0x1aa1c(%rip),%xmm8 # 3a600 <_sk_srcover_bgra_8888_sse2_lowp+0x10ac> + .byte 102,68,15,111,5,42,172,1,0 // movdqa 0x1ac2a(%rip),%xmm8 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8> .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,65,15,219,200 // pand %xmm8,%xmm1 - .byte 102,68,15,111,21,26,170,1,0 // movdqa 0x1aa1a(%rip),%xmm10 # 3a610 <_sk_srcover_bgra_8888_sse2_lowp+0x10bc> + .byte 102,68,15,111,21,40,172,1,0 // movdqa 0x1ac28(%rip),%xmm10 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8> .byte 102,65,15,219,210 // pand %xmm10,%xmm2 - .byte 102,15,111,29,29,170,1,0 // movdqa 0x1aa1d(%rip),%xmm3 # 3a620 <_sk_srcover_bgra_8888_sse2_lowp+0x10cc> + .byte 102,15,111,29,43,172,1,0 // movdqa 0x1ac2b(%rip),%xmm3 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8> .byte 102,15,114,241,16 // pslld $0x10,%xmm1 .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0 .byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0 .byte 102,15,114,242,13 // pslld $0xd,%xmm2 .byte 102,15,235,209 // por %xmm1,%xmm2 - .byte 102,68,15,111,29,9,170,1,0 // movdqa 0x1aa09(%rip),%xmm11 # 3a630 <_sk_srcover_bgra_8888_sse2_lowp+0x10dc> + .byte 102,68,15,111,29,23,172,1,0 // movdqa 0x1ac17(%rip),%xmm11 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8> .byte 102,65,15,254,211 // paddd %xmm11,%xmm2 .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1 @@ -30728,16 +31154,16 @@ _sk_load_f16_sse41: .byte 255,224 // jmpq *%rax .byte 242,65,15,16,4,192 // movsd (%r8,%rax,8),%xmm0 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,13 // jne 1fd08 <_sk_load_f16_sse41+0x17d> + .byte 117,13 // jne 2051a <_sk_load_f16_sse41+0x17d> .byte 243,15,126,192 // movq %xmm0,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 - .byte 233,176,254,255,255 // jmpq 1fbb8 <_sk_load_f16_sse41+0x2d> + .byte 233,176,254,255,255 // jmpq 203ca <_sk_load_f16_sse41+0x2d> .byte 102,65,15,22,68,192,8 // movhpd 0x8(%r8,%rax,8),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 15,130,155,254,255,255 // jb 1fbb8 <_sk_load_f16_sse41+0x2d> + .byte 15,130,155,254,255,255 // jb 203ca <_sk_load_f16_sse41+0x2d> .byte 243,65,15,126,76,192,16 // movq 0x10(%r8,%rax,8),%xmm1 - .byte 233,143,254,255,255 // jmpq 1fbb8 <_sk_load_f16_sse41+0x2d> + .byte 233,143,254,255,255 // jmpq 203ca <_sk_load_f16_sse41+0x2d> HIDDEN _sk_load_f16_dst_sse41 .globl _sk_load_f16_dst_sse41 @@ -30751,7 +31177,7 @@ _sk_load_f16_dst_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,68,1,0,0 // jne 1fe8d <_sk_load_f16_dst_sse41+0x164> + .byte 15,133,68,1,0,0 // jne 2069f <_sk_load_f16_dst_sse41+0x164> .byte 102,65,15,16,36,192 // movupd (%r8,%rax,8),%xmm4 .byte 243,65,15,111,108,192,16 // movdqu 0x10(%r8,%rax,8),%xmm5 .byte 102,68,15,40,204 // movapd %xmm4,%xmm9 @@ -30761,19 +31187,19 @@ _sk_load_f16_dst_sse41: .byte 102,68,15,97,228 // punpcklwd %xmm4,%xmm12 .byte 102,68,15,105,204 // punpckhwd %xmm4,%xmm9 .byte 102,65,15,56,51,244 // pmovzxwd %xmm12,%xmm6 - .byte 102,68,15,111,5,126,168,1,0 // movdqa 0x1a87e(%rip),%xmm8 # 3a600 <_sk_srcover_bgra_8888_sse2_lowp+0x10ac> + .byte 102,68,15,111,5,140,170,1,0 // movdqa 0x1aa8c(%rip),%xmm8 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8> .byte 102,15,111,238 // movdqa %xmm6,%xmm5 .byte 102,65,15,219,232 // pand %xmm8,%xmm5 - .byte 102,68,15,111,21,124,168,1,0 // movdqa 0x1a87c(%rip),%xmm10 # 3a610 <_sk_srcover_bgra_8888_sse2_lowp+0x10bc> + .byte 102,68,15,111,21,138,170,1,0 // movdqa 0x1aa8a(%rip),%xmm10 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8> .byte 102,65,15,219,242 // pand %xmm10,%xmm6 - .byte 102,15,111,61,127,168,1,0 // movdqa 0x1a87f(%rip),%xmm7 # 3a620 <_sk_srcover_bgra_8888_sse2_lowp+0x10cc> + .byte 102,15,111,61,141,170,1,0 // movdqa 0x1aa8d(%rip),%xmm7 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8> .byte 102,15,114,245,16 // pslld $0x10,%xmm5 .byte 102,15,111,230 // movdqa %xmm6,%xmm4 .byte 102,15,56,63,231 // pmaxud %xmm7,%xmm4 .byte 102,15,118,230 // pcmpeqd %xmm6,%xmm4 .byte 102,15,114,246,13 // pslld $0xd,%xmm6 .byte 102,15,235,245 // por %xmm5,%xmm6 - .byte 102,68,15,111,29,107,168,1,0 // movdqa 0x1a86b(%rip),%xmm11 # 3a630 <_sk_srcover_bgra_8888_sse2_lowp+0x10dc> + .byte 102,68,15,111,29,121,170,1,0 // movdqa 0x1aa79(%rip),%xmm11 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8> .byte 102,65,15,254,243 // paddd %xmm11,%xmm6 .byte 102,15,219,230 // pand %xmm6,%xmm4 .byte 102,65,15,112,236,238 // pshufd $0xee,%xmm12,%xmm5 @@ -30816,16 +31242,16 @@ _sk_load_f16_dst_sse41: .byte 255,224 // jmpq *%rax .byte 242,65,15,16,36,192 // movsd (%r8,%rax,8),%xmm4 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,13 // jne 1fea6 <_sk_load_f16_dst_sse41+0x17d> + .byte 117,13 // jne 206b8 <_sk_load_f16_dst_sse41+0x17d> .byte 243,15,126,228 // movq %xmm4,%xmm4 .byte 102,15,239,237 // pxor %xmm5,%xmm5 - .byte 233,176,254,255,255 // jmpq 1fd56 <_sk_load_f16_dst_sse41+0x2d> + .byte 233,176,254,255,255 // jmpq 20568 <_sk_load_f16_dst_sse41+0x2d> .byte 102,65,15,22,100,192,8 // movhpd 0x8(%r8,%rax,8),%xmm4 .byte 102,15,239,237 // pxor %xmm5,%xmm5 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 15,130,155,254,255,255 // jb 1fd56 <_sk_load_f16_dst_sse41+0x2d> + .byte 15,130,155,254,255,255 // jb 20568 <_sk_load_f16_dst_sse41+0x2d> .byte 243,65,15,126,108,192,16 // movq 0x10(%r8,%rax,8),%xmm5 - .byte 233,143,254,255,255 // jmpq 1fd56 <_sk_load_f16_dst_sse41+0x2d> + .byte 233,143,254,255,255 // jmpq 20568 <_sk_load_f16_dst_sse41+0x2d> HIDDEN _sk_gather_f16_sse41 .globl _sk_gather_f16_sse41 @@ -30871,19 +31297,19 @@ _sk_gather_f16_sse41: .byte 102,68,15,97,226 // punpcklwd %xmm2,%xmm12 .byte 102,68,15,105,202 // punpckhwd %xmm2,%xmm9 .byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2 - .byte 102,68,15,111,5,124,166,1,0 // movdqa 0x1a67c(%rip),%xmm8 # 3a600 <_sk_srcover_bgra_8888_sse2_lowp+0x10ac> + .byte 102,68,15,111,5,138,168,1,0 // movdqa 0x1a88a(%rip),%xmm8 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8> .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,65,15,219,200 // pand %xmm8,%xmm1 - .byte 102,68,15,111,21,122,166,1,0 // movdqa 0x1a67a(%rip),%xmm10 # 3a610 <_sk_srcover_bgra_8888_sse2_lowp+0x10bc> + .byte 102,68,15,111,21,136,168,1,0 // movdqa 0x1a888(%rip),%xmm10 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8> .byte 102,65,15,219,210 // pand %xmm10,%xmm2 - .byte 102,15,111,29,125,166,1,0 // movdqa 0x1a67d(%rip),%xmm3 # 3a620 <_sk_srcover_bgra_8888_sse2_lowp+0x10cc> + .byte 102,15,111,29,139,168,1,0 // movdqa 0x1a88b(%rip),%xmm3 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8> .byte 102,15,114,241,16 // pslld $0x10,%xmm1 .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0 .byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0 .byte 102,15,114,242,13 // pslld $0xd,%xmm2 .byte 102,15,235,209 // por %xmm1,%xmm2 - .byte 102,68,15,111,29,105,166,1,0 // movdqa 0x1a669(%rip),%xmm11 # 3a630 <_sk_srcover_bgra_8888_sse2_lowp+0x10dc> + .byte 102,68,15,111,29,119,168,1,0 // movdqa 0x1a877(%rip),%xmm11 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8> .byte 102,65,15,254,211 // paddd %xmm11,%xmm2 .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1 @@ -30936,20 +31362,20 @@ _sk_store_f16_sse41: .byte 73,193,224,3 // shl $0x3,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax - .byte 102,68,15,111,13,145,165,1,0 // movdqa 0x1a591(%rip),%xmm9 # 3a640 <_sk_srcover_bgra_8888_sse2_lowp+0x10ec> + .byte 102,68,15,111,13,159,167,1,0 // movdqa 0x1a79f(%rip),%xmm9 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8> .byte 102,68,15,111,224 // movdqa %xmm0,%xmm12 .byte 102,69,15,219,225 // pand %xmm9,%xmm12 - .byte 102,68,15,111,29,142,165,1,0 // movdqa 0x1a58e(%rip),%xmm11 # 3a650 <_sk_srcover_bgra_8888_sse2_lowp+0x10fc> + .byte 102,68,15,111,29,156,167,1,0 // movdqa 0x1a79c(%rip),%xmm11 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108> .byte 102,68,15,111,232 // movdqa %xmm0,%xmm13 .byte 102,69,15,219,235 // pand %xmm11,%xmm13 - .byte 102,68,15,111,21,139,165,1,0 // movdqa 0x1a58b(%rip),%xmm10 # 3a660 <_sk_srcover_bgra_8888_sse2_lowp+0x110c> + .byte 102,68,15,111,21,153,167,1,0 // movdqa 0x1a799(%rip),%xmm10 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0x1118> .byte 102,65,15,114,212,16 // psrld $0x10,%xmm12 .byte 102,69,15,111,197 // movdqa %xmm13,%xmm8 .byte 102,69,15,56,63,194 // pmaxud %xmm10,%xmm8 .byte 102,69,15,118,197 // pcmpeqd %xmm13,%xmm8 .byte 102,65,15,114,213,13 // psrld $0xd,%xmm13 .byte 102,69,15,254,236 // paddd %xmm12,%xmm13 - .byte 102,68,15,111,37,113,165,1,0 // movdqa 0x1a571(%rip),%xmm12 # 3a670 <_sk_srcover_bgra_8888_sse2_lowp+0x111c> + .byte 102,68,15,111,37,127,167,1,0 // movdqa 0x1a77f(%rip),%xmm12 # 3b090 <_sk_srcover_bgra_8888_sse2_lowp+0x1128> .byte 102,69,15,254,236 // paddd %xmm12,%xmm13 .byte 102,69,15,219,197 // pand %xmm13,%xmm8 .byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8 @@ -30994,7 +31420,7 @@ _sk_store_f16_sse41: .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 .byte 102,69,15,98,205 // punpckldq %xmm13,%xmm9 .byte 72,133,255 // test %rdi,%rdi - .byte 117,21 // jne 201fd <_sk_store_f16_sse41+0x16e> + .byte 117,21 // jne 20a0f <_sk_store_f16_sse41+0x16e> .byte 69,15,17,12,192 // movups %xmm9,(%r8,%rax,8) .byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8 .byte 243,69,15,127,68,192,16 // movdqu %xmm8,0x10(%r8,%rax,8) @@ -31002,13 +31428,13 @@ _sk_store_f16_sse41: .byte 255,224 // jmpq *%rax .byte 102,69,15,214,12,192 // movq %xmm9,(%r8,%rax,8) .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,240 // je 201f9 <_sk_store_f16_sse41+0x16a> + .byte 116,240 // je 20a0b <_sk_store_f16_sse41+0x16a> .byte 102,69,15,23,76,192,8 // movhpd %xmm9,0x8(%r8,%rax,8) .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,227 // jb 201f9 <_sk_store_f16_sse41+0x16a> + .byte 114,227 // jb 20a0b <_sk_store_f16_sse41+0x16a> .byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8 .byte 102,69,15,214,68,192,16 // movq %xmm8,0x10(%r8,%rax,8) - .byte 235,213 // jmp 201f9 <_sk_store_f16_sse41+0x16a> + .byte 235,213 // jmp 20a0b <_sk_store_f16_sse41+0x16a> HIDDEN _sk_load_u16_be_sse41 .globl _sk_load_u16_be_sse41 @@ -31023,7 +31449,7 @@ _sk_load_u16_be_sse41: .byte 76,3,0 // add (%rax),%r8 .byte 73,99,193 // movslq %r9d,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,185,0,0,0 // jne 20304 <_sk_load_u16_be_sse41+0xe0> + .byte 15,133,185,0,0,0 // jne 20b16 <_sk_load_u16_be_sse41+0xe0> .byte 102,65,15,16,4,64 // movupd (%r8,%rax,2),%xmm0 .byte 243,65,15,111,76,64,16 // movdqu 0x10(%r8,%rax,2),%xmm1 .byte 102,15,40,208 // movapd %xmm0,%xmm2 @@ -31039,7 +31465,7 @@ _sk_load_u16_be_sse41: .byte 102,15,235,200 // por %xmm0,%xmm1 .byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 68,15,40,5,57,161,1,0 // movaps 0x1a139(%rip),%xmm8 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe7c> + .byte 68,15,40,5,71,163,1,0 // movaps 0x1a347(%rip),%xmm8 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,113,241,8 // psllw $0x8,%xmm1 @@ -31067,16 +31493,16 @@ _sk_load_u16_be_sse41: .byte 255,224 // jmpq *%rax .byte 242,65,15,16,4,64 // movsd (%r8,%rax,2),%xmm0 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,13 // jne 2031d <_sk_load_u16_be_sse41+0xf9> + .byte 117,13 // jne 20b2f <_sk_load_u16_be_sse41+0xf9> .byte 243,15,126,192 // movq %xmm0,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 - .byte 233,59,255,255,255 // jmpq 20258 <_sk_load_u16_be_sse41+0x34> + .byte 233,59,255,255,255 // jmpq 20a6a <_sk_load_u16_be_sse41+0x34> .byte 102,65,15,22,68,64,8 // movhpd 0x8(%r8,%rax,2),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 15,130,38,255,255,255 // jb 20258 <_sk_load_u16_be_sse41+0x34> + .byte 15,130,38,255,255,255 // jb 20a6a <_sk_load_u16_be_sse41+0x34> .byte 243,65,15,126,76,64,16 // movq 0x10(%r8,%rax,2),%xmm1 - .byte 233,26,255,255,255 // jmpq 20258 <_sk_load_u16_be_sse41+0x34> + .byte 233,26,255,255,255 // jmpq 20a6a <_sk_load_u16_be_sse41+0x34> HIDDEN _sk_load_rgb_u16_be_sse41 .globl _sk_load_rgb_u16_be_sse41 @@ -31093,7 +31519,7 @@ _sk_load_rgb_u16_be_sse41: .byte 72,141,4,64 // lea (%rax,%rax,2),%rax .byte 72,193,248,32 // sar $0x20,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,170,0,0,0 // jne 20413 <_sk_load_rgb_u16_be_sse41+0xd5> + .byte 15,133,170,0,0,0 // jne 20c25 <_sk_load_rgb_u16_be_sse41+0xd5> .byte 243,65,15,111,20,64 // movdqu (%r8,%rax,2),%xmm2 .byte 243,65,15,111,92,64,8 // movdqu 0x8(%r8,%rax,2),%xmm3 .byte 102,15,115,219,4 // psrldq $0x4,%xmm3 @@ -31113,7 +31539,7 @@ _sk_load_rgb_u16_be_sse41: .byte 102,15,235,200 // por %xmm0,%xmm1 .byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 68,15,40,5,8,160,1,0 // movaps 0x1a008(%rip),%xmm8 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe7c> + .byte 68,15,40,5,22,162,1,0 // movaps 0x1a216(%rip),%xmm8 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,113,241,8 // psllw $0x8,%xmm1 @@ -31130,27 +31556,27 @@ _sk_load_rgb_u16_be_sse41: .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,31,157,1,0 // movaps 0x19d1f(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,29,45,159,1,0 // movaps 0x19f2d(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 255,224 // jmpq *%rax .byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,65,15,196,84,64,4,2 // pinsrw $0x2,0x4(%r8,%rax,2),%xmm2 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,13 // jne 20438 <_sk_load_rgb_u16_be_sse41+0xfa> + .byte 117,13 // jne 20c4a <_sk_load_rgb_u16_be_sse41+0xfa> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,239,192 // pxor %xmm0,%xmm0 - .byte 233,85,255,255,255 // jmpq 2038d <_sk_load_rgb_u16_be_sse41+0x4f> + .byte 233,85,255,255,255 // jmpq 20b9f <_sk_load_rgb_u16_be_sse41+0x4f> .byte 102,65,15,110,68,64,6 // movd 0x6(%r8,%rax,2),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,65,15,196,68,64,10,2 // pinsrw $0x2,0xa(%r8,%rax,2),%xmm0 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,24 // jb 20469 <_sk_load_rgb_u16_be_sse41+0x12b> + .byte 114,24 // jb 20c7b <_sk_load_rgb_u16_be_sse41+0x12b> .byte 102,65,15,110,92,64,12 // movd 0xc(%r8,%rax,2),%xmm3 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,65,15,196,92,64,16,2 // pinsrw $0x2,0x10(%r8,%rax,2),%xmm3 - .byte 233,36,255,255,255 // jmpq 2038d <_sk_load_rgb_u16_be_sse41+0x4f> + .byte 233,36,255,255,255 // jmpq 20b9f <_sk_load_rgb_u16_be_sse41+0x4f> .byte 102,15,239,219 // pxor %xmm3,%xmm3 - .byte 233,27,255,255,255 // jmpq 2038d <_sk_load_rgb_u16_be_sse41+0x4f> + .byte 233,27,255,255,255 // jmpq 20b9f <_sk_load_rgb_u16_be_sse41+0x4f> HIDDEN _sk_store_u16_be_sse41 .globl _sk_store_u16_be_sse41 @@ -31164,58 +31590,68 @@ _sk_store_u16_be_sse41: .byte 77,1,192 // add %r8,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 73,99,193 // movslq %r9d,%rax - .byte 68,15,40,21,232,161,1,0 // movaps 0x1a1e8(%rip),%xmm10 # 3a680 <_sk_srcover_bgra_8888_sse2_lowp+0x112c> - .byte 68,15,40,192 // movaps %xmm0,%xmm8 - .byte 69,15,89,194 // mulps %xmm10,%xmm8 + .byte 69,15,87,201 // xorps %xmm9,%xmm9 + .byte 69,15,87,192 // xorps %xmm8,%xmm8 + .byte 68,15,95,192 // maxps %xmm0,%xmm8 + .byte 68,15,40,21,154,158,1,0 // movaps 0x19e9a(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,93,194 // minps %xmm10,%xmm8 + .byte 68,15,40,29,222,163,1,0 // movaps 0x1a3de(%rip),%xmm11 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1138> + .byte 69,15,89,195 // mulps %xmm11,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8 - .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 - .byte 102,65,15,113,241,8 // psllw $0x8,%xmm9 + .byte 102,69,15,111,224 // movdqa %xmm8,%xmm12 + .byte 102,65,15,113,244,8 // psllw $0x8,%xmm12 .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8 - .byte 102,69,15,235,193 // por %xmm9,%xmm8 - .byte 68,15,40,201 // movaps %xmm1,%xmm9 - .byte 69,15,89,202 // mulps %xmm10,%xmm9 - .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 - .byte 102,68,15,56,43,200 // packusdw %xmm0,%xmm9 - .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11 - .byte 102,65,15,113,243,8 // psllw $0x8,%xmm11 - .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9 - .byte 102,69,15,235,203 // por %xmm11,%xmm9 - .byte 102,69,15,97,193 // punpcklwd %xmm9,%xmm8 - .byte 68,15,40,202 // movaps %xmm2,%xmm9 - .byte 69,15,89,202 // mulps %xmm10,%xmm9 + .byte 102,69,15,235,196 // por %xmm12,%xmm8 + .byte 102,69,15,239,228 // pxor %xmm12,%xmm12 + .byte 68,15,95,225 // maxps %xmm1,%xmm12 + .byte 69,15,93,226 // minps %xmm10,%xmm12 + .byte 69,15,89,227 // mulps %xmm11,%xmm12 + .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12 + .byte 102,68,15,56,43,224 // packusdw %xmm0,%xmm12 + .byte 102,69,15,111,236 // movdqa %xmm12,%xmm13 + .byte 102,65,15,113,245,8 // psllw $0x8,%xmm13 + .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12 + .byte 102,69,15,235,229 // por %xmm13,%xmm12 + .byte 102,69,15,97,196 // punpcklwd %xmm12,%xmm8 + .byte 102,69,15,239,228 // pxor %xmm12,%xmm12 + .byte 68,15,95,226 // maxps %xmm2,%xmm12 + .byte 69,15,93,226 // minps %xmm10,%xmm12 + .byte 69,15,89,227 // mulps %xmm11,%xmm12 + .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12 + .byte 102,68,15,56,43,224 // packusdw %xmm0,%xmm12 + .byte 102,69,15,111,236 // movdqa %xmm12,%xmm13 + .byte 102,65,15,113,245,8 // psllw $0x8,%xmm13 + .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12 + .byte 102,69,15,235,229 // por %xmm13,%xmm12 + .byte 68,15,95,203 // maxps %xmm3,%xmm9 + .byte 69,15,93,202 // minps %xmm10,%xmm9 + .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,68,15,56,43,200 // packusdw %xmm0,%xmm9 - .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11 - .byte 102,65,15,113,243,8 // psllw $0x8,%xmm11 + .byte 102,69,15,111,209 // movdqa %xmm9,%xmm10 + .byte 102,65,15,113,242,8 // psllw $0x8,%xmm10 .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9 - .byte 102,69,15,235,203 // por %xmm11,%xmm9 - .byte 68,15,89,211 // mulps %xmm3,%xmm10 - .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 - .byte 102,68,15,56,43,208 // packusdw %xmm0,%xmm10 - .byte 102,69,15,111,218 // movdqa %xmm10,%xmm11 - .byte 102,65,15,113,243,8 // psllw $0x8,%xmm11 - .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10 - .byte 102,69,15,235,211 // por %xmm11,%xmm10 - .byte 102,69,15,97,202 // punpcklwd %xmm10,%xmm9 - .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10 - .byte 102,69,15,98,209 // punpckldq %xmm9,%xmm10 + .byte 102,69,15,235,202 // por %xmm10,%xmm9 + .byte 102,69,15,97,225 // punpcklwd %xmm9,%xmm12 + .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 + .byte 102,69,15,98,204 // punpckldq %xmm12,%xmm9 .byte 72,133,255 // test %rdi,%rdi - .byte 117,21 // jne 20566 <_sk_store_u16_be_sse41+0xf4> - .byte 69,15,17,20,64 // movups %xmm10,(%r8,%rax,2) - .byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8 + .byte 117,21 // jne 20da6 <_sk_store_u16_be_sse41+0x122> + .byte 69,15,17,12,64 // movups %xmm9,(%r8,%rax,2) + .byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8 .byte 243,69,15,127,68,64,16 // movdqu %xmm8,0x10(%r8,%rax,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax - .byte 102,69,15,214,20,64 // movq %xmm10,(%r8,%rax,2) + .byte 102,69,15,214,12,64 // movq %xmm9,(%r8,%rax,2) .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,240 // je 20562 <_sk_store_u16_be_sse41+0xf0> - .byte 102,69,15,23,84,64,8 // movhpd %xmm10,0x8(%r8,%rax,2) + .byte 116,240 // je 20da2 <_sk_store_u16_be_sse41+0x11e> + .byte 102,69,15,23,76,64,8 // movhpd %xmm9,0x8(%r8,%rax,2) .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,227 // jb 20562 <_sk_store_u16_be_sse41+0xf0> - .byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8 + .byte 114,227 // jb 20da2 <_sk_store_u16_be_sse41+0x11e> + .byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8 .byte 102,69,15,214,68,64,16 // movq %xmm8,0x10(%r8,%rax,2) - .byte 235,213 // jmp 20562 <_sk_store_u16_be_sse41+0xf0> + .byte 235,213 // jmp 20da2 <_sk_store_u16_be_sse41+0x11e> HIDDEN _sk_load_f32_sse41 .globl _sk_load_f32_sse41 @@ -31231,7 +31667,7 @@ _sk_load_f32_sse41: .byte 73,99,193 // movslq %r9d,%rax .byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,66 // jne 205f8 <_sk_load_f32_sse41+0x6b> + .byte 117,66 // jne 20e38 <_sk_load_f32_sse41+0x6b> .byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0 .byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3 .byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9 @@ -31251,17 +31687,17 @@ _sk_load_f32_sse41: .byte 255,224 // jmpq *%rax .byte 69,15,87,201 // xorps %xmm9,%xmm9 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,8 // jne 2060a <_sk_load_f32_sse41+0x7d> + .byte 117,8 // jne 20e4a <_sk_load_f32_sse41+0x7d> .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 15,87,192 // xorps %xmm0,%xmm0 - .byte 235,190 // jmp 205c8 <_sk_load_f32_sse41+0x3b> + .byte 235,190 // jmp 20e08 <_sk_load_f32_sse41+0x3b> .byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,8 // jb 2061e <_sk_load_f32_sse41+0x91> + .byte 114,8 // jb 20e5e <_sk_load_f32_sse41+0x91> .byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3 - .byte 235,170 // jmp 205c8 <_sk_load_f32_sse41+0x3b> + .byte 235,170 // jmp 20e08 <_sk_load_f32_sse41+0x3b> .byte 15,87,219 // xorps %xmm3,%xmm3 - .byte 235,165 // jmp 205c8 <_sk_load_f32_sse41+0x3b> + .byte 235,165 // jmp 20e08 <_sk_load_f32_sse41+0x3b> HIDDEN _sk_load_f32_dst_sse41 .globl _sk_load_f32_dst_sse41 @@ -31277,7 +31713,7 @@ _sk_load_f32_dst_sse41: .byte 73,99,193 // movslq %r9d,%rax .byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,66 // jne 2068e <_sk_load_f32_dst_sse41+0x6b> + .byte 117,66 // jne 20ece <_sk_load_f32_dst_sse41+0x6b> .byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4 .byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7 .byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9 @@ -31297,17 +31733,17 @@ _sk_load_f32_dst_sse41: .byte 255,224 // jmpq *%rax .byte 69,15,87,201 // xorps %xmm9,%xmm9 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,8 // jne 206a0 <_sk_load_f32_dst_sse41+0x7d> + .byte 117,8 // jne 20ee0 <_sk_load_f32_dst_sse41+0x7d> .byte 15,87,255 // xorps %xmm7,%xmm7 .byte 15,87,228 // xorps %xmm4,%xmm4 - .byte 235,190 // jmp 2065e <_sk_load_f32_dst_sse41+0x3b> + .byte 235,190 // jmp 20e9e <_sk_load_f32_dst_sse41+0x3b> .byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,8 // jb 206b4 <_sk_load_f32_dst_sse41+0x91> + .byte 114,8 // jb 20ef4 <_sk_load_f32_dst_sse41+0x91> .byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7 - .byte 235,170 // jmp 2065e <_sk_load_f32_dst_sse41+0x3b> + .byte 235,170 // jmp 20e9e <_sk_load_f32_dst_sse41+0x3b> .byte 15,87,255 // xorps %xmm7,%xmm7 - .byte 235,165 // jmp 2065e <_sk_load_f32_dst_sse41+0x3b> + .byte 235,165 // jmp 20e9e <_sk_load_f32_dst_sse41+0x3b> HIDDEN _sk_store_f32_sse41 .globl _sk_store_f32_sse41 @@ -31336,7 +31772,7 @@ _sk_store_f32_sse41: .byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9 .byte 102,69,15,17,36,128 // movupd %xmm12,(%r8,%rax,4) .byte 72,133,255 // test %rdi,%rdi - .byte 117,29 // jne 20736 <_sk_store_f32_sse41+0x7d> + .byte 117,29 // jne 20f76 <_sk_store_f32_sse41+0x7d> .byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10 .byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4) .byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4) @@ -31344,12 +31780,12 @@ _sk_store_f32_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,246 // je 20732 <_sk_store_f32_sse41+0x79> + .byte 116,246 // je 20f72 <_sk_store_f32_sse41+0x79> .byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4) .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,234 // jb 20732 <_sk_store_f32_sse41+0x79> + .byte 114,234 // jb 20f72 <_sk_store_f32_sse41+0x79> .byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4) - .byte 235,225 // jmp 20732 <_sk_store_f32_sse41+0x79> + .byte 235,225 // jmp 20f72 <_sk_store_f32_sse41+0x79> HIDDEN _sk_repeat_x_sse41 .globl _sk_repeat_x_sse41 @@ -31395,7 +31831,7 @@ _sk_mirror_x_sse41: .byte 65,15,92,194 // subps %xmm10,%xmm0 .byte 243,69,15,88,192 // addss %xmm8,%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 - .byte 243,68,15,89,13,38,144,1,0 // mulss 0x19026(%rip),%xmm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 243,68,15,89,13,250,145,1,0 // mulss 0x191fa(%rip),%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 68,15,89,200 // mulps %xmm0,%xmm9 .byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9 @@ -31420,7 +31856,7 @@ _sk_mirror_y_sse41: .byte 65,15,92,202 // subps %xmm10,%xmm1 .byte 243,69,15,88,192 // addss %xmm8,%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 - .byte 243,68,15,89,13,205,143,1,0 // mulss 0x18fcd(%rip),%xmm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 243,68,15,89,13,161,145,1,0 // mulss 0x191a1(%rip),%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 68,15,89,201 // mulps %xmm1,%xmm9 .byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9 @@ -31439,7 +31875,7 @@ FUNCTION(_sk_clamp_x_1_sse41) _sk_clamp_x_1_sse41: .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 68,15,95,192 // maxps %xmm0,%xmm8 - .byte 68,15,93,5,193,152,1,0 // minps 0x198c1(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,93,5,161,154,1,0 // minps 0x19aa1(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax @@ -31452,7 +31888,7 @@ _sk_repeat_x_1_sse41: .byte 65,15,92,192 // subps %xmm8,%xmm0 .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 68,15,95,192 // maxps %xmm0,%xmm8 - .byte 68,15,93,5,158,152,1,0 // minps 0x1989e(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,93,5,126,154,1,0 // minps 0x19a7e(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax @@ -31461,9 +31897,9 @@ HIDDEN _sk_mirror_x_1_sse41 .globl _sk_mirror_x_1_sse41 FUNCTION(_sk_mirror_x_1_sse41) _sk_mirror_x_1_sse41: - .byte 68,15,40,5,238,152,1,0 // movaps 0x198ee(%rip),%xmm8 # 3a190 <_sk_srcover_bgra_8888_sse2_lowp+0xc3c> + .byte 68,15,40,5,206,154,1,0 // movaps 0x19ace(%rip),%xmm8 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48> .byte 65,15,88,192 // addps %xmm8,%xmm0 - .byte 68,15,40,13,114,152,1,0 // movaps 0x19872(%rip),%xmm9 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,40,13,82,154,1,0 // movaps 0x19a52(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 68,15,89,200 // mulps %xmm0,%xmm9 .byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9 .byte 69,15,88,201 // addps %xmm9,%xmm9 @@ -31474,7 +31910,7 @@ _sk_mirror_x_1_sse41: .byte 68,15,92,200 // subps %xmm0,%xmm9 .byte 68,15,84,200 // andps %xmm0,%xmm9 .byte 69,15,95,193 // maxps %xmm9,%xmm8 - .byte 68,15,93,5,79,152,1,0 // minps 0x1984f(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,93,5,47,154,1,0 // minps 0x19a2f(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax @@ -31484,10 +31920,10 @@ HIDDEN _sk_luminance_to_alpha_sse41 FUNCTION(_sk_luminance_to_alpha_sse41) _sk_luminance_to_alpha_sse41: .byte 15,40,218 // movaps %xmm2,%xmm3 - .byte 15,89,5,157,157,1,0 // mulps 0x19d9d(%rip),%xmm0 # 3a690 <_sk_srcover_bgra_8888_sse2_lowp+0x113c> - .byte 15,89,13,166,157,1,0 // mulps 0x19da6(%rip),%xmm1 # 3a6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x114c> + .byte 15,89,5,125,159,1,0 // mulps 0x19f7d(%rip),%xmm0 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1148> + .byte 15,89,13,134,159,1,0 // mulps 0x19f86(%rip),%xmm1 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1158> .byte 15,88,200 // addps %xmm0,%xmm1 - .byte 15,89,29,172,157,1,0 // mulps 0x19dac(%rip),%xmm3 # 3a6b0 <_sk_srcover_bgra_8888_sse2_lowp+0x115c> + .byte 15,89,29,140,159,1,0 // mulps 0x19f8c(%rip),%xmm3 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1168> .byte 15,88,217 // addps %xmm1,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,192 // xorps %xmm0,%xmm0 @@ -31799,9 +32235,9 @@ _sk_evenly_spaced_gradient_sse41: .byte 72,139,24 // mov (%rax),%rbx .byte 76,139,112,8 // mov 0x8(%rax),%r14 .byte 72,255,203 // dec %rbx - .byte 120,7 // js 20da4 <_sk_evenly_spaced_gradient_sse41+0x18> + .byte 120,7 // js 215e4 <_sk_evenly_spaced_gradient_sse41+0x18> .byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1 - .byte 235,21 // jmp 20db9 <_sk_evenly_spaced_gradient_sse41+0x2d> + .byte 235,21 // jmp 215f9 <_sk_evenly_spaced_gradient_sse41+0x2d> .byte 73,137,216 // mov %rbx,%r8 .byte 73,209,232 // shr %r8 .byte 131,227,1 // and $0x1,%ebx @@ -31894,7 +32330,7 @@ _sk_gradient_sse41: .byte 76,139,0 // mov (%rax),%r8 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 73,131,248,2 // cmp $0x2,%r8 - .byte 114,41 // jb 20f96 <_sk_gradient_sse41+0x38> + .byte 114,41 // jb 217d6 <_sk_gradient_sse41+0x38> .byte 76,139,72,72 // mov 0x48(%rax),%r9 .byte 73,255,200 // dec %r8 .byte 73,131,193,4 // add $0x4,%r9 @@ -31905,7 +32341,7 @@ _sk_gradient_sse41: .byte 102,15,250,202 // psubd %xmm2,%xmm1 .byte 73,131,193,4 // add $0x4,%r9 .byte 73,255,200 // dec %r8 - .byte 117,230 // jne 20f7c <_sk_gradient_sse41+0x1e> + .byte 117,230 // jne 217bc <_sk_gradient_sse41+0x1e> .byte 65,86 // push %r14 .byte 83 // push %rbx .byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8 @@ -32036,26 +32472,26 @@ _sk_xy_to_unit_angle_sse41: .byte 69,15,94,226 // divps %xmm10,%xmm12 .byte 69,15,40,236 // movaps %xmm12,%xmm13 .byte 69,15,89,237 // mulps %xmm13,%xmm13 - .byte 68,15,40,21,214,148,1,0 // movaps 0x194d6(%rip),%xmm10 # 3a6c0 <_sk_srcover_bgra_8888_sse2_lowp+0x116c> + .byte 68,15,40,21,182,150,1,0 // movaps 0x196b6(%rip),%xmm10 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1178> .byte 69,15,89,213 // mulps %xmm13,%xmm10 - .byte 68,15,88,21,218,148,1,0 // addps 0x194da(%rip),%xmm10 # 3a6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x117c> + .byte 68,15,88,21,186,150,1,0 // addps 0x196ba(%rip),%xmm10 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188> .byte 69,15,89,213 // mulps %xmm13,%xmm10 - .byte 68,15,88,21,222,148,1,0 // addps 0x194de(%rip),%xmm10 # 3a6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x118c> + .byte 68,15,88,21,190,150,1,0 // addps 0x196be(%rip),%xmm10 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1198> .byte 69,15,89,213 // mulps %xmm13,%xmm10 - .byte 68,15,88,21,226,148,1,0 // addps 0x194e2(%rip),%xmm10 # 3a6f0 <_sk_srcover_bgra_8888_sse2_lowp+0x119c> + .byte 68,15,88,21,194,150,1,0 // addps 0x196c2(%rip),%xmm10 # 3b110 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8> .byte 69,15,89,212 // mulps %xmm12,%xmm10 .byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0 - .byte 68,15,40,29,225,148,1,0 // movaps 0x194e1(%rip),%xmm11 # 3a700 <_sk_srcover_bgra_8888_sse2_lowp+0x11ac> + .byte 68,15,40,29,193,150,1,0 // movaps 0x196c1(%rip),%xmm11 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8> .byte 69,15,92,218 // subps %xmm10,%xmm11 .byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10 .byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9 - .byte 68,15,40,29,234,142,1,0 // movaps 0x18eea(%rip),%xmm11 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,40,29,202,144,1,0 // movaps 0x190ca(%rip),%xmm11 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 69,15,92,218 // subps %xmm10,%xmm11 .byte 65,15,40,193 // movaps %xmm9,%xmm0 .byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 65,15,194,192,1 // cmpltps %xmm8,%xmm0 - .byte 68,15,40,13,220,142,1,0 // movaps 0x18edc(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,13,188,144,1,0 // movaps 0x190bc(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,92,202 // subps %xmm10,%xmm9 .byte 102,69,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm10 .byte 69,15,194,194,7 // cmpordps %xmm10,%xmm8 @@ -32090,7 +32526,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse41: .byte 243,69,15,89,203 // mulss %xmm11,%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 69,15,88,200 // addps %xmm8,%xmm9 - .byte 68,15,89,13,82,148,1,0 // mulps 0x19452(%rip),%xmm9 # 3a710 <_sk_srcover_bgra_8888_sse2_lowp+0x11bc> + .byte 68,15,89,13,50,150,1,0 // mulps 0x19632(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8> .byte 69,15,89,192 // mulps %xmm8,%xmm8 .byte 68,15,40,225 // movaps %xmm1,%xmm12 .byte 69,15,89,228 // mulps %xmm12,%xmm12 @@ -32098,7 +32534,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse41: .byte 243,69,15,89,219 // mulss %xmm11,%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 69,15,92,227 // subps %xmm11,%xmm12 - .byte 68,15,89,21,60,148,1,0 // mulps 0x1943c(%rip),%xmm10 # 3a720 <_sk_srcover_bgra_8888_sse2_lowp+0x11cc> + .byte 68,15,89,21,28,150,1,0 // mulps 0x1961c(%rip),%xmm10 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8> .byte 69,15,89,212 // mulps %xmm12,%xmm10 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 69,15,89,192 // mulps %xmm8,%xmm8 @@ -32106,7 +32542,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse41: .byte 69,15,81,192 // sqrtps %xmm8,%xmm8 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 69,15,92,193 // subps %xmm9,%xmm8 - .byte 15,89,5,25,142,1,0 // mulps 0x18e19(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,89,5,249,143,1,0 // mulps 0x18ff9(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -32125,7 +32561,7 @@ _sk_xy_to_2pt_conical_quadratic_second_sse41: .byte 243,69,15,89,203 // mulss %xmm11,%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 69,15,88,200 // addps %xmm8,%xmm9 - .byte 68,15,89,13,201,147,1,0 // mulps 0x193c9(%rip),%xmm9 # 3a710 <_sk_srcover_bgra_8888_sse2_lowp+0x11bc> + .byte 68,15,89,13,169,149,1,0 // mulps 0x195a9(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8> .byte 69,15,89,192 // mulps %xmm8,%xmm8 .byte 68,15,40,225 // movaps %xmm1,%xmm12 .byte 69,15,89,228 // mulps %xmm12,%xmm12 @@ -32133,16 +32569,16 @@ _sk_xy_to_2pt_conical_quadratic_second_sse41: .byte 243,69,15,89,219 // mulss %xmm11,%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 69,15,92,227 // subps %xmm11,%xmm12 - .byte 68,15,89,21,179,147,1,0 // mulps 0x193b3(%rip),%xmm10 # 3a720 <_sk_srcover_bgra_8888_sse2_lowp+0x11cc> + .byte 68,15,89,21,147,149,1,0 // mulps 0x19593(%rip),%xmm10 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8> .byte 69,15,89,212 // mulps %xmm12,%xmm10 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 69,15,89,192 // mulps %xmm8,%xmm8 .byte 69,15,88,194 // addps %xmm10,%xmm8 .byte 69,15,81,192 // sqrtps %xmm8,%xmm8 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 - .byte 68,15,87,13,179,146,1,0 // xorps 0x192b3(%rip),%xmm9 # 3a640 <_sk_srcover_bgra_8888_sse2_lowp+0x10ec> + .byte 68,15,87,13,147,148,1,0 // xorps 0x19493(%rip),%xmm9 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8> .byte 69,15,92,200 // subps %xmm8,%xmm9 - .byte 15,89,5,136,141,1,0 // mulps 0x18d88(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,89,5,104,143,1,0 // mulps 0x18f68(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -32157,7 +32593,7 @@ _sk_xy_to_2pt_conical_linear_sse41: .byte 243,69,15,89,200 // mulss %xmm8,%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 68,15,88,200 // addps %xmm0,%xmm9 - .byte 68,15,89,13,76,147,1,0 // mulps 0x1934c(%rip),%xmm9 # 3a710 <_sk_srcover_bgra_8888_sse2_lowp+0x11bc> + .byte 68,15,89,13,44,149,1,0 // mulps 0x1952c(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8> .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 68,15,40,209 // movaps %xmm1,%xmm10 .byte 69,15,89,210 // mulps %xmm10,%xmm10 @@ -32165,7 +32601,7 @@ _sk_xy_to_2pt_conical_linear_sse41: .byte 243,69,15,89,192 // mulss %xmm8,%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 65,15,92,192 // subps %xmm8,%xmm0 - .byte 15,87,5,88,146,1,0 // xorps 0x19258(%rip),%xmm0 # 3a640 <_sk_srcover_bgra_8888_sse2_lowp+0x10ec> + .byte 15,87,5,56,148,1,0 // xorps 0x19438(%rip),%xmm0 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8> .byte 65,15,94,193 // divps %xmm9,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -32213,7 +32649,7 @@ HIDDEN _sk_save_xy_sse41 FUNCTION(_sk_save_xy_sse41) _sk_save_xy_sse41: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 68,15,40,5,183,140,1,0 // movaps 0x18cb7(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,40,5,151,142,1,0 // movaps 0x18e97(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 15,17,0 // movups %xmm0,(%rax) .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 69,15,88,200 // addps %xmm8,%xmm9 @@ -32257,8 +32693,8 @@ _sk_bilinear_nx_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8 - .byte 15,88,5,48,146,1,0 // addps 0x19230(%rip),%xmm0 # 3a730 <_sk_srcover_bgra_8888_sse2_lowp+0x11dc> - .byte 68,15,40,13,40,140,1,0 // movaps 0x18c28(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,88,5,16,148,1,0 // addps 0x19410(%rip),%xmm0 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8> + .byte 68,15,40,13,8,142,1,0 // movaps 0x18e08(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -32271,7 +32707,7 @@ _sk_bilinear_px_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8 - .byte 15,88,5,244,139,1,0 // addps 0x18bf4(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,88,5,212,141,1,0 // addps 0x18dd4(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -32283,8 +32719,8 @@ _sk_bilinear_ny_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,64 // movups 0x40(%rax),%xmm1 .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8 - .byte 15,88,13,227,145,1,0 // addps 0x191e3(%rip),%xmm1 # 3a730 <_sk_srcover_bgra_8888_sse2_lowp+0x11dc> - .byte 68,15,40,13,219,139,1,0 // movaps 0x18bdb(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,88,13,195,147,1,0 // addps 0x193c3(%rip),%xmm1 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8> + .byte 68,15,40,13,187,141,1,0 // movaps 0x18dbb(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -32297,7 +32733,7 @@ _sk_bilinear_py_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,64 // movups 0x40(%rax),%xmm1 .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8 - .byte 15,88,13,166,139,1,0 // addps 0x18ba6(%rip),%xmm1 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,88,13,134,141,1,0 // addps 0x18d86(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -32309,13 +32745,13 @@ _sk_bicubic_n3x_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8 - .byte 15,88,5,166,145,1,0 // addps 0x191a6(%rip),%xmm0 # 3a740 <_sk_srcover_bgra_8888_sse2_lowp+0x11ec> - .byte 68,15,40,13,142,139,1,0 // movaps 0x18b8e(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,88,5,134,147,1,0 // addps 0x19386(%rip),%xmm0 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8> + .byte 68,15,40,13,110,141,1,0 // movaps 0x18d6e(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 69,15,89,192 // mulps %xmm8,%xmm8 - .byte 68,15,89,13,154,145,1,0 // mulps 0x1919a(%rip),%xmm9 # 3a750 <_sk_srcover_bgra_8888_sse2_lowp+0x11fc> - .byte 68,15,88,13,114,141,1,0 // addps 0x18d72(%rip),%xmm9 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc> + .byte 68,15,89,13,122,147,1,0 // mulps 0x1937a(%rip),%xmm9 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208> + .byte 68,15,88,13,82,143,1,0 // addps 0x18f52(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8> .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -32328,16 +32764,16 @@ _sk_bicubic_n1x_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8 - .byte 15,88,5,78,145,1,0 // addps 0x1914e(%rip),%xmm0 # 3a730 <_sk_srcover_bgra_8888_sse2_lowp+0x11dc> - .byte 68,15,40,13,70,139,1,0 // movaps 0x18b46(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,88,5,46,147,1,0 // addps 0x1932e(%rip),%xmm0 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8> + .byte 68,15,40,13,38,141,1,0 // movaps 0x18d26(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,92,200 // subps %xmm8,%xmm9 - .byte 68,15,40,5,106,145,1,0 // movaps 0x1916a(%rip),%xmm8 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x120c> + .byte 68,15,40,5,74,147,1,0 // movaps 0x1934a(%rip),%xmm8 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218> .byte 69,15,89,193 // mulps %xmm9,%xmm8 - .byte 68,15,88,5,110,145,1,0 // addps 0x1916e(%rip),%xmm8 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c> + .byte 68,15,88,5,78,147,1,0 // addps 0x1934e(%rip),%xmm8 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228> .byte 69,15,89,193 // mulps %xmm9,%xmm8 - .byte 68,15,88,5,18,139,1,0 // addps 0x18b12(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,88,5,242,140,1,0 // addps 0x18cf2(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 69,15,89,193 // mulps %xmm9,%xmm8 - .byte 68,15,88,5,102,145,1,0 // addps 0x19166(%rip),%xmm8 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x122c> + .byte 68,15,88,5,70,147,1,0 // addps 0x19346(%rip),%xmm8 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238> .byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -32347,17 +32783,17 @@ HIDDEN _sk_bicubic_p1x_sse41 FUNCTION(_sk_bicubic_p1x_sse41) _sk_bicubic_p1x_sse41: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 68,15,40,5,240,138,1,0 // movaps 0x18af0(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,40,5,208,140,1,0 // movaps 0x18cd0(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,136,128,0,0,0 // movups 0x80(%rax),%xmm9 .byte 65,15,88,192 // addps %xmm8,%xmm0 - .byte 68,15,40,21,25,145,1,0 // movaps 0x19119(%rip),%xmm10 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x120c> + .byte 68,15,40,21,249,146,1,0 // movaps 0x192f9(%rip),%xmm10 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218> .byte 69,15,89,209 // mulps %xmm9,%xmm10 - .byte 68,15,88,21,29,145,1,0 // addps 0x1911d(%rip),%xmm10 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c> + .byte 68,15,88,21,253,146,1,0 // addps 0x192fd(%rip),%xmm10 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228> .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,208 // addps %xmm8,%xmm10 .byte 69,15,89,209 // mulps %xmm9,%xmm10 - .byte 68,15,88,21,25,145,1,0 // addps 0x19119(%rip),%xmm10 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x122c> + .byte 68,15,88,21,249,146,1,0 // addps 0x192f9(%rip),%xmm10 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238> .byte 68,15,17,144,0,1,0,0 // movups %xmm10,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -32369,11 +32805,11 @@ _sk_bicubic_p3x_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8 - .byte 15,88,5,233,144,1,0 // addps 0x190e9(%rip),%xmm0 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c> + .byte 15,88,5,201,146,1,0 // addps 0x192c9(%rip),%xmm0 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228> .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 69,15,89,201 // mulps %xmm9,%xmm9 - .byte 68,15,89,5,185,144,1,0 // mulps 0x190b9(%rip),%xmm8 # 3a750 <_sk_srcover_bgra_8888_sse2_lowp+0x11fc> - .byte 68,15,88,5,145,140,1,0 // addps 0x18c91(%rip),%xmm8 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc> + .byte 68,15,89,5,153,146,1,0 // mulps 0x19299(%rip),%xmm8 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208> + .byte 68,15,88,5,113,142,1,0 // addps 0x18e71(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -32386,13 +32822,13 @@ _sk_bicubic_n3y_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,64 // movups 0x40(%rax),%xmm1 .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8 - .byte 15,88,13,124,144,1,0 // addps 0x1907c(%rip),%xmm1 # 3a740 <_sk_srcover_bgra_8888_sse2_lowp+0x11ec> - .byte 68,15,40,13,100,138,1,0 // movaps 0x18a64(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,88,13,92,146,1,0 // addps 0x1925c(%rip),%xmm1 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8> + .byte 68,15,40,13,68,140,1,0 // movaps 0x18c44(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 69,15,89,192 // mulps %xmm8,%xmm8 - .byte 68,15,89,13,112,144,1,0 // mulps 0x19070(%rip),%xmm9 # 3a750 <_sk_srcover_bgra_8888_sse2_lowp+0x11fc> - .byte 68,15,88,13,72,140,1,0 // addps 0x18c48(%rip),%xmm9 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc> + .byte 68,15,89,13,80,146,1,0 // mulps 0x19250(%rip),%xmm9 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208> + .byte 68,15,88,13,40,142,1,0 // addps 0x18e28(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8> .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -32405,16 +32841,16 @@ _sk_bicubic_n1y_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,64 // movups 0x40(%rax),%xmm1 .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8 - .byte 15,88,13,35,144,1,0 // addps 0x19023(%rip),%xmm1 # 3a730 <_sk_srcover_bgra_8888_sse2_lowp+0x11dc> - .byte 68,15,40,13,27,138,1,0 // movaps 0x18a1b(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,88,13,3,146,1,0 // addps 0x19203(%rip),%xmm1 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8> + .byte 68,15,40,13,251,139,1,0 // movaps 0x18bfb(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,92,200 // subps %xmm8,%xmm9 - .byte 68,15,40,5,63,144,1,0 // movaps 0x1903f(%rip),%xmm8 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x120c> + .byte 68,15,40,5,31,146,1,0 // movaps 0x1921f(%rip),%xmm8 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218> .byte 69,15,89,193 // mulps %xmm9,%xmm8 - .byte 68,15,88,5,67,144,1,0 // addps 0x19043(%rip),%xmm8 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c> + .byte 68,15,88,5,35,146,1,0 // addps 0x19223(%rip),%xmm8 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228> .byte 69,15,89,193 // mulps %xmm9,%xmm8 - .byte 68,15,88,5,231,137,1,0 // addps 0x189e7(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,88,5,199,139,1,0 // addps 0x18bc7(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 69,15,89,193 // mulps %xmm9,%xmm8 - .byte 68,15,88,5,59,144,1,0 // addps 0x1903b(%rip),%xmm8 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x122c> + .byte 68,15,88,5,27,146,1,0 // addps 0x1921b(%rip),%xmm8 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238> .byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -32424,17 +32860,17 @@ HIDDEN _sk_bicubic_p1y_sse41 FUNCTION(_sk_bicubic_p1y_sse41) _sk_bicubic_p1y_sse41: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 68,15,40,5,197,137,1,0 // movaps 0x189c5(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,40,5,165,139,1,0 // movaps 0x18ba5(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 15,16,72,64 // movups 0x40(%rax),%xmm1 .byte 68,15,16,136,192,0,0,0 // movups 0xc0(%rax),%xmm9 .byte 65,15,88,200 // addps %xmm8,%xmm1 - .byte 68,15,40,21,237,143,1,0 // movaps 0x18fed(%rip),%xmm10 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x120c> + .byte 68,15,40,21,205,145,1,0 // movaps 0x191cd(%rip),%xmm10 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218> .byte 69,15,89,209 // mulps %xmm9,%xmm10 - .byte 68,15,88,21,241,143,1,0 // addps 0x18ff1(%rip),%xmm10 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c> + .byte 68,15,88,21,209,145,1,0 // addps 0x191d1(%rip),%xmm10 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228> .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,208 // addps %xmm8,%xmm10 .byte 69,15,89,209 // mulps %xmm9,%xmm10 - .byte 68,15,88,21,237,143,1,0 // addps 0x18fed(%rip),%xmm10 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x122c> + .byte 68,15,88,21,205,145,1,0 // addps 0x191cd(%rip),%xmm10 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238> .byte 68,15,17,144,64,1,0,0 // movups %xmm10,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -32446,11 +32882,11 @@ _sk_bicubic_p3y_sse41: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,64 // movups 0x40(%rax),%xmm1 .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8 - .byte 15,88,13,188,143,1,0 // addps 0x18fbc(%rip),%xmm1 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c> + .byte 15,88,13,156,145,1,0 // addps 0x1919c(%rip),%xmm1 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228> .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 69,15,89,201 // mulps %xmm9,%xmm9 - .byte 68,15,89,5,140,143,1,0 // mulps 0x18f8c(%rip),%xmm8 # 3a750 <_sk_srcover_bgra_8888_sse2_lowp+0x11fc> - .byte 68,15,88,5,100,139,1,0 // addps 0x18b64(%rip),%xmm8 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc> + .byte 68,15,89,5,108,145,1,0 // mulps 0x1916c(%rip),%xmm8 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208> + .byte 68,15,88,5,68,141,1,0 // addps 0x18d44(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -32561,7 +32997,7 @@ _sk_clut_3D_sse41: .byte 15,89,194 // mulps %xmm2,%xmm0 .byte 15,41,68,36,208 // movaps %xmm0,-0x30(%rsp) .byte 243,15,91,240 // cvttps2dq %xmm0,%xmm6 - .byte 15,40,37,119,142,1,0 // movaps 0x18e77(%rip),%xmm4 # 3a790 <_sk_srcover_bgra_8888_sse2_lowp+0x123c> + .byte 15,40,37,87,144,1,0 // movaps 0x19057(%rip),%xmm4 # 3b1b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248> .byte 15,88,196 // addps %xmm4,%xmm0 .byte 15,41,68,36,176 // movaps %xmm0,-0x50(%rsp) .byte 102,65,15,110,208 // movd %r8d,%xmm2 @@ -32600,7 +33036,7 @@ _sk_clut_3D_sse41: .byte 102,68,15,56,64,192 // pmulld %xmm0,%xmm8 .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3 .byte 102,15,254,218 // paddd %xmm2,%xmm3 - .byte 102,68,15,111,37,206,141,1,0 // movdqa 0x18dce(%rip),%xmm12 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c> + .byte 102,68,15,111,37,174,143,1,0 // movdqa 0x18fae(%rip),%xmm12 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258> .byte 102,65,15,56,64,220 // pmulld %xmm12,%xmm3 .byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 @@ -32623,7 +33059,7 @@ _sk_clut_3D_sse41: .byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d .byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d .byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d - .byte 102,15,111,37,18,135,1,0 // movdqa 0x18712(%rip),%xmm4 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,15,111,37,242,136,1,0 // movdqa 0x188f2(%rip),%xmm4 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,15,254,220 // paddd %xmm4,%xmm3 .byte 102,15,111,252 // movdqa %xmm4,%xmm7 .byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14 @@ -32796,7 +33232,7 @@ _sk_clut_3D_sse41: .byte 102,68,15,254,202 // paddd %xmm2,%xmm9 .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0 .byte 102,65,15,254,193 // paddd %xmm9,%xmm0 - .byte 102,15,111,45,221,137,1,0 // movdqa 0x189dd(%rip),%xmm5 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c> + .byte 102,15,111,45,189,139,1,0 // movdqa 0x18bbd(%rip),%xmm5 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258> .byte 102,15,56,64,197 // pmulld %xmm5,%xmm0 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6 @@ -32817,7 +33253,7 @@ _sk_clut_3D_sse41: .byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d .byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d .byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d - .byte 102,15,111,61,46,131,1,0 // movdqa 0x1832e(%rip),%xmm7 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,15,111,61,14,133,1,0 // movdqa 0x1850e(%rip),%xmm7 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,15,254,199 // paddd %xmm7,%xmm0 .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx .byte 102,72,15,126,195 // movq %xmm0,%rbx @@ -32883,7 +33319,7 @@ _sk_clut_3D_sse41: .byte 15,88,248 // addps %xmm0,%xmm7 .byte 102,68,15,254,210 // paddd %xmm2,%xmm10 .byte 102,69,15,254,194 // paddd %xmm10,%xmm8 - .byte 102,15,111,13,25,136,1,0 // movdqa 0x18819(%rip),%xmm1 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c> + .byte 102,15,111,13,249,137,1,0 // movdqa 0x189f9(%rip),%xmm1 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258> .byte 102,68,15,56,64,193 // pmulld %xmm1,%xmm8 .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0 .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5 @@ -32904,7 +33340,7 @@ _sk_clut_3D_sse41: .byte 102,69,15,58,22,193,1 // pextrd $0x1,%xmm8,%r9d .byte 102,69,15,58,22,194,2 // pextrd $0x2,%xmm8,%r10d .byte 102,69,15,58,22,195,3 // pextrd $0x3,%xmm8,%r11d - .byte 102,15,111,21,100,129,1,0 // movdqa 0x18164(%rip),%xmm2 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,15,111,21,68,131,1,0 // movdqa 0x18344(%rip),%xmm2 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,68,15,254,194 // paddd %xmm2,%xmm8 .byte 102,76,15,58,22,193,1 // pextrq $0x1,%xmm8,%rcx .byte 102,76,15,126,195 // movq %xmm8,%rbx @@ -33031,7 +33467,7 @@ _sk_clut_4D_sse41: .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 15,41,76,36,48 // movaps %xmm1,0x30(%rsp) .byte 243,15,91,249 // cvttps2dq %xmm1,%xmm7 - .byte 15,40,29,119,133,1,0 // movaps 0x18577(%rip),%xmm3 # 3a790 <_sk_srcover_bgra_8888_sse2_lowp+0x123c> + .byte 15,40,29,87,135,1,0 // movaps 0x18757(%rip),%xmm3 # 3b1b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248> .byte 15,88,203 // addps %xmm3,%xmm1 .byte 15,41,76,36,160 // movaps %xmm1,-0x60(%rsp) .byte 102,65,15,110,232 // movd %r8d,%xmm5 @@ -33088,7 +33524,7 @@ _sk_clut_4D_sse41: .byte 102,68,15,56,64,253 // pmulld %xmm5,%xmm15 .byte 102,65,15,111,223 // movdqa %xmm15,%xmm3 .byte 102,15,254,217 // paddd %xmm1,%xmm3 - .byte 102,68,15,111,29,118,132,1,0 // movdqa 0x18476(%rip),%xmm11 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c> + .byte 102,68,15,111,29,86,134,1,0 // movdqa 0x18656(%rip),%xmm11 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258> .byte 102,65,15,56,64,219 // pmulld %xmm11,%xmm3 .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0 .byte 102,15,111,243 // movdqa %xmm3,%xmm6 @@ -33110,7 +33546,7 @@ _sk_clut_4D_sse41: .byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d .byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d .byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d - .byte 102,68,15,111,21,190,125,1,0 // movdqa 0x17dbe(%rip),%xmm10 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,68,15,111,21,158,127,1,0 // movdqa 0x17f9e(%rip),%xmm10 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,65,15,254,218 // paddd %xmm10,%xmm3 .byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14 .byte 102,72,15,126,219 // movq %xmm3,%rbx @@ -33128,7 +33564,7 @@ _sk_clut_4D_sse41: .byte 102,65,15,254,201 // paddd %xmm9,%xmm1 .byte 102,65,15,56,64,203 // pmulld %xmm11,%xmm1 .byte 102,15,111,217 // movdqa %xmm1,%xmm3 - .byte 102,15,250,29,172,131,1,0 // psubd 0x183ac(%rip),%xmm3 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c> + .byte 102,15,250,29,140,133,1,0 // psubd 0x1858c(%rip),%xmm3 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268> .byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14 .byte 102,72,15,126,219 // movq %xmm3,%rbx .byte 65,137,223 // mov %ebx,%r15d @@ -33183,7 +33619,7 @@ _sk_clut_4D_sse41: .byte 102,65,15,254,199 // paddd %xmm15,%xmm0 .byte 102,65,15,56,64,195 // pmulld %xmm11,%xmm0 .byte 102,15,111,232 // movdqa %xmm0,%xmm5 - .byte 102,15,250,45,140,130,1,0 // psubd 0x1828c(%rip),%xmm5 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c> + .byte 102,15,250,45,108,132,1,0 // psubd 0x1846c(%rip),%xmm5 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268> .byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8 .byte 102,72,15,58,22,233,1 // pextrq $0x1,%xmm5,%rcx .byte 102,72,15,126,237 // movq %xmm5,%rbp @@ -33308,7 +33744,7 @@ _sk_clut_4D_sse41: .byte 72,193,233,32 // shr $0x20,%rcx .byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4 .byte 102,68,15,58,33,220,48 // insertps $0x30,%xmm4,%xmm11 - .byte 102,15,111,61,176,121,1,0 // movdqa 0x179b0(%rip),%xmm7 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,15,111,61,144,123,1,0 // movdqa 0x17b90(%rip),%xmm7 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,15,254,223 // paddd %xmm7,%xmm3 .byte 102,72,15,58,22,217,1 // pextrq $0x1,%xmm3,%rcx .byte 102,72,15,126,221 // movq %xmm3,%rbp @@ -33394,7 +33830,7 @@ _sk_clut_4D_sse41: .byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d .byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d .byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d - .byte 102,68,15,111,21,244,119,1,0 // movdqa 0x177f4(%rip),%xmm10 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,68,15,111,21,212,121,1,0 // movdqa 0x179d4(%rip),%xmm10 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,65,15,254,202 // paddd %xmm10,%xmm1 .byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx .byte 102,72,15,126,203 // movq %xmm1,%rbx @@ -33490,7 +33926,7 @@ _sk_clut_4D_sse41: .byte 102,15,111,124,36,192 // movdqa -0x40(%rsp),%xmm7 .byte 102,15,111,199 // movdqa %xmm7,%xmm0 .byte 102,15,254,195 // paddd %xmm3,%xmm0 - .byte 102,15,111,21,78,124,1,0 // movdqa 0x17c4e(%rip),%xmm2 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c> + .byte 102,15,111,21,46,126,1,0 // movdqa 0x17e2e(%rip),%xmm2 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258> .byte 102,15,56,64,194 // pmulld %xmm2,%xmm0 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8 @@ -33511,7 +33947,7 @@ _sk_clut_4D_sse41: .byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d .byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d .byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d - .byte 102,15,111,37,157,117,1,0 // movdqa 0x1759d(%rip),%xmm4 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,15,111,37,125,119,1,0 // movdqa 0x1777d(%rip),%xmm4 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,15,254,196 // paddd %xmm4,%xmm0 .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx .byte 102,72,15,126,195 // movq %xmm0,%rbx @@ -33583,7 +34019,7 @@ _sk_clut_4D_sse41: .byte 102,68,15,111,226 // movdqa %xmm2,%xmm12 .byte 102,65,15,56,64,204 // pmulld %xmm12,%xmm1 .byte 102,15,111,209 // movdqa %xmm1,%xmm2 - .byte 102,15,250,21,121,122,1,0 // psubd 0x17a79(%rip),%xmm2 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c> + .byte 102,15,250,21,89,124,1,0 // psubd 0x17c59(%rip),%xmm2 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268> .byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx .byte 102,72,15,126,213 // movq %xmm2,%rbp .byte 137,235 // mov %ebp,%ebx @@ -33617,7 +34053,7 @@ _sk_clut_4D_sse41: .byte 102,65,15,111,249 // movdqa %xmm9,%xmm7 .byte 102,69,15,56,64,236 // pmulld %xmm12,%xmm13 .byte 102,65,15,111,205 // movdqa %xmm13,%xmm1 - .byte 102,15,250,13,197,121,1,0 // psubd 0x179c5(%rip),%xmm1 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c> + .byte 102,15,250,13,165,123,1,0 // psubd 0x17ba5(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268> .byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx .byte 102,72,15,126,203 // movq %xmm1,%rbx .byte 137,221 // mov %ebx,%ebp @@ -33682,7 +34118,7 @@ _sk_clut_4D_sse41: .byte 102,65,15,111,206 // movdqa %xmm14,%xmm1 .byte 102,15,111,108,36,192 // movdqa -0x40(%rsp),%xmm5 .byte 102,15,254,205 // paddd %xmm5,%xmm1 - .byte 102,15,111,37,92,120,1,0 // movdqa 0x1785c(%rip),%xmm4 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c> + .byte 102,15,111,37,60,122,1,0 // movdqa 0x17a3c(%rip),%xmm4 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258> .byte 102,15,56,64,204 // pmulld %xmm4,%xmm1 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6 @@ -33703,7 +34139,7 @@ _sk_clut_4D_sse41: .byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d .byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d .byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d - .byte 102,15,111,29,173,113,1,0 // movdqa 0x171ad(%rip),%xmm3 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,15,111,29,141,115,1,0 // movdqa 0x1738d(%rip),%xmm3 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,15,254,203 // paddd %xmm3,%xmm1 .byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx .byte 102,72,15,126,203 // movq %xmm1,%rbx @@ -33775,7 +34211,7 @@ _sk_clut_4D_sse41: .byte 102,15,56,64,239 // pmulld %xmm7,%xmm5 .byte 102,15,111,205 // movdqa %xmm5,%xmm1 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 - .byte 102,15,250,5,141,118,1,0 // psubd 0x1768d(%rip),%xmm0 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c> + .byte 102,15,250,5,109,120,1,0 // psubd 0x1786d(%rip),%xmm0 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268> .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx .byte 102,72,15,126,197 // movq %xmm0,%rbp .byte 137,235 // mov %ebp,%ebx @@ -33793,7 +34229,7 @@ _sk_clut_4D_sse41: .byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d .byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d .byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d - .byte 102,15,254,5,219,111,1,0 // paddd 0x16fdb(%rip),%xmm0 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,15,254,5,187,113,1,0 // paddd 0x171bb(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx .byte 102,72,15,126,195 // movq %xmm0,%rbx .byte 137,221 // mov %ebx,%ebp @@ -33809,7 +34245,7 @@ _sk_clut_4D_sse41: .byte 102,15,254,84,36,176 // paddd -0x50(%rsp),%xmm2 .byte 102,15,56,64,215 // pmulld %xmm7,%xmm2 .byte 102,15,111,194 // movdqa %xmm2,%xmm0 - .byte 102,15,250,5,212,117,1,0 // psubd 0x175d4(%rip),%xmm0 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c> + .byte 102,15,250,5,180,119,1,0 // psubd 0x177b4(%rip),%xmm0 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268> .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx .byte 102,72,15,126,195 // movq %xmm0,%rbx .byte 137,221 // mov %ebx,%ebp @@ -33827,7 +34263,7 @@ _sk_clut_4D_sse41: .byte 102,65,15,58,22,199,1 // pextrd $0x1,%xmm0,%r15d .byte 102,65,15,58,22,196,2 // pextrd $0x2,%xmm0,%r12d .byte 102,65,15,58,22,198,3 // pextrd $0x3,%xmm0,%r14d - .byte 102,15,254,5,34,111,1,0 // paddd 0x16f22(%rip),%xmm0 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,15,254,5,2,113,1,0 // paddd 0x17102(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,72,15,58,22,195,1 // pextrq $0x1,%xmm0,%rbx .byte 102,72,15,126,197 // movq %xmm0,%rbp .byte 137,233 // mov %ebp,%ecx @@ -33890,7 +34326,7 @@ _sk_clut_4D_sse41: .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 65,15,88,211 // addps %xmm11,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,223,109,1,0 // movaps 0x16ddf(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,29,191,111,1,0 // movaps 0x16fbf(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 72,139,76,36,248 // mov -0x8(%rsp),%rcx .byte 15,40,100,36,64 // movaps 0x40(%rsp),%xmm4 .byte 15,40,108,36,80 // movaps 0x50(%rsp),%xmm5 @@ -33909,15 +34345,15 @@ HIDDEN _sk_gauss_a_to_rgba_sse41 .globl _sk_gauss_a_to_rgba_sse41 FUNCTION(_sk_gauss_a_to_rgba_sse41) _sk_gauss_a_to_rgba_sse41: - .byte 15,40,5,60,116,1,0 // movaps 0x1743c(%rip),%xmm0 # 3a7c0 <_sk_srcover_bgra_8888_sse2_lowp+0x126c> + .byte 15,40,5,28,118,1,0 // movaps 0x1761c(%rip),%xmm0 # 3b1e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278> .byte 15,89,195 // mulps %xmm3,%xmm0 - .byte 15,88,5,66,116,1,0 // addps 0x17442(%rip),%xmm0 # 3a7d0 <_sk_srcover_bgra_8888_sse2_lowp+0x127c> + .byte 15,88,5,34,118,1,0 // addps 0x17622(%rip),%xmm0 # 3b1f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1288> .byte 15,89,195 // mulps %xmm3,%xmm0 - .byte 15,88,5,72,116,1,0 // addps 0x17448(%rip),%xmm0 # 3a7e0 <_sk_srcover_bgra_8888_sse2_lowp+0x128c> + .byte 15,88,5,40,118,1,0 // addps 0x17628(%rip),%xmm0 # 3b200 <_sk_srcover_bgra_8888_sse2_lowp+0x1298> .byte 15,89,195 // mulps %xmm3,%xmm0 - .byte 15,88,5,78,116,1,0 // addps 0x1744e(%rip),%xmm0 # 3a7f0 <_sk_srcover_bgra_8888_sse2_lowp+0x129c> + .byte 15,88,5,46,118,1,0 // addps 0x1762e(%rip),%xmm0 # 3b210 <_sk_srcover_bgra_8888_sse2_lowp+0x12a8> .byte 15,89,195 // mulps %xmm3,%xmm0 - .byte 15,88,5,84,116,1,0 // addps 0x17454(%rip),%xmm0 # 3a800 <_sk_srcover_bgra_8888_sse2_lowp+0x12ac> + .byte 15,88,5,52,118,1,0 // addps 0x17634(%rip),%xmm0 # 3b220 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 @@ -33945,13 +34381,13 @@ _sk_start_pipeline_sse2: .byte 73,137,246 // mov %rsi,%r14 .byte 72,137,77,192 // mov %rcx,-0x40(%rbp) .byte 72,57,203 // cmp %rcx,%rbx - .byte 15,131,131,0,0,0 // jae 2346f <_sk_start_pipeline_sse2+0xb6> + .byte 15,131,131,0,0,0 // jae 23caf <_sk_start_pipeline_sse2+0xb6> .byte 72,139,69,208 // mov -0x30(%rbp),%rax .byte 72,141,64,4 // lea 0x4(%rax),%rax .byte 72,137,69,200 // mov %rax,-0x38(%rbp) .byte 76,57,125,200 // cmp %r15,-0x38(%rbp) .byte 72,139,85,208 // mov -0x30(%rbp),%rdx - .byte 119,59 // ja 2343d <_sk_start_pipeline_sse2+0x84> + .byte 119,59 // ja 23c7d <_sk_start_pipeline_sse2+0x84> .byte 76,139,101,208 // mov -0x30(%rbp),%r12 .byte 49,255 // xor %edi,%edi .byte 15,87,192 // xorps %xmm0,%xmm0 @@ -33970,10 +34406,10 @@ _sk_start_pipeline_sse2: .byte 73,131,196,8 // add $0x8,%r12 .byte 77,57,252 // cmp %r15,%r12 .byte 73,137,212 // mov %rdx,%r12 - .byte 118,201 // jbe 23406 <_sk_start_pipeline_sse2+0x4d> + .byte 118,201 // jbe 23c46 <_sk_start_pipeline_sse2+0x4d> .byte 76,137,255 // mov %r15,%rdi .byte 72,41,215 // sub %rdx,%rdi - .byte 116,33 // je 23466 <_sk_start_pipeline_sse2+0xad> + .byte 116,33 // je 23ca6 <_sk_start_pipeline_sse2+0xad> .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 @@ -33987,7 +34423,7 @@ _sk_start_pipeline_sse2: .byte 65,255,213 // callq *%r13 .byte 72,255,195 // inc %rbx .byte 72,59,93,192 // cmp -0x40(%rbp),%rbx - .byte 117,137 // jne 233f8 <_sk_start_pipeline_sse2+0x3f> + .byte 117,137 // jne 23c38 <_sk_start_pipeline_sse2+0x3f> .byte 72,131,196,24 // add $0x18,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 @@ -34016,9 +34452,9 @@ _sk_seed_shader_sse2: .byte 102,15,110,201 // movd %ecx,%xmm1 .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 - .byte 15,88,13,122,108,1,0 // addps 0x16c7a(%rip),%xmm1 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,88,13,90,110,1,0 // addps 0x16e5a(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,21,129,108,1,0 // movaps 0x16c81(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,21,97,110,1,0 // movaps 0x16e61(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,87,237 // xorps %xmm5,%xmm5 @@ -34033,18 +34469,18 @@ _sk_dither_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,68,15,110,194 // movd %edx,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 - .byte 102,68,15,254,5,42,108,1,0 // paddd 0x16c2a(%rip),%xmm8 # 3a100 <_sk_srcover_bgra_8888_sse2_lowp+0xbac> + .byte 102,68,15,254,5,10,110,1,0 // paddd 0x16e0a(%rip),%xmm8 # 3ab20 <_sk_srcover_bgra_8888_sse2_lowp+0xbb8> .byte 102,68,15,110,201 // movd %ecx,%xmm9 .byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9 .byte 102,69,15,239,200 // pxor %xmm8,%xmm9 - .byte 102,68,15,111,21,81,108,1,0 // movdqa 0x16c51(%rip),%xmm10 # 3a140 <_sk_srcover_bgra_8888_sse2_lowp+0xbec> + .byte 102,68,15,111,21,49,110,1,0 // movdqa 0x16e31(%rip),%xmm10 # 3ab60 <_sk_srcover_bgra_8888_sse2_lowp+0xbf8> .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11 .byte 102,69,15,219,218 // pand %xmm10,%xmm11 .byte 102,65,15,114,243,5 // pslld $0x5,%xmm11 .byte 102,69,15,219,208 // pand %xmm8,%xmm10 .byte 102,65,15,114,242,4 // pslld $0x4,%xmm10 - .byte 102,68,15,111,37,61,108,1,0 // movdqa 0x16c3d(%rip),%xmm12 # 3a150 <_sk_srcover_bgra_8888_sse2_lowp+0xbfc> - .byte 102,68,15,111,45,68,108,1,0 // movdqa 0x16c44(%rip),%xmm13 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,68,15,111,37,29,110,1,0 // movdqa 0x16e1d(%rip),%xmm12 # 3ab70 <_sk_srcover_bgra_8888_sse2_lowp+0xc08> + .byte 102,68,15,111,45,36,110,1,0 // movdqa 0x16e24(%rip),%xmm13 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,69,15,111,241 // movdqa %xmm9,%xmm14 .byte 102,69,15,219,245 // pand %xmm13,%xmm14 .byte 102,65,15,114,246,2 // pslld $0x2,%xmm14 @@ -34060,8 +34496,8 @@ _sk_dither_sse2: .byte 102,69,15,235,198 // por %xmm14,%xmm8 .byte 102,69,15,235,193 // por %xmm9,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 - .byte 68,15,89,5,255,107,1,0 // mulps 0x16bff(%rip),%xmm8 # 3a170 <_sk_srcover_bgra_8888_sse2_lowp+0xc1c> - .byte 68,15,88,5,7,108,1,0 // addps 0x16c07(%rip),%xmm8 # 3a180 <_sk_srcover_bgra_8888_sse2_lowp+0xc2c> + .byte 68,15,89,5,223,109,1,0 // mulps 0x16ddf(%rip),%xmm8 # 3ab90 <_sk_srcover_bgra_8888_sse2_lowp+0xc28> + .byte 68,15,88,5,231,109,1,0 // addps 0x16de7(%rip),%xmm8 # 3aba0 <_sk_srcover_bgra_8888_sse2_lowp+0xc38> .byte 243,68,15,16,16 // movss (%rax),%xmm10 .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10 .byte 69,15,89,208 // mulps %xmm8,%xmm10 @@ -34103,7 +34539,7 @@ HIDDEN _sk_black_color_sse2 FUNCTION(_sk_black_color_sse2) _sk_black_color_sse2: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,61,107,1,0 // movaps 0x16b3d(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,29,29,109,1,0 // movaps 0x16d1d(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 @@ -34114,7 +34550,7 @@ HIDDEN _sk_white_color_sse2 FUNCTION(_sk_white_color_sse2) _sk_white_color_sse2: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,5,41,107,1,0 // movaps 0x16b29(%rip),%xmm0 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,5,9,109,1,0 // movaps 0x16d09(%rip),%xmm0 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,40,216 // movaps %xmm0,%xmm3 @@ -34160,7 +34596,7 @@ HIDDEN _sk_srcatop_sse2 FUNCTION(_sk_srcatop_sse2) _sk_srcatop_sse2: .byte 15,89,199 // mulps %xmm7,%xmm0 - .byte 68,15,40,5,217,106,1,0 // movaps 0x16ad9(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,185,108,1,0 // movaps 0x16cb9(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,89,204 // mulps %xmm4,%xmm9 @@ -34185,7 +34621,7 @@ FUNCTION(_sk_dstatop_sse2) _sk_dstatop_sse2: .byte 68,15,40,195 // movaps %xmm3,%xmm8 .byte 68,15,89,196 // mulps %xmm4,%xmm8 - .byte 68,15,40,13,140,106,1,0 // movaps 0x16a8c(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,13,108,108,1,0 // movaps 0x16c6c(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,92,207 // subps %xmm7,%xmm9 .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 65,15,88,192 // addps %xmm8,%xmm0 @@ -34232,7 +34668,7 @@ HIDDEN _sk_srcout_sse2 .globl _sk_srcout_sse2 FUNCTION(_sk_srcout_sse2) _sk_srcout_sse2: - .byte 68,15,40,5,32,106,1,0 // movaps 0x16a20(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,0,108,1,0 // movaps 0x16c00(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,92,199 // subps %xmm7,%xmm8 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,89,200 // mulps %xmm8,%xmm1 @@ -34245,7 +34681,7 @@ HIDDEN _sk_dstout_sse2 .globl _sk_dstout_sse2 FUNCTION(_sk_dstout_sse2) _sk_dstout_sse2: - .byte 68,15,40,5,0,106,1,0 // movaps 0x16a00(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,224,107,1,0 // movaps 0x16be0(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 @@ -34262,7 +34698,7 @@ HIDDEN _sk_srcover_sse2 .globl _sk_srcover_sse2 FUNCTION(_sk_srcover_sse2) _sk_srcover_sse2: - .byte 68,15,40,5,211,105,1,0 // movaps 0x169d3(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,179,107,1,0 // movaps 0x16bb3(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,92,195 // subps %xmm3,%xmm8 .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,89,204 // mulps %xmm4,%xmm9 @@ -34282,7 +34718,7 @@ HIDDEN _sk_dstover_sse2 .globl _sk_dstover_sse2 FUNCTION(_sk_dstover_sse2) _sk_dstover_sse2: - .byte 68,15,40,5,151,105,1,0 // movaps 0x16997(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,119,107,1,0 // movaps 0x16b77(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,92,199 // subps %xmm7,%xmm8 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 @@ -34310,7 +34746,7 @@ HIDDEN _sk_multiply_sse2 .globl _sk_multiply_sse2 FUNCTION(_sk_multiply_sse2) _sk_multiply_sse2: - .byte 68,15,40,5,91,105,1,0 // movaps 0x1695b(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,59,107,1,0 // movaps 0x16b3b(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,92,207 // subps %xmm7,%xmm9 .byte 69,15,40,209 // movaps %xmm9,%xmm10 @@ -34348,7 +34784,7 @@ HIDDEN _sk_plus__sse2 FUNCTION(_sk_plus__sse2) _sk_plus__sse2: .byte 15,88,196 // addps %xmm4,%xmm0 - .byte 68,15,40,5,220,104,1,0 // movaps 0x168dc(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,188,106,1,0 // movaps 0x16abc(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 65,15,93,192 // minps %xmm8,%xmm0 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 65,15,93,200 // minps %xmm8,%xmm1 @@ -34390,7 +34826,7 @@ HIDDEN _sk_xor__sse2 FUNCTION(_sk_xor__sse2) _sk_xor__sse2: .byte 68,15,40,195 // movaps %xmm3,%xmm8 - .byte 15,40,29,104,104,1,0 // movaps 0x16868(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,29,72,106,1,0 // movaps 0x16a48(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,40,203 // movaps %xmm3,%xmm9 .byte 68,15,92,207 // subps %xmm7,%xmm9 .byte 65,15,89,193 // mulps %xmm9,%xmm0 @@ -34438,7 +34874,7 @@ _sk_darken_sse2: .byte 68,15,89,206 // mulps %xmm6,%xmm9 .byte 65,15,95,209 // maxps %xmm9,%xmm2 .byte 68,15,92,194 // subps %xmm2,%xmm8 - .byte 15,40,21,195,103,1,0 // movaps 0x167c3(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,21,163,105,1,0 // movaps 0x169a3(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,88,218 // addps %xmm2,%xmm3 @@ -34472,7 +34908,7 @@ _sk_lighten_sse2: .byte 68,15,89,206 // mulps %xmm6,%xmm9 .byte 65,15,93,209 // minps %xmm9,%xmm2 .byte 68,15,92,194 // subps %xmm2,%xmm8 - .byte 15,40,21,88,103,1,0 // movaps 0x16758(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,21,56,105,1,0 // movaps 0x16938(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,88,218 // addps %xmm2,%xmm3 @@ -34509,7 +34945,7 @@ _sk_difference_sse2: .byte 65,15,93,209 // minps %xmm9,%xmm2 .byte 15,88,210 // addps %xmm2,%xmm2 .byte 68,15,92,194 // subps %xmm2,%xmm8 - .byte 15,40,21,226,102,1,0 // movaps 0x166e2(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,21,194,104,1,0 // movaps 0x168c2(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,88,218 // addps %xmm2,%xmm3 @@ -34537,7 +34973,7 @@ _sk_exclusion_sse2: .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 15,88,210 // addps %xmm2,%xmm2 .byte 68,15,92,194 // subps %xmm2,%xmm8 - .byte 15,40,21,146,102,1,0 // movaps 0x16692(%rip),%xmm2 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,21,114,104,1,0 // movaps 0x16872(%rip),%xmm2 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,215 // mulps %xmm7,%xmm2 .byte 15,88,218 // addps %xmm2,%xmm3 @@ -34550,7 +34986,7 @@ HIDDEN _sk_colorburn_sse2 FUNCTION(_sk_colorburn_sse2) _sk_colorburn_sse2: .byte 68,15,40,192 // movaps %xmm0,%xmm8 - .byte 68,15,40,13,117,102,1,0 // movaps 0x16675(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,13,85,104,1,0 // movaps 0x16855(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,40,209 // movaps %xmm9,%xmm10 .byte 68,15,92,215 // subps %xmm7,%xmm10 .byte 69,15,40,218 // movaps %xmm10,%xmm11 @@ -34645,7 +35081,7 @@ HIDDEN _sk_colordodge_sse2 FUNCTION(_sk_colordodge_sse2) _sk_colordodge_sse2: .byte 68,15,40,200 // movaps %xmm0,%xmm9 - .byte 68,15,40,21,29,101,1,0 // movaps 0x1651d(%rip),%xmm10 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,21,253,102,1,0 // movaps 0x166fd(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,40,218 // movaps %xmm10,%xmm11 .byte 68,15,92,223 // subps %xmm7,%xmm11 .byte 65,15,40,195 // movaps %xmm11,%xmm0 @@ -34737,7 +35173,7 @@ _sk_hardlight_sse2: .byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp) .byte 15,40,245 // movaps %xmm5,%xmm6 .byte 15,40,236 // movaps %xmm4,%xmm5 - .byte 68,15,40,29,198,99,1,0 // movaps 0x163c6(%rip),%xmm11 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,29,166,101,1,0 // movaps 0x165a6(%rip),%xmm11 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,40,211 // movaps %xmm11,%xmm10 .byte 68,15,92,215 // subps %xmm7,%xmm10 .byte 69,15,40,194 // movaps %xmm10,%xmm8 @@ -34825,7 +35261,7 @@ FUNCTION(_sk_overlay_sse2) _sk_overlay_sse2: .byte 68,15,40,193 // movaps %xmm1,%xmm8 .byte 68,15,40,232 // movaps %xmm0,%xmm13 - .byte 68,15,40,13,132,98,1,0 // movaps 0x16284(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,13,100,100,1,0 // movaps 0x16464(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,40,209 // movaps %xmm9,%xmm10 .byte 68,15,92,215 // subps %xmm7,%xmm10 .byte 69,15,40,218 // movaps %xmm10,%xmm11 @@ -34916,7 +35352,7 @@ _sk_softlight_sse2: .byte 68,15,40,213 // movaps %xmm5,%xmm10 .byte 68,15,94,215 // divps %xmm7,%xmm10 .byte 69,15,84,212 // andps %xmm12,%xmm10 - .byte 68,15,40,13,49,97,1,0 // movaps 0x16131(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,13,17,99,1,0 // movaps 0x16311(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,40,249 // movaps %xmm9,%xmm15 .byte 69,15,92,250 // subps %xmm10,%xmm15 .byte 69,15,40,218 // movaps %xmm10,%xmm11 @@ -34929,10 +35365,10 @@ _sk_softlight_sse2: .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 65,15,88,194 // addps %xmm10,%xmm0 - .byte 68,15,40,53,91,97,1,0 // movaps 0x1615b(%rip),%xmm14 # 3a190 <_sk_srcover_bgra_8888_sse2_lowp+0xc3c> + .byte 68,15,40,53,59,99,1,0 // movaps 0x1633b(%rip),%xmm14 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48> .byte 69,15,88,222 // addps %xmm14,%xmm11 .byte 68,15,89,216 // mulps %xmm0,%xmm11 - .byte 68,15,40,21,91,97,1,0 // movaps 0x1615b(%rip),%xmm10 # 3a1a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc4c> + .byte 68,15,40,21,59,99,1,0 // movaps 0x1633b(%rip),%xmm10 # 3abc0 <_sk_srcover_bgra_8888_sse2_lowp+0xc58> .byte 69,15,89,234 // mulps %xmm10,%xmm13 .byte 69,15,88,235 // addps %xmm11,%xmm13 .byte 15,88,228 // addps %xmm4,%xmm4 @@ -35077,7 +35513,7 @@ _sk_hue_sse2: .byte 68,15,40,209 // movaps %xmm1,%xmm10 .byte 68,15,40,225 // movaps %xmm1,%xmm12 .byte 68,15,89,211 // mulps %xmm3,%xmm10 - .byte 68,15,40,5,238,94,1,0 // movaps 0x15eee(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,206,96,1,0 // movaps 0x160ce(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,40,216 // movaps %xmm8,%xmm11 .byte 15,40,207 // movaps %xmm7,%xmm1 .byte 68,15,92,217 // subps %xmm1,%xmm11 @@ -35125,12 +35561,12 @@ _sk_hue_sse2: .byte 69,15,84,206 // andps %xmm14,%xmm9 .byte 69,15,84,214 // andps %xmm14,%xmm10 .byte 65,15,84,214 // andps %xmm14,%xmm2 - .byte 68,15,40,61,171,94,1,0 // movaps 0x15eab(%rip),%xmm15 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c> + .byte 68,15,40,61,139,96,1,0 // movaps 0x1608b(%rip),%xmm15 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68> .byte 65,15,89,231 // mulps %xmm15,%xmm4 - .byte 15,40,5,176,94,1,0 // movaps 0x15eb0(%rip),%xmm0 # 3a1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc6c> + .byte 15,40,5,144,96,1,0 // movaps 0x16090(%rip),%xmm0 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78> .byte 15,89,240 // mulps %xmm0,%xmm6 .byte 15,88,244 // addps %xmm4,%xmm6 - .byte 68,15,40,53,178,94,1,0 // movaps 0x15eb2(%rip),%xmm14 # 3a1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xc7c> + .byte 68,15,40,53,146,96,1,0 // movaps 0x16092(%rip),%xmm14 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88> .byte 68,15,40,239 // movaps %xmm7,%xmm13 .byte 69,15,89,238 // mulps %xmm14,%xmm13 .byte 68,15,88,238 // addps %xmm6,%xmm13 @@ -35308,14 +35744,14 @@ _sk_saturation_sse2: .byte 68,15,84,211 // andps %xmm3,%xmm10 .byte 68,15,84,203 // andps %xmm3,%xmm9 .byte 15,84,195 // andps %xmm3,%xmm0 - .byte 68,15,40,5,4,92,1,0 // movaps 0x15c04(%rip),%xmm8 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c> + .byte 68,15,40,5,228,93,1,0 // movaps 0x15de4(%rip),%xmm8 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68> .byte 15,40,214 // movaps %xmm6,%xmm2 .byte 65,15,89,208 // mulps %xmm8,%xmm2 - .byte 15,40,13,6,92,1,0 // movaps 0x15c06(%rip),%xmm1 # 3a1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc6c> + .byte 15,40,13,230,93,1,0 // movaps 0x15de6(%rip),%xmm1 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78> .byte 15,40,221 // movaps %xmm5,%xmm3 .byte 15,89,217 // mulps %xmm1,%xmm3 .byte 15,88,218 // addps %xmm2,%xmm3 - .byte 68,15,40,37,5,92,1,0 // movaps 0x15c05(%rip),%xmm12 # 3a1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xc7c> + .byte 68,15,40,37,229,93,1,0 // movaps 0x15de5(%rip),%xmm12 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88> .byte 69,15,89,236 // mulps %xmm12,%xmm13 .byte 68,15,88,235 // addps %xmm3,%xmm13 .byte 65,15,40,210 // movaps %xmm10,%xmm2 @@ -35360,7 +35796,7 @@ _sk_saturation_sse2: .byte 15,40,223 // movaps %xmm7,%xmm3 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,89,221 // mulps %xmm5,%xmm3 - .byte 68,15,40,5,186,90,1,0 // movaps 0x15aba(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,154,92,1,0 // movaps 0x15c9a(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 65,15,40,224 // movaps %xmm8,%xmm4 .byte 68,15,92,199 // subps %xmm7,%xmm8 .byte 15,88,253 // addps %xmm5,%xmm7 @@ -35461,14 +35897,14 @@ _sk_color_sse2: .byte 68,15,40,213 // movaps %xmm5,%xmm10 .byte 69,15,89,208 // mulps %xmm8,%xmm10 .byte 65,15,40,208 // movaps %xmm8,%xmm2 - .byte 68,15,40,45,200,89,1,0 // movaps 0x159c8(%rip),%xmm13 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c> + .byte 68,15,40,45,168,91,1,0 // movaps 0x15ba8(%rip),%xmm13 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68> .byte 68,15,40,198 // movaps %xmm6,%xmm8 .byte 69,15,89,197 // mulps %xmm13,%xmm8 - .byte 68,15,40,53,200,89,1,0 // movaps 0x159c8(%rip),%xmm14 # 3a1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc6c> + .byte 68,15,40,53,168,91,1,0 // movaps 0x15ba8(%rip),%xmm14 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78> .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 65,15,89,198 // mulps %xmm14,%xmm0 .byte 65,15,88,192 // addps %xmm8,%xmm0 - .byte 68,15,40,29,196,89,1,0 // movaps 0x159c4(%rip),%xmm11 # 3a1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xc7c> + .byte 68,15,40,29,164,91,1,0 // movaps 0x15ba4(%rip),%xmm11 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88> .byte 69,15,89,227 // mulps %xmm11,%xmm12 .byte 68,15,88,224 // addps %xmm0,%xmm12 .byte 65,15,40,193 // movaps %xmm9,%xmm0 @@ -35476,7 +35912,7 @@ _sk_color_sse2: .byte 69,15,40,250 // movaps %xmm10,%xmm15 .byte 69,15,89,254 // mulps %xmm14,%xmm15 .byte 68,15,88,248 // addps %xmm0,%xmm15 - .byte 68,15,40,5,0,89,1,0 // movaps 0x15900(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,224,90,1,0 // movaps 0x15ae0(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 65,15,40,224 // movaps %xmm8,%xmm4 .byte 15,92,226 // subps %xmm2,%xmm4 .byte 15,89,252 // mulps %xmm4,%xmm7 @@ -35612,15 +36048,15 @@ _sk_luminosity_sse2: .byte 68,15,40,205 // movaps %xmm5,%xmm9 .byte 68,15,89,204 // mulps %xmm4,%xmm9 .byte 15,89,222 // mulps %xmm6,%xmm3 - .byte 68,15,40,37,135,87,1,0 // movaps 0x15787(%rip),%xmm12 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c> + .byte 68,15,40,37,103,89,1,0 // movaps 0x15967(%rip),%xmm12 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68> .byte 68,15,40,199 // movaps %xmm7,%xmm8 .byte 69,15,89,196 // mulps %xmm12,%xmm8 - .byte 68,15,40,45,135,87,1,0 // movaps 0x15787(%rip),%xmm13 # 3a1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xc6c> + .byte 68,15,40,45,103,89,1,0 // movaps 0x15967(%rip),%xmm13 # 3abe0 <_sk_srcover_bgra_8888_sse2_lowp+0xc78> .byte 68,15,40,241 // movaps %xmm1,%xmm14 .byte 69,15,89,245 // mulps %xmm13,%xmm14 .byte 69,15,88,240 // addps %xmm8,%xmm14 - .byte 68,15,40,29,131,87,1,0 // movaps 0x15783(%rip),%xmm11 # 3a1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xc7c> - .byte 68,15,40,5,219,86,1,0 // movaps 0x156db(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,29,99,89,1,0 // movaps 0x15963(%rip),%xmm11 # 3abf0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88> + .byte 68,15,40,5,187,88,1,0 // movaps 0x158bb(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,40,248 // movaps %xmm8,%xmm15 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 68,15,92,248 // subps %xmm0,%xmm15 @@ -35753,6 +36189,7 @@ HIDDEN _sk_srcover_rgba_8888_sse2 .globl _sk_srcover_rgba_8888_sse2 FUNCTION(_sk_srcover_rgba_8888_sse2) _sk_srcover_rgba_8888_sse2: + .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,72,8 // movslq 0x8(%rax),%r9 .byte 76,99,193 // movslq %ecx,%r8 @@ -35761,93 +36198,105 @@ _sk_srcover_rgba_8888_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,228,0,0,0 // jne 24d40 <_sk_srcover_rgba_8888_sse2+0x104> - .byte 243,69,15,111,4,128 // movdqu (%r8,%rax,4),%xmm8 + .byte 15,133,4,1,0,0 // jne 255a5 <_sk_srcover_rgba_8888_sse2+0x129> + .byte 243,65,15,111,4,128 // movdqu (%r8,%rax,4),%xmm0 .byte 72,133,255 // test %rdi,%rdi - .byte 102,15,111,53,115,85,1,0 // movdqa 0x15573(%rip),%xmm6 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> - .byte 102,65,15,111,224 // movdqa %xmm8,%xmm4 + .byte 102,15,111,53,78,87,1,0 // movdqa 0x1574e(%rip),%xmm6 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> + .byte 102,15,111,224 // movdqa %xmm0,%xmm4 .byte 102,15,219,230 // pand %xmm6,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 102,65,15,111,232 // movdqa %xmm8,%xmm5 + .byte 102,15,111,232 // movdqa %xmm0,%xmm5 .byte 102,15,114,213,8 // psrld $0x8,%xmm5 .byte 102,15,219,238 // pand %xmm6,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 - .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7 + .byte 102,15,111,248 // movdqa %xmm0,%xmm7 .byte 102,15,114,215,16 // psrld $0x10,%xmm7 .byte 102,15,219,254 // pand %xmm6,%xmm7 + .byte 69,15,87,219 // xorps %xmm11,%xmm11 .byte 15,91,247 // cvtdq2ps %xmm7,%xmm6 - .byte 102,65,15,114,208,24 // psrld $0x18,%xmm8 - .byte 65,15,91,248 // cvtdq2ps %xmm8,%xmm7 - .byte 68,15,40,5,131,84,1,0 // movaps 0x15483(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 102,15,114,208,24 // psrld $0x18,%xmm0 + .byte 15,91,248 // cvtdq2ps %xmm0,%xmm7 + .byte 68,15,40,5,95,86,1,0 // movaps 0x1565f(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,92,195 // subps %xmm3,%xmm8 - .byte 68,15,40,37,87,85,1,0 // movaps 0x15557(%rip),%xmm12 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> - .byte 65,15,89,196 // mulps %xmm12,%xmm0 - .byte 69,15,40,200 // movaps %xmm8,%xmm9 - .byte 68,15,89,204 // mulps %xmm4,%xmm9 - .byte 68,15,88,200 // addps %xmm0,%xmm9 + .byte 68,15,40,37,51,87,1,0 // movaps 0x15733(%rip),%xmm12 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> + .byte 69,15,89,204 // mulps %xmm12,%xmm9 + .byte 65,15,40,192 // movaps %xmm8,%xmm0 + .byte 15,89,196 // mulps %xmm4,%xmm0 + .byte 65,15,88,193 // addps %xmm9,%xmm0 .byte 65,15,89,204 // mulps %xmm12,%xmm1 - .byte 69,15,40,208 // movaps %xmm8,%xmm10 - .byte 68,15,89,213 // mulps %xmm5,%xmm10 - .byte 68,15,88,209 // addps %xmm1,%xmm10 + .byte 69,15,40,200 // movaps %xmm8,%xmm9 + .byte 68,15,89,205 // mulps %xmm5,%xmm9 + .byte 68,15,88,201 // addps %xmm1,%xmm9 .byte 65,15,89,212 // mulps %xmm12,%xmm2 - .byte 69,15,40,216 // movaps %xmm8,%xmm11 - .byte 68,15,89,222 // mulps %xmm6,%xmm11 - .byte 68,15,88,218 // addps %xmm2,%xmm11 + .byte 69,15,40,208 // movaps %xmm8,%xmm10 + .byte 68,15,89,214 // mulps %xmm6,%xmm10 + .byte 68,15,88,210 // addps %xmm2,%xmm10 .byte 65,15,89,220 // mulps %xmm12,%xmm3 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 68,15,88,195 // addps %xmm3,%xmm8 - .byte 102,65,15,91,193 // cvtps2dq %xmm9,%xmm0 - .byte 102,65,15,91,202 // cvtps2dq %xmm10,%xmm1 - .byte 102,15,114,241,8 // pslld $0x8,%xmm1 - .byte 102,15,235,200 // por %xmm0,%xmm1 - .byte 102,65,15,91,211 // cvtps2dq %xmm11,%xmm2 - .byte 102,15,114,242,16 // pslld $0x10,%xmm2 - .byte 102,65,15,91,192 // cvtps2dq %xmm8,%xmm0 - .byte 102,15,114,240,24 // pslld $0x18,%xmm0 - .byte 102,15,235,194 // por %xmm2,%xmm0 - .byte 102,15,235,193 // por %xmm1,%xmm0 - .byte 117,84 // jne 24d7a <_sk_srcover_rgba_8888_sse2+0x13e> - .byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4) + .byte 15,87,201 // xorps %xmm1,%xmm1 + .byte 15,95,200 // maxps %xmm0,%xmm1 + .byte 65,15,93,204 // minps %xmm12,%xmm1 + .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 + .byte 15,87,210 // xorps %xmm2,%xmm2 + .byte 65,15,95,209 // maxps %xmm9,%xmm2 + .byte 65,15,93,212 // minps %xmm12,%xmm2 + .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2 + .byte 102,15,114,242,8 // pslld $0x8,%xmm2 + .byte 102,15,235,209 // por %xmm1,%xmm2 + .byte 102,15,87,201 // xorpd %xmm1,%xmm1 + .byte 65,15,95,202 // maxps %xmm10,%xmm1 + .byte 65,15,93,204 // minps %xmm12,%xmm1 + .byte 102,15,91,217 // cvtps2dq %xmm1,%xmm3 + .byte 102,15,114,243,16 // pslld $0x10,%xmm3 + .byte 69,15,95,216 // maxps %xmm8,%xmm11 + .byte 69,15,93,220 // minps %xmm12,%xmm11 + .byte 102,65,15,91,203 // cvtps2dq %xmm11,%xmm1 + .byte 102,15,114,241,24 // pslld $0x18,%xmm1 + .byte 102,15,235,203 // por %xmm3,%xmm1 + .byte 102,15,235,202 // por %xmm2,%xmm1 + .byte 117,78 // jne 255dd <_sk_srcover_rgba_8888_sse2+0x161> + .byte 243,65,15,127,12,128 // movdqu %xmm1,(%r8,%rax,4) .byte 72,173 // lods %ds:(%rsi),%rax - .byte 65,15,40,193 // movaps %xmm9,%xmm0 - .byte 65,15,40,202 // movaps %xmm10,%xmm1 - .byte 65,15,40,211 // movaps %xmm11,%xmm2 + .byte 65,15,40,201 // movaps %xmm9,%xmm1 + .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 65,15,40,216 // movaps %xmm8,%xmm3 .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,90 // je 24da7 <_sk_srcover_rgba_8888_sse2+0x16b> - .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 + .byte 116,88 // je 2560a <_sk_srcover_rgba_8888_sse2+0x18e> + .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,23 // je 24d6f <_sk_srcover_rgba_8888_sse2+0x133> + .byte 116,22 // je 255d2 <_sk_srcover_rgba_8888_sse2+0x156> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 15,133,0,255,255,255 // jne 24c62 <_sk_srcover_rgba_8888_sse2+0x26> - .byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4 - .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 - .byte 102,69,15,18,4,128 // movlpd (%r8,%rax,4),%xmm8 - .byte 233,232,254,255,255 // jmpq 24c62 <_sk_srcover_rgba_8888_sse2+0x26> + .byte 15,133,225,254,255,255 // jne 254a7 <_sk_srcover_rgba_8888_sse2+0x2b> + .byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0 + .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 + .byte 102,65,15,18,4,128 // movlpd (%r8,%rax,4),%xmm0 + .byte 233,202,254,255,255 // jmpq 254a7 <_sk_srcover_rgba_8888_sse2+0x2b> .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,43 // je 24db2 <_sk_srcover_rgba_8888_sse2+0x176> + .byte 116,43 // je 25615 <_sk_srcover_rgba_8888_sse2+0x199> .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,18 // je 24d9f <_sk_srcover_rgba_8888_sse2+0x163> + .byte 116,18 // je 25602 <_sk_srcover_rgba_8888_sse2+0x186> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,153 // jne 24d2c <_sk_srcover_rgba_8888_sse2+0xf0> - .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 - .byte 102,65,15,126,76,128,8 // movd %xmm1,0x8(%r8,%rax,4) - .byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4) - .byte 235,133 // jmp 24d2c <_sk_srcover_rgba_8888_sse2+0xf0> - .byte 102,69,15,110,4,128 // movd (%r8,%rax,4),%xmm8 - .byte 233,176,254,255,255 // jmpq 24c62 <_sk_srcover_rgba_8888_sse2+0x26> - .byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4) - .byte 233,111,255,255,255 // jmpq 24d2c <_sk_srcover_rgba_8888_sse2+0xf0> + .byte 117,159 // jne 25595 <_sk_srcover_rgba_8888_sse2+0x119> + .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 + .byte 102,65,15,126,84,128,8 // movd %xmm2,0x8(%r8,%rax,4) + .byte 102,65,15,214,12,128 // movq %xmm1,(%r8,%rax,4) + .byte 235,139 // jmp 25595 <_sk_srcover_rgba_8888_sse2+0x119> + .byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0 + .byte 233,146,254,255,255 // jmpq 254a7 <_sk_srcover_rgba_8888_sse2+0x2b> + .byte 102,65,15,126,12,128 // movd %xmm1,(%r8,%rax,4) + .byte 233,117,255,255,255 // jmpq 25595 <_sk_srcover_rgba_8888_sse2+0x119> HIDDEN _sk_srcover_bgra_8888_sse2 .globl _sk_srcover_bgra_8888_sse2 FUNCTION(_sk_srcover_bgra_8888_sse2) _sk_srcover_bgra_8888_sse2: + .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9 .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,99,72,8 // movslq 0x8(%rax),%r9 .byte 76,99,193 // movslq %ecx,%r8 @@ -35856,88 +36305,99 @@ _sk_srcover_bgra_8888_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,228,0,0,0 // jne 24ec1 <_sk_srcover_bgra_8888_sse2+0x104> - .byte 243,69,15,111,4,128 // movdqu (%r8,%rax,4),%xmm8 + .byte 15,133,4,1,0,0 // jne 25749 <_sk_srcover_bgra_8888_sse2+0x129> + .byte 243,65,15,111,4,128 // movdqu (%r8,%rax,4),%xmm0 .byte 72,133,255 // test %rdi,%rdi - .byte 102,15,111,37,242,83,1,0 // movdqa 0x153f2(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> - .byte 102,65,15,111,232 // movdqa %xmm8,%xmm5 + .byte 102,15,111,37,170,85,1,0 // movdqa 0x155aa(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> + .byte 102,15,111,232 // movdqa %xmm0,%xmm5 .byte 102,15,219,236 // pand %xmm4,%xmm5 .byte 15,91,245 // cvtdq2ps %xmm5,%xmm6 - .byte 102,65,15,111,232 // movdqa %xmm8,%xmm5 + .byte 102,15,111,232 // movdqa %xmm0,%xmm5 .byte 102,15,114,213,8 // psrld $0x8,%xmm5 .byte 102,15,219,236 // pand %xmm4,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 - .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7 + .byte 102,15,111,248 // movdqa %xmm0,%xmm7 .byte 102,15,114,215,16 // psrld $0x10,%xmm7 .byte 102,15,219,252 // pand %xmm4,%xmm7 + .byte 69,15,87,219 // xorps %xmm11,%xmm11 .byte 15,91,231 // cvtdq2ps %xmm7,%xmm4 - .byte 102,65,15,114,208,24 // psrld $0x18,%xmm8 - .byte 65,15,91,248 // cvtdq2ps %xmm8,%xmm7 - .byte 68,15,40,5,2,83,1,0 // movaps 0x15302(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 102,15,114,208,24 // psrld $0x18,%xmm0 + .byte 15,91,248 // cvtdq2ps %xmm0,%xmm7 + .byte 68,15,40,5,187,84,1,0 // movaps 0x154bb(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,92,195 // subps %xmm3,%xmm8 - .byte 68,15,40,37,214,83,1,0 // movaps 0x153d6(%rip),%xmm12 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> - .byte 65,15,89,196 // mulps %xmm12,%xmm0 - .byte 69,15,40,200 // movaps %xmm8,%xmm9 - .byte 68,15,89,204 // mulps %xmm4,%xmm9 - .byte 68,15,88,200 // addps %xmm0,%xmm9 + .byte 68,15,40,37,143,85,1,0 // movaps 0x1558f(%rip),%xmm12 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> + .byte 69,15,89,204 // mulps %xmm12,%xmm9 + .byte 65,15,40,192 // movaps %xmm8,%xmm0 + .byte 15,89,196 // mulps %xmm4,%xmm0 + .byte 65,15,88,193 // addps %xmm9,%xmm0 .byte 65,15,89,204 // mulps %xmm12,%xmm1 - .byte 69,15,40,208 // movaps %xmm8,%xmm10 - .byte 68,15,89,213 // mulps %xmm5,%xmm10 - .byte 68,15,88,209 // addps %xmm1,%xmm10 + .byte 69,15,40,200 // movaps %xmm8,%xmm9 + .byte 68,15,89,205 // mulps %xmm5,%xmm9 + .byte 68,15,88,201 // addps %xmm1,%xmm9 .byte 65,15,89,212 // mulps %xmm12,%xmm2 - .byte 69,15,40,216 // movaps %xmm8,%xmm11 - .byte 68,15,89,222 // mulps %xmm6,%xmm11 - .byte 68,15,88,218 // addps %xmm2,%xmm11 + .byte 69,15,40,208 // movaps %xmm8,%xmm10 + .byte 68,15,89,214 // mulps %xmm6,%xmm10 + .byte 68,15,88,210 // addps %xmm2,%xmm10 .byte 65,15,89,220 // mulps %xmm12,%xmm3 .byte 68,15,89,199 // mulps %xmm7,%xmm8 .byte 68,15,88,195 // addps %xmm3,%xmm8 - .byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0 - .byte 102,65,15,91,202 // cvtps2dq %xmm10,%xmm1 - .byte 102,15,114,241,8 // pslld $0x8,%xmm1 - .byte 102,15,235,200 // por %xmm0,%xmm1 - .byte 102,65,15,91,209 // cvtps2dq %xmm9,%xmm2 - .byte 102,15,114,242,16 // pslld $0x10,%xmm2 - .byte 102,65,15,91,192 // cvtps2dq %xmm8,%xmm0 - .byte 102,15,114,240,24 // pslld $0x18,%xmm0 - .byte 102,15,235,194 // por %xmm2,%xmm0 - .byte 102,15,235,193 // por %xmm1,%xmm0 - .byte 117,84 // jne 24efb <_sk_srcover_bgra_8888_sse2+0x13e> - .byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4) + .byte 15,87,201 // xorps %xmm1,%xmm1 + .byte 65,15,95,202 // maxps %xmm10,%xmm1 + .byte 65,15,93,204 // minps %xmm12,%xmm1 + .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 + .byte 15,87,210 // xorps %xmm2,%xmm2 + .byte 65,15,95,209 // maxps %xmm9,%xmm2 + .byte 65,15,93,212 // minps %xmm12,%xmm2 + .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2 + .byte 102,15,114,242,8 // pslld $0x8,%xmm2 + .byte 102,15,235,209 // por %xmm1,%xmm2 + .byte 102,15,87,201 // xorpd %xmm1,%xmm1 + .byte 15,95,200 // maxps %xmm0,%xmm1 + .byte 65,15,93,204 // minps %xmm12,%xmm1 + .byte 102,15,91,217 // cvtps2dq %xmm1,%xmm3 + .byte 102,15,114,243,16 // pslld $0x10,%xmm3 + .byte 69,15,95,216 // maxps %xmm8,%xmm11 + .byte 69,15,93,220 // minps %xmm12,%xmm11 + .byte 102,65,15,91,203 // cvtps2dq %xmm11,%xmm1 + .byte 102,15,114,241,24 // pslld $0x18,%xmm1 + .byte 102,15,235,203 // por %xmm3,%xmm1 + .byte 102,15,235,202 // por %xmm2,%xmm1 + .byte 117,78 // jne 25781 <_sk_srcover_bgra_8888_sse2+0x161> + .byte 243,65,15,127,12,128 // movdqu %xmm1,(%r8,%rax,4) .byte 72,173 // lods %ds:(%rsi),%rax - .byte 65,15,40,193 // movaps %xmm9,%xmm0 - .byte 65,15,40,202 // movaps %xmm10,%xmm1 - .byte 65,15,40,211 // movaps %xmm11,%xmm2 + .byte 65,15,40,201 // movaps %xmm9,%xmm1 + .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 65,15,40,216 // movaps %xmm8,%xmm3 .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,90 // je 24f28 <_sk_srcover_bgra_8888_sse2+0x16b> - .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 + .byte 116,88 // je 257ae <_sk_srcover_bgra_8888_sse2+0x18e> + .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,23 // je 24ef0 <_sk_srcover_bgra_8888_sse2+0x133> + .byte 116,22 // je 25776 <_sk_srcover_bgra_8888_sse2+0x156> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 15,133,0,255,255,255 // jne 24de3 <_sk_srcover_bgra_8888_sse2+0x26> - .byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4 - .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 - .byte 102,69,15,18,4,128 // movlpd (%r8,%rax,4),%xmm8 - .byte 233,232,254,255,255 // jmpq 24de3 <_sk_srcover_bgra_8888_sse2+0x26> + .byte 15,133,225,254,255,255 // jne 2564b <_sk_srcover_bgra_8888_sse2+0x2b> + .byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0 + .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 + .byte 102,65,15,18,4,128 // movlpd (%r8,%rax,4),%xmm0 + .byte 233,202,254,255,255 // jmpq 2564b <_sk_srcover_bgra_8888_sse2+0x2b> .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,43 // je 24f33 <_sk_srcover_bgra_8888_sse2+0x176> + .byte 116,43 // je 257b9 <_sk_srcover_bgra_8888_sse2+0x199> .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,18 // je 24f20 <_sk_srcover_bgra_8888_sse2+0x163> + .byte 116,18 // je 257a6 <_sk_srcover_bgra_8888_sse2+0x186> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,153 // jne 24ead <_sk_srcover_bgra_8888_sse2+0xf0> - .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 - .byte 102,65,15,126,76,128,8 // movd %xmm1,0x8(%r8,%rax,4) - .byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4) - .byte 235,133 // jmp 24ead <_sk_srcover_bgra_8888_sse2+0xf0> - .byte 102,69,15,110,4,128 // movd (%r8,%rax,4),%xmm8 - .byte 233,176,254,255,255 // jmpq 24de3 <_sk_srcover_bgra_8888_sse2+0x26> - .byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4) - .byte 233,111,255,255,255 // jmpq 24ead <_sk_srcover_bgra_8888_sse2+0xf0> + .byte 117,159 // jne 25739 <_sk_srcover_bgra_8888_sse2+0x119> + .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 + .byte 102,65,15,126,84,128,8 // movd %xmm2,0x8(%r8,%rax,4) + .byte 102,65,15,214,12,128 // movq %xmm1,(%r8,%rax,4) + .byte 235,139 // jmp 25739 <_sk_srcover_bgra_8888_sse2+0x119> + .byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0 + .byte 233,146,254,255,255 // jmpq 2564b <_sk_srcover_bgra_8888_sse2+0x2b> + .byte 102,65,15,126,12,128 // movd %xmm1,(%r8,%rax,4) + .byte 233,117,255,255,255 // jmpq 25739 <_sk_srcover_bgra_8888_sse2+0x119> HIDDEN _sk_clamp_0_sse2 .globl _sk_clamp_0_sse2 @@ -35955,7 +36415,7 @@ HIDDEN _sk_clamp_1_sse2 .globl _sk_clamp_1_sse2 FUNCTION(_sk_clamp_1_sse2) _sk_clamp_1_sse2: - .byte 68,15,40,5,210,81,1,0 // movaps 0x151d2(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,108,83,1,0 // movaps 0x1536c(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 65,15,93,192 // minps %xmm8,%xmm0 .byte 65,15,93,200 // minps %xmm8,%xmm1 .byte 65,15,93,208 // minps %xmm8,%xmm2 @@ -35967,7 +36427,7 @@ HIDDEN _sk_clamp_a_sse2 .globl _sk_clamp_a_sse2 FUNCTION(_sk_clamp_a_sse2) _sk_clamp_a_sse2: - .byte 15,93,29,183,81,1,0 // minps 0x151b7(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,93,29,81,83,1,0 // minps 0x15351(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,93,195 // minps %xmm3,%xmm0 .byte 15,93,203 // minps %xmm3,%xmm1 .byte 15,93,211 // minps %xmm3,%xmm2 @@ -35978,7 +36438,7 @@ HIDDEN _sk_clamp_a_dst_sse2 .globl _sk_clamp_a_dst_sse2 FUNCTION(_sk_clamp_a_dst_sse2) _sk_clamp_a_dst_sse2: - .byte 15,93,61,163,81,1,0 // minps 0x151a3(%rip),%xmm7 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,93,61,61,83,1,0 // minps 0x1533d(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,93,231 // minps %xmm7,%xmm4 .byte 15,93,239 // minps %xmm7,%xmm5 .byte 15,93,247 // minps %xmm7,%xmm6 @@ -36013,7 +36473,7 @@ HIDDEN _sk_invert_sse2 .globl _sk_invert_sse2 FUNCTION(_sk_invert_sse2) _sk_invert_sse2: - .byte 68,15,40,5,95,81,1,0 // movaps 0x1515f(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,249,82,1,0 // movaps 0x152f9(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 68,15,92,200 // subps %xmm0,%xmm9 .byte 69,15,40,208 // movaps %xmm8,%xmm10 @@ -36074,10 +36534,10 @@ HIDDEN _sk_unpremul_sse2 .globl _sk_unpremul_sse2 FUNCTION(_sk_unpremul_sse2) _sk_unpremul_sse2: - .byte 68,15,40,5,237,80,1,0 // movaps 0x150ed(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,135,82,1,0 // movaps 0x15287(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,94,195 // divps %xmm3,%xmm8 .byte 69,15,40,200 // movaps %xmm8,%xmm9 - .byte 68,15,194,13,204,81,1,0,1 // cmpltps 0x151cc(%rip),%xmm9 # 3a220 <_sk_srcover_bgra_8888_sse2_lowp+0xccc> + .byte 68,15,194,13,102,83,1,0,1 // cmpltps 0x15366(%rip),%xmm9 # 3ac40 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8> .byte 69,15,84,200 // andps %xmm8,%xmm9 .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 65,15,89,201 // mulps %xmm9,%xmm1 @@ -36089,20 +36549,20 @@ HIDDEN _sk_from_srgb_sse2 .globl _sk_from_srgb_sse2 FUNCTION(_sk_from_srgb_sse2) _sk_from_srgb_sse2: - .byte 68,15,40,5,192,81,1,0 // movaps 0x151c0(%rip),%xmm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0xcdc> + .byte 68,15,40,5,90,83,1,0 // movaps 0x1535a(%rip),%xmm8 # 3ac50 <_sk_srcover_bgra_8888_sse2_lowp+0xce8> .byte 68,15,40,232 // movaps %xmm0,%xmm13 .byte 69,15,89,232 // mulps %xmm8,%xmm13 .byte 68,15,40,216 // movaps %xmm0,%xmm11 .byte 69,15,89,219 // mulps %xmm11,%xmm11 - .byte 68,15,40,13,40,81,1,0 // movaps 0x15128(%rip),%xmm9 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c> + .byte 68,15,40,13,194,82,1,0 // movaps 0x152c2(%rip),%xmm9 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68> .byte 68,15,40,240 // movaps %xmm0,%xmm14 .byte 69,15,89,241 // mulps %xmm9,%xmm14 - .byte 68,15,40,21,168,81,1,0 // movaps 0x151a8(%rip),%xmm10 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0xcec> + .byte 68,15,40,21,66,83,1,0 // movaps 0x15342(%rip),%xmm10 # 3ac60 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8> .byte 69,15,88,242 // addps %xmm10,%xmm14 .byte 69,15,89,243 // mulps %xmm11,%xmm14 - .byte 68,15,40,29,168,81,1,0 // movaps 0x151a8(%rip),%xmm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0xcfc> + .byte 68,15,40,29,66,83,1,0 // movaps 0x15342(%rip),%xmm11 # 3ac70 <_sk_srcover_bgra_8888_sse2_lowp+0xd08> .byte 69,15,88,243 // addps %xmm11,%xmm14 - .byte 68,15,40,37,172,81,1,0 // movaps 0x151ac(%rip),%xmm12 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0xd0c> + .byte 68,15,40,37,70,83,1,0 // movaps 0x15346(%rip),%xmm12 # 3ac80 <_sk_srcover_bgra_8888_sse2_lowp+0xd18> .byte 65,15,194,196,1 // cmpltps %xmm12,%xmm0 .byte 68,15,84,232 // andps %xmm0,%xmm13 .byte 65,15,85,198 // andnps %xmm14,%xmm0 @@ -36138,20 +36598,20 @@ HIDDEN _sk_from_srgb_dst_sse2 .globl _sk_from_srgb_dst_sse2 FUNCTION(_sk_from_srgb_dst_sse2) _sk_from_srgb_dst_sse2: - .byte 68,15,40,5,253,80,1,0 // movaps 0x150fd(%rip),%xmm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0xcdc> + .byte 68,15,40,5,151,82,1,0 // movaps 0x15297(%rip),%xmm8 # 3ac50 <_sk_srcover_bgra_8888_sse2_lowp+0xce8> .byte 68,15,40,236 // movaps %xmm4,%xmm13 .byte 69,15,89,232 // mulps %xmm8,%xmm13 .byte 68,15,40,220 // movaps %xmm4,%xmm11 .byte 69,15,89,219 // mulps %xmm11,%xmm11 - .byte 68,15,40,13,101,80,1,0 // movaps 0x15065(%rip),%xmm9 # 3a1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc5c> + .byte 68,15,40,13,255,81,1,0 // movaps 0x151ff(%rip),%xmm9 # 3abd0 <_sk_srcover_bgra_8888_sse2_lowp+0xc68> .byte 68,15,40,244 // movaps %xmm4,%xmm14 .byte 69,15,89,241 // mulps %xmm9,%xmm14 - .byte 68,15,40,21,229,80,1,0 // movaps 0x150e5(%rip),%xmm10 # 3a240 <_sk_srcover_bgra_8888_sse2_lowp+0xcec> + .byte 68,15,40,21,127,82,1,0 // movaps 0x1527f(%rip),%xmm10 # 3ac60 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8> .byte 69,15,88,242 // addps %xmm10,%xmm14 .byte 69,15,89,243 // mulps %xmm11,%xmm14 - .byte 68,15,40,29,229,80,1,0 // movaps 0x150e5(%rip),%xmm11 # 3a250 <_sk_srcover_bgra_8888_sse2_lowp+0xcfc> + .byte 68,15,40,29,127,82,1,0 // movaps 0x1527f(%rip),%xmm11 # 3ac70 <_sk_srcover_bgra_8888_sse2_lowp+0xd08> .byte 69,15,88,243 // addps %xmm11,%xmm14 - .byte 68,15,40,37,233,80,1,0 // movaps 0x150e9(%rip),%xmm12 # 3a260 <_sk_srcover_bgra_8888_sse2_lowp+0xd0c> + .byte 68,15,40,37,131,82,1,0 // movaps 0x15283(%rip),%xmm12 # 3ac80 <_sk_srcover_bgra_8888_sse2_lowp+0xd18> .byte 65,15,194,228,1 // cmpltps %xmm12,%xmm4 .byte 68,15,84,236 // andps %xmm4,%xmm13 .byte 65,15,85,230 // andnps %xmm14,%xmm4 @@ -36188,22 +36648,22 @@ HIDDEN _sk_to_srgb_sse2 FUNCTION(_sk_to_srgb_sse2) _sk_to_srgb_sse2: .byte 68,15,82,232 // rsqrtps %xmm0,%xmm13 - .byte 68,15,40,5,118,80,1,0 // movaps 0x15076(%rip),%xmm8 # 3a270 <_sk_srcover_bgra_8888_sse2_lowp+0xd1c> + .byte 68,15,40,5,16,82,1,0 // movaps 0x15210(%rip),%xmm8 # 3ac90 <_sk_srcover_bgra_8888_sse2_lowp+0xd28> .byte 68,15,40,240 // movaps %xmm0,%xmm14 .byte 69,15,89,240 // mulps %xmm8,%xmm14 - .byte 68,15,40,13,118,80,1,0 // movaps 0x15076(%rip),%xmm9 # 3a280 <_sk_srcover_bgra_8888_sse2_lowp+0xd2c> + .byte 68,15,40,13,16,82,1,0 // movaps 0x15210(%rip),%xmm9 # 3aca0 <_sk_srcover_bgra_8888_sse2_lowp+0xd38> .byte 69,15,40,253 // movaps %xmm13,%xmm15 .byte 69,15,89,249 // mulps %xmm9,%xmm15 - .byte 68,15,40,21,118,80,1,0 // movaps 0x15076(%rip),%xmm10 # 3a290 <_sk_srcover_bgra_8888_sse2_lowp+0xd3c> + .byte 68,15,40,21,16,82,1,0 // movaps 0x15210(%rip),%xmm10 # 3acb0 <_sk_srcover_bgra_8888_sse2_lowp+0xd48> .byte 69,15,88,250 // addps %xmm10,%xmm15 .byte 69,15,89,253 // mulps %xmm13,%xmm15 - .byte 68,15,40,29,118,80,1,0 // movaps 0x15076(%rip),%xmm11 # 3a2a0 <_sk_srcover_bgra_8888_sse2_lowp+0xd4c> + .byte 68,15,40,29,16,82,1,0 // movaps 0x15210(%rip),%xmm11 # 3acc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd58> .byte 69,15,88,251 // addps %xmm11,%xmm15 - .byte 68,15,40,37,122,80,1,0 // movaps 0x1507a(%rip),%xmm12 # 3a2b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd5c> + .byte 68,15,40,37,20,82,1,0 // movaps 0x15214(%rip),%xmm12 # 3acd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd68> .byte 69,15,88,236 // addps %xmm12,%xmm13 .byte 69,15,83,237 // rcpps %xmm13,%xmm13 .byte 69,15,89,239 // mulps %xmm15,%xmm13 - .byte 68,15,40,61,118,80,1,0 // movaps 0x15076(%rip),%xmm15 # 3a2c0 <_sk_srcover_bgra_8888_sse2_lowp+0xd6c> + .byte 68,15,40,61,16,82,1,0 // movaps 0x15210(%rip),%xmm15 # 3ace0 <_sk_srcover_bgra_8888_sse2_lowp+0xd78> .byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0 .byte 68,15,84,240 // andps %xmm0,%xmm14 .byte 65,15,85,197 // andnps %xmm13,%xmm0 @@ -36255,7 +36715,7 @@ _sk_rgb_to_hsl_sse2: .byte 68,15,93,216 // minps %xmm0,%xmm11 .byte 65,15,40,202 // movaps %xmm10,%xmm1 .byte 65,15,92,203 // subps %xmm11,%xmm1 - .byte 68,15,40,45,41,78,1,0 // movaps 0x14e29(%rip),%xmm13 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,45,195,79,1,0 // movaps 0x14fc3(%rip),%xmm13 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 68,15,94,233 // divps %xmm1,%xmm13 .byte 65,15,40,194 // movaps %xmm10,%xmm0 .byte 65,15,194,192,0 // cmpeqps %xmm8,%xmm0 @@ -36264,30 +36724,30 @@ _sk_rgb_to_hsl_sse2: .byte 69,15,89,229 // mulps %xmm13,%xmm12 .byte 69,15,40,241 // movaps %xmm9,%xmm14 .byte 68,15,194,242,1 // cmpltps %xmm2,%xmm14 - .byte 68,15,84,53,159,79,1,0 // andps 0x14f9f(%rip),%xmm14 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd7c> + .byte 68,15,84,53,57,81,1,0 // andps 0x15139(%rip),%xmm14 # 3acf0 <_sk_srcover_bgra_8888_sse2_lowp+0xd88> .byte 69,15,88,244 // addps %xmm12,%xmm14 .byte 69,15,40,250 // movaps %xmm10,%xmm15 .byte 69,15,194,249,0 // cmpeqps %xmm9,%xmm15 .byte 65,15,92,208 // subps %xmm8,%xmm2 .byte 65,15,89,213 // mulps %xmm13,%xmm2 - .byte 68,15,40,37,146,79,1,0 // movaps 0x14f92(%rip),%xmm12 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd8c> + .byte 68,15,40,37,44,81,1,0 // movaps 0x1512c(%rip),%xmm12 # 3ad00 <_sk_srcover_bgra_8888_sse2_lowp+0xd98> .byte 65,15,88,212 // addps %xmm12,%xmm2 .byte 69,15,92,193 // subps %xmm9,%xmm8 .byte 69,15,89,197 // mulps %xmm13,%xmm8 - .byte 68,15,88,5,142,79,1,0 // addps 0x14f8e(%rip),%xmm8 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd9c> + .byte 68,15,88,5,40,81,1,0 // addps 0x15128(%rip),%xmm8 # 3ad10 <_sk_srcover_bgra_8888_sse2_lowp+0xda8> .byte 65,15,84,215 // andps %xmm15,%xmm2 .byte 69,15,85,248 // andnps %xmm8,%xmm15 .byte 68,15,86,250 // orps %xmm2,%xmm15 .byte 68,15,84,240 // andps %xmm0,%xmm14 .byte 65,15,85,199 // andnps %xmm15,%xmm0 .byte 65,15,86,198 // orps %xmm14,%xmm0 - .byte 15,89,5,127,79,1,0 // mulps 0x14f7f(%rip),%xmm0 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0xdac> + .byte 15,89,5,25,81,1,0 // mulps 0x15119(%rip),%xmm0 # 3ad20 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8> .byte 69,15,40,194 // movaps %xmm10,%xmm8 .byte 69,15,194,195,4 // cmpneqps %xmm11,%xmm8 .byte 65,15,84,192 // andps %xmm8,%xmm0 .byte 69,15,92,226 // subps %xmm10,%xmm12 .byte 69,15,88,211 // addps %xmm11,%xmm10 - .byte 68,15,40,13,130,77,1,0 // movaps 0x14d82(%rip),%xmm9 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,40,13,28,79,1,0 // movaps 0x14f1c(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 65,15,40,210 // movaps %xmm10,%xmm2 .byte 65,15,89,209 // mulps %xmm9,%xmm2 .byte 68,15,194,202,1 // cmpltps %xmm2,%xmm9 @@ -36311,7 +36771,7 @@ _sk_hsl_to_rgb_sse2: .byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp) .byte 68,15,40,218 // movaps %xmm2,%xmm11 .byte 15,40,240 // movaps %xmm0,%xmm6 - .byte 68,15,40,13,49,77,1,0 // movaps 0x14d31(%rip),%xmm9 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,40,13,203,78,1,0 // movaps 0x14ecb(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 69,15,40,209 // movaps %xmm9,%xmm10 .byte 69,15,194,211,2 // cmpleps %xmm11,%xmm10 .byte 15,40,193 // movaps %xmm1,%xmm0 @@ -36328,28 +36788,28 @@ _sk_hsl_to_rgb_sse2: .byte 69,15,88,211 // addps %xmm11,%xmm10 .byte 69,15,88,219 // addps %xmm11,%xmm11 .byte 69,15,92,218 // subps %xmm10,%xmm11 - .byte 15,40,5,218,78,1,0 // movaps 0x14eda(%rip),%xmm0 # 3a310 <_sk_srcover_bgra_8888_sse2_lowp+0xdbc> + .byte 15,40,5,116,80,1,0 // movaps 0x15074(%rip),%xmm0 # 3ad30 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8> .byte 15,88,198 // addps %xmm6,%xmm0 .byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 15,194,217,1 // cmpltps %xmm1,%xmm3 - .byte 15,84,29,226,76,1,0 // andps 0x14ce2(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,84,29,124,78,1,0 // andps 0x14e7c(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,92,203 // subps %xmm3,%xmm1 .byte 15,92,193 // subps %xmm1,%xmm0 - .byte 68,15,40,45,196,78,1,0 // movaps 0x14ec4(%rip),%xmm13 # 3a320 <_sk_srcover_bgra_8888_sse2_lowp+0xdcc> + .byte 68,15,40,45,94,80,1,0 // movaps 0x1505e(%rip),%xmm13 # 3ad40 <_sk_srcover_bgra_8888_sse2_lowp+0xdd8> .byte 69,15,40,197 // movaps %xmm13,%xmm8 .byte 68,15,194,192,2 // cmpleps %xmm0,%xmm8 .byte 69,15,40,242 // movaps %xmm10,%xmm14 .byte 69,15,92,243 // subps %xmm11,%xmm14 .byte 65,15,40,217 // movaps %xmm9,%xmm3 .byte 15,194,216,2 // cmpleps %xmm0,%xmm3 - .byte 15,40,21,132,78,1,0 // movaps 0x14e84(%rip),%xmm2 # 3a300 <_sk_srcover_bgra_8888_sse2_lowp+0xdac> + .byte 15,40,21,30,80,1,0 // movaps 0x1501e(%rip),%xmm2 # 3ad20 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8> .byte 68,15,40,250 // movaps %xmm2,%xmm15 .byte 68,15,194,248,2 // cmpleps %xmm0,%xmm15 - .byte 15,40,13,68,78,1,0 // movaps 0x14e44(%rip),%xmm1 # 3a2d0 <_sk_srcover_bgra_8888_sse2_lowp+0xd7c> + .byte 15,40,13,222,79,1,0 // movaps 0x14fde(%rip),%xmm1 # 3acf0 <_sk_srcover_bgra_8888_sse2_lowp+0xd88> .byte 15,89,193 // mulps %xmm1,%xmm0 - .byte 15,40,45,90,78,1,0 // movaps 0x14e5a(%rip),%xmm5 # 3a2f0 <_sk_srcover_bgra_8888_sse2_lowp+0xd9c> + .byte 15,40,45,244,79,1,0 // movaps 0x14ff4(%rip),%xmm5 # 3ad10 <_sk_srcover_bgra_8888_sse2_lowp+0xda8> .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,92,224 // subps %xmm0,%xmm4 .byte 65,15,89,230 // mulps %xmm14,%xmm4 @@ -36372,7 +36832,7 @@ _sk_hsl_to_rgb_sse2: .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,40,222 // movaps %xmm6,%xmm3 .byte 15,194,216,1 // cmpltps %xmm0,%xmm3 - .byte 15,84,29,63,76,1,0 // andps 0x14c3f(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,84,29,217,77,1,0 // andps 0x14dd9(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,92,195 // subps %xmm3,%xmm0 .byte 68,15,40,230 // movaps %xmm6,%xmm12 .byte 68,15,92,224 // subps %xmm0,%xmm12 @@ -36402,12 +36862,12 @@ _sk_hsl_to_rgb_sse2: .byte 15,40,124,36,136 // movaps -0x78(%rsp),%xmm7 .byte 15,40,231 // movaps %xmm7,%xmm4 .byte 15,85,227 // andnps %xmm3,%xmm4 - .byte 15,88,53,199,77,1,0 // addps 0x14dc7(%rip),%xmm6 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc> + .byte 15,88,53,97,79,1,0 // addps 0x14f61(%rip),%xmm6 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8> .byte 243,15,91,198 // cvttps2dq %xmm6,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,40,222 // movaps %xmm6,%xmm3 .byte 15,194,216,1 // cmpltps %xmm0,%xmm3 - .byte 15,84,29,178,75,1,0 // andps 0x14bb2(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,84,29,76,77,1,0 // andps 0x14d4c(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,92,195 // subps %xmm3,%xmm0 .byte 15,92,240 // subps %xmm0,%xmm6 .byte 15,89,206 // mulps %xmm6,%xmm1 @@ -36471,13 +36931,13 @@ _sk_scale_u8_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,61 // jne 2567f <_sk_scale_u8_sse2+0x55> + .byte 117,61 // jne 25f05 <_sk_scale_u8_sse2+0x55> .byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8 .byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8 .byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8 - .byte 102,68,15,219,5,133,75,1,0 // pand 0x14b85(%rip),%xmm8 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,68,15,219,5,31,77,1,0 // pand 0x14d1f(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 - .byte 68,15,89,5,217,76,1,0 // mulps 0x14cd9(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 68,15,89,5,115,78,1,0 // mulps 0x14e73(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 65,15,89,200 // mulps %xmm8,%xmm1 .byte 65,15,89,208 // mulps %xmm8,%xmm2 @@ -36488,12 +36948,12 @@ _sk_scale_u8_sse2: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,61 // je 256c9 <_sk_scale_u8_sse2+0x9f> + .byte 116,61 // je 25f4f <_sk_scale_u8_sse2+0x9f> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,23 // je 256ae <_sk_scale_u8_sse2+0x84> + .byte 116,23 // je 25f34 <_sk_scale_u8_sse2+0x84> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,181 // jne 25652 <_sk_scale_u8_sse2+0x28> + .byte 117,181 // jne 25ed8 <_sk_scale_u8_sse2+0x28> .byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8 @@ -36502,10 +36962,10 @@ _sk_scale_u8_sse2: .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9 .byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9 .byte 242,69,15,16,193 // movsd %xmm9,%xmm8 - .byte 235,137 // jmp 25652 <_sk_scale_u8_sse2+0x28> + .byte 235,137 // jmp 25ed8 <_sk_scale_u8_sse2+0x28> .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 - .byte 233,122,255,255,255 // jmpq 25652 <_sk_scale_u8_sse2+0x28> + .byte 233,122,255,255,255 // jmpq 25ed8 <_sk_scale_u8_sse2+0x28> HIDDEN _sk_scale_565_sse2 .globl _sk_scale_565_sse2 @@ -36519,20 +36979,20 @@ _sk_scale_565_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,173,0,0,0 // jne 257a4 <_sk_scale_565_sse2+0xcc> + .byte 15,133,173,0,0,0 // jne 2602a <_sk_scale_565_sse2+0xcc> .byte 243,71,15,126,20,80 // movq (%r8,%r10,2),%xmm10 .byte 102,68,15,97,208 // punpcklwd %xmm0,%xmm10 - .byte 102,68,15,111,5,69,76,1,0 // movdqa 0x14c45(%rip),%xmm8 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc> + .byte 102,68,15,111,5,223,77,1,0 // movdqa 0x14ddf(%rip),%xmm8 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08> .byte 102,69,15,219,194 // pand %xmm10,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 - .byte 68,15,89,5,68,76,1,0 // mulps 0x14c44(%rip),%xmm8 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c> - .byte 102,68,15,111,13,75,76,1,0 // movdqa 0x14c4b(%rip),%xmm9 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c> + .byte 68,15,89,5,222,77,1,0 // mulps 0x14dde(%rip),%xmm8 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18> + .byte 102,68,15,111,13,229,77,1,0 // movdqa 0x14de5(%rip),%xmm9 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28> .byte 102,69,15,219,202 // pand %xmm10,%xmm9 .byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9 - .byte 68,15,89,13,74,76,1,0 // mulps 0x14c4a(%rip),%xmm9 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c> - .byte 102,68,15,219,21,81,76,1,0 // pand 0x14c51(%rip),%xmm10 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c> + .byte 68,15,89,13,228,77,1,0 // mulps 0x14de4(%rip),%xmm9 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38> + .byte 102,68,15,219,21,235,77,1,0 // pand 0x14deb(%rip),%xmm10 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48> .byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10 - .byte 68,15,89,21,85,76,1,0 // mulps 0x14c55(%rip),%xmm10 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c> + .byte 68,15,89,21,239,77,1,0 // mulps 0x14def(%rip),%xmm10 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58> .byte 68,15,40,219 // movaps %xmm3,%xmm11 .byte 68,15,194,223,1 // cmpltps %xmm7,%xmm11 .byte 69,15,40,225 // movaps %xmm9,%xmm12 @@ -36559,22 +37019,22 @@ _sk_scale_565_sse2: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,60 // je 257ed <_sk_scale_565_sse2+0x115> + .byte 116,60 // je 26073 <_sk_scale_565_sse2+0x115> .byte 102,69,15,239,210 // pxor %xmm10,%xmm10 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,27 // je 257d7 <_sk_scale_565_sse2+0xff> + .byte 116,27 // je 2605d <_sk_scale_565_sse2+0xff> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 15,133,60,255,255,255 // jne 25702 <_sk_scale_565_sse2+0x2a> + .byte 15,133,60,255,255,255 // jne 25f88 <_sk_scale_565_sse2+0x2a> .byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,208,69 // pshufd $0x45,%xmm8,%xmm10 .byte 102,71,15,110,4,80 // movd (%r8,%r10,2),%xmm8 .byte 242,69,15,112,192,212 // pshuflw $0xd4,%xmm8,%xmm8 .byte 242,69,15,16,208 // movsd %xmm8,%xmm10 - .byte 233,21,255,255,255 // jmpq 25702 <_sk_scale_565_sse2+0x2a> + .byte 233,21,255,255,255 // jmpq 25f88 <_sk_scale_565_sse2+0x2a> .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax .byte 102,68,15,110,208 // movd %eax,%xmm10 - .byte 233,6,255,255,255 // jmpq 25702 <_sk_scale_565_sse2+0x2a> + .byte 233,6,255,255,255 // jmpq 25f88 <_sk_scale_565_sse2+0x2a> HIDDEN _sk_lerp_1_float_sse2 .globl _sk_lerp_1_float_sse2 @@ -36609,13 +37069,13 @@ _sk_lerp_u8_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,81 // jne 2589d <_sk_lerp_u8_sse2+0x69> + .byte 117,81 // jne 26123 <_sk_lerp_u8_sse2+0x69> .byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8 .byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8 .byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8 - .byte 102,68,15,219,5,123,73,1,0 // pand 0x1497b(%rip),%xmm8 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,68,15,219,5,21,75,1,0 // pand 0x14b15(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 - .byte 68,15,89,5,207,74,1,0 // mulps 0x14acf(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 68,15,89,5,105,76,1,0 // mulps 0x14c69(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 15,92,196 // subps %xmm4,%xmm0 .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 15,88,196 // addps %xmm4,%xmm0 @@ -36633,12 +37093,12 @@ _sk_lerp_u8_sse2: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,64 // je 258ea <_sk_lerp_u8_sse2+0xb6> + .byte 116,64 // je 26170 <_sk_lerp_u8_sse2+0xb6> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,23 // je 258cc <_sk_lerp_u8_sse2+0x98> + .byte 116,23 // je 26152 <_sk_lerp_u8_sse2+0x98> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,161 // jne 2585c <_sk_lerp_u8_sse2+0x28> + .byte 117,161 // jne 260e2 <_sk_lerp_u8_sse2+0x28> .byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8 @@ -36647,10 +37107,10 @@ _sk_lerp_u8_sse2: .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9 .byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9 .byte 242,69,15,16,193 // movsd %xmm9,%xmm8 - .byte 233,114,255,255,255 // jmpq 2585c <_sk_lerp_u8_sse2+0x28> + .byte 233,114,255,255,255 // jmpq 260e2 <_sk_lerp_u8_sse2+0x28> .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 - .byte 233,99,255,255,255 // jmpq 2585c <_sk_lerp_u8_sse2+0x28> + .byte 233,99,255,255,255 // jmpq 260e2 <_sk_lerp_u8_sse2+0x28> HIDDEN _sk_lerp_565_sse2 .globl _sk_lerp_565_sse2 @@ -36664,20 +37124,20 @@ _sk_lerp_565_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,173,0,0,0 // jne 259c5 <_sk_lerp_565_sse2+0xcc> + .byte 15,133,173,0,0,0 // jne 2624b <_sk_lerp_565_sse2+0xcc> .byte 243,71,15,126,4,80 // movq (%r8,%r10,2),%xmm8 .byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8 - .byte 102,68,15,111,13,36,74,1,0 // movdqa 0x14a24(%rip),%xmm9 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc> + .byte 102,68,15,111,13,190,75,1,0 // movdqa 0x14bbe(%rip),%xmm9 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08> .byte 102,69,15,219,200 // pand %xmm8,%xmm9 .byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9 - .byte 68,15,89,13,35,74,1,0 // mulps 0x14a23(%rip),%xmm9 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c> - .byte 102,68,15,111,21,42,74,1,0 // movdqa 0x14a2a(%rip),%xmm10 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c> + .byte 68,15,89,13,189,75,1,0 // mulps 0x14bbd(%rip),%xmm9 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18> + .byte 102,68,15,111,21,196,75,1,0 // movdqa 0x14bc4(%rip),%xmm10 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28> .byte 102,69,15,219,208 // pand %xmm8,%xmm10 .byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11 - .byte 68,15,89,29,41,74,1,0 // mulps 0x14a29(%rip),%xmm11 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c> - .byte 102,68,15,219,5,48,74,1,0 // pand 0x14a30(%rip),%xmm8 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c> + .byte 68,15,89,29,195,75,1,0 // mulps 0x14bc3(%rip),%xmm11 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38> + .byte 102,68,15,219,5,202,75,1,0 // pand 0x14bca(%rip),%xmm8 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48> .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 - .byte 68,15,89,5,52,74,1,0 // mulps 0x14a34(%rip),%xmm8 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c> + .byte 68,15,89,5,206,75,1,0 // mulps 0x14bce(%rip),%xmm8 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58> .byte 68,15,40,211 // movaps %xmm3,%xmm10 .byte 68,15,194,215,1 // cmpltps %xmm7,%xmm10 .byte 69,15,40,227 // movaps %xmm11,%xmm12 @@ -36706,22 +37166,22 @@ _sk_lerp_565_sse2: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,60 // je 25a0e <_sk_lerp_565_sse2+0x115> + .byte 116,60 // je 26294 <_sk_lerp_565_sse2+0x115> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,27 // je 259f8 <_sk_lerp_565_sse2+0xff> + .byte 116,27 // je 2627e <_sk_lerp_565_sse2+0xff> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 15,133,60,255,255,255 // jne 25923 <_sk_lerp_565_sse2+0x2a> + .byte 15,133,60,255,255,255 // jne 261a9 <_sk_lerp_565_sse2+0x2a> .byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8 .byte 102,71,15,110,12,80 // movd (%r8,%r10,2),%xmm9 .byte 242,69,15,112,201,212 // pshuflw $0xd4,%xmm9,%xmm9 .byte 242,69,15,16,193 // movsd %xmm9,%xmm8 - .byte 233,21,255,255,255 // jmpq 25923 <_sk_lerp_565_sse2+0x2a> + .byte 233,21,255,255,255 // jmpq 261a9 <_sk_lerp_565_sse2+0x2a> .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 - .byte 233,6,255,255,255 // jmpq 25923 <_sk_lerp_565_sse2+0x2a> + .byte 233,6,255,255,255 // jmpq 261a9 <_sk_lerp_565_sse2+0x2a> HIDDEN _sk_load_tables_sse2 .globl _sk_load_tables_sse2 @@ -36730,11 +37190,11 @@ _sk_load_tables_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,0 // mov (%rax),%r8 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,34,1,0,0 // jne 25b4d <_sk_load_tables_sse2+0x130> + .byte 15,133,34,1,0,0 // jne 263d3 <_sk_load_tables_sse2+0x130> .byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9 .byte 65,86 // push %r14 .byte 83 // push %rbx - .byte 102,68,15,111,5,163,71,1,0 // movdqa 0x147a3(%rip),%xmm8 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,68,15,111,5,61,73,1,0 // movdqa 0x1493d(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0 .byte 102,65,15,219,192 // pand %xmm8,%xmm0 .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 @@ -36790,7 +37250,7 @@ _sk_load_tables_sse2: .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2 .byte 102,65,15,114,209,24 // psrld $0x18,%xmm9 .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3 - .byte 15,89,29,250,71,1,0 // mulps 0x147fa(%rip),%xmm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 15,89,29,148,73,1,0 // mulps 0x14994(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 65,94 // pop %r14 @@ -36798,18 +37258,18 @@ _sk_load_tables_sse2: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,45 // je 25b87 <_sk_load_tables_sse2+0x16a> + .byte 116,45 // je 2640d <_sk_load_tables_sse2+0x16a> .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,23 // je 25b7c <_sk_load_tables_sse2+0x15f> + .byte 116,23 // je 26402 <_sk_load_tables_sse2+0x15f> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 15,133,194,254,255,255 // jne 25a31 <_sk_load_tables_sse2+0x14> + .byte 15,133,194,254,255,255 // jne 262b7 <_sk_load_tables_sse2+0x14> .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0 .byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9 .byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9 - .byte 233,170,254,255,255 // jmpq 25a31 <_sk_load_tables_sse2+0x14> + .byte 233,170,254,255,255 // jmpq 262b7 <_sk_load_tables_sse2+0x14> .byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9 - .byte 233,159,254,255,255 // jmpq 25a31 <_sk_load_tables_sse2+0x14> + .byte 233,159,254,255,255 // jmpq 262b7 <_sk_load_tables_sse2+0x14> HIDDEN _sk_load_tables_u16_be_sse2 .globl _sk_load_tables_u16_be_sse2 @@ -36819,7 +37279,7 @@ _sk_load_tables_u16_be_sse2: .byte 76,139,0 // mov (%rax),%r8 .byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,93,1,0,0 // jne 25d05 <_sk_load_tables_u16_be_sse2+0x173> + .byte 15,133,93,1,0,0 // jne 2658b <_sk_load_tables_u16_be_sse2+0x173> .byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0 .byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1 .byte 65,86 // push %r14 @@ -36830,7 +37290,7 @@ _sk_load_tables_u16_be_sse2: .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9 - .byte 102,15,111,21,212,71,1,0 // movdqa 0x147d4(%rip),%xmm2 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe5c> + .byte 102,15,111,21,110,73,1,0 // movdqa 0x1496e(%rip),%xmm2 # 3add0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68> .byte 102,15,112,217,238 // pshufd $0xee,%xmm1,%xmm3 .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 @@ -36891,23 +37351,23 @@ _sk_load_tables_u16_be_sse2: .byte 102,65,15,235,217 // por %xmm9,%xmm3 .byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 - .byte 15,89,29,210,70,1,0 // mulps 0x146d2(%rip),%xmm3 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe7c> + .byte 15,89,29,108,72,1,0 // mulps 0x1486c(%rip),%xmm3 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88> .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 65,94 // pop %r14 .byte 255,224 // jmpq *%rax .byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,13 // jne 25d1e <_sk_load_tables_u16_be_sse2+0x18c> + .byte 117,13 // jne 265a4 <_sk_load_tables_u16_be_sse2+0x18c> .byte 243,15,126,192 // movq %xmm0,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 - .byte 233,151,254,255,255 // jmpq 25bb5 <_sk_load_tables_u16_be_sse2+0x23> + .byte 233,151,254,255,255 // jmpq 2643b <_sk_load_tables_u16_be_sse2+0x23> .byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 15,130,130,254,255,255 // jb 25bb5 <_sk_load_tables_u16_be_sse2+0x23> + .byte 15,130,130,254,255,255 // jb 2643b <_sk_load_tables_u16_be_sse2+0x23> .byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1 - .byte 233,118,254,255,255 // jmpq 25bb5 <_sk_load_tables_u16_be_sse2+0x23> + .byte 233,118,254,255,255 // jmpq 2643b <_sk_load_tables_u16_be_sse2+0x23> HIDDEN _sk_load_tables_rgb_u16_be_sse2 .globl _sk_load_tables_rgb_u16_be_sse2 @@ -36917,7 +37377,7 @@ _sk_load_tables_rgb_u16_be_sse2: .byte 76,139,0 // mov (%rax),%r8 .byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9 .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,81,1,0,0 // jne 25ea2 <_sk_load_tables_rgb_u16_be_sse2+0x163> + .byte 15,133,81,1,0,0 // jne 26728 <_sk_load_tables_rgb_u16_be_sse2+0x163> .byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2 .byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1 .byte 102,15,115,217,4 // psrldq $0x4,%xmm1 @@ -36932,7 +37392,7 @@ _sk_load_tables_rgb_u16_be_sse2: .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 102,65,15,97,194 // punpcklwd %xmm10,%xmm0 .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 - .byte 102,68,15,111,5,22,70,1,0 // movdqa 0x14616(%rip),%xmm8 # 3a3b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe5c> + .byte 102,68,15,111,5,176,71,1,0 // movdqa 0x147b0(%rip),%xmm8 # 3add0 <_sk_srcover_bgra_8888_sse2_lowp+0xe68> .byte 102,65,15,219,192 // pand %xmm8,%xmm0 .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0 @@ -36987,7 +37447,7 @@ _sk_load_tables_rgb_u16_be_sse2: .byte 65,15,20,216 // unpcklps %xmm8,%xmm3 .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,147,66,1,0 // movaps 0x14293(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,29,45,68,1,0 // movaps 0x1442d(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 91 // pop %rbx .byte 65,94 // pop %r14 .byte 255,224 // jmpq *%rax @@ -36995,21 +37455,21 @@ _sk_load_tables_rgb_u16_be_sse2: .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,14 // jne 25ec8 <_sk_load_tables_rgb_u16_be_sse2+0x189> + .byte 117,14 // jne 2674e <_sk_load_tables_rgb_u16_be_sse2+0x189> .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,69,15,239,210 // pxor %xmm10,%xmm10 - .byte 233,175,254,255,255 // jmpq 25d77 <_sk_load_tables_rgb_u16_be_sse2+0x38> + .byte 233,175,254,255,255 // jmpq 265fd <_sk_load_tables_rgb_u16_be_sse2+0x38> .byte 102,71,15,110,84,72,6 // movd 0x6(%r8,%r9,2),%xmm10 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,71,15,196,84,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm10 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,24 // jb 25ef9 <_sk_load_tables_rgb_u16_be_sse2+0x1ba> + .byte 114,24 // jb 2677f <_sk_load_tables_rgb_u16_be_sse2+0x1ba> .byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1 - .byte 233,126,254,255,255 // jmpq 25d77 <_sk_load_tables_rgb_u16_be_sse2+0x38> + .byte 233,126,254,255,255 // jmpq 265fd <_sk_load_tables_rgb_u16_be_sse2+0x38> .byte 102,15,239,201 // pxor %xmm1,%xmm1 - .byte 233,117,254,255,255 // jmpq 25d77 <_sk_load_tables_rgb_u16_be_sse2+0x38> + .byte 233,117,254,255,255 // jmpq 265fd <_sk_load_tables_rgb_u16_be_sse2+0x38> HIDDEN _sk_byte_tables_sse2 .globl _sk_byte_tables_sse2 @@ -37019,9 +37479,14 @@ _sk_byte_tables_sse2: .byte 65,86 // push %r14 .byte 83 // push %rbx .byte 72,173 // lods %ds:(%rsi),%rax - .byte 68,15,40,5,0,67,1,0 // movaps 0x14300(%rip),%xmm8 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> - .byte 65,15,89,192 // mulps %xmm8,%xmm0 - .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 + .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 + .byte 69,15,87,219 // xorps %xmm11,%xmm11 + .byte 68,15,95,216 // maxps %xmm0,%xmm11 + .byte 68,15,40,13,173,67,1,0 // movaps 0x143ad(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,93,217 // minps %xmm9,%xmm11 + .byte 68,15,40,21,129,68,1,0 // movaps 0x14481(%rip),%xmm10 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> + .byte 69,15,89,218 // mulps %xmm10,%xmm11 + .byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0 .byte 102,73,15,126,192 // movq %xmm0,%r8 .byte 69,137,193 // mov %r8d,%r9d .byte 77,137,194 // mov %r8,%r10 @@ -37043,14 +37508,16 @@ _sk_byte_tables_sse2: .byte 68,9,203 // or %r9d,%ebx .byte 102,15,110,195 // movd %ebx,%xmm0 .byte 102,15,196,197,1 // pinsrw $0x1,%ebp,%xmm0 - .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 - .byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0 - .byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0 + .byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0 + .byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 68,15,40,21,187,67,1,0 // movaps 0x143bb(%rip),%xmm10 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> - .byte 65,15,89,194 // mulps %xmm10,%xmm0 - .byte 65,15,89,200 // mulps %xmm8,%xmm1 - .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 + .byte 68,15,40,29,64,69,1,0 // movaps 0x14540(%rip),%xmm11 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> + .byte 65,15,89,195 // mulps %xmm11,%xmm0 + .byte 69,15,87,228 // xorps %xmm12,%xmm12 + .byte 68,15,95,225 // maxps %xmm1,%xmm12 + .byte 69,15,93,225 // minps %xmm9,%xmm12 + .byte 69,15,89,226 // mulps %xmm10,%xmm12 + .byte 102,65,15,91,204 // cvtps2dq %xmm12,%xmm1 .byte 102,72,15,126,205 // movq %xmm1,%rbp .byte 65,137,233 // mov %ebp,%r9d .byte 72,193,237,32 // shr $0x20,%rbp @@ -37068,13 +37535,16 @@ _sk_byte_tables_sse2: .byte 68,9,205 // or %r9d,%ebp .byte 102,15,110,205 // movd %ebp,%xmm1 .byte 102,15,196,203,1 // pinsrw $0x1,%ebx,%xmm1 - .byte 102,65,15,96,201 // punpcklbw %xmm9,%xmm1 - .byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1 + .byte 102,65,15,96,200 // punpcklbw %xmm8,%xmm1 + .byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 - .byte 65,15,89,202 // mulps %xmm10,%xmm1 + .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 76,139,72,16 // mov 0x10(%rax),%r9 - .byte 65,15,89,208 // mulps %xmm8,%xmm2 - .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2 + .byte 69,15,87,228 // xorps %xmm12,%xmm12 + .byte 68,15,95,226 // maxps %xmm2,%xmm12 + .byte 69,15,93,225 // minps %xmm9,%xmm12 + .byte 69,15,89,226 // mulps %xmm10,%xmm12 + .byte 102,65,15,91,212 // cvtps2dq %xmm12,%xmm2 .byte 102,72,15,126,211 // movq %xmm2,%rbx .byte 65,137,216 // mov %ebx,%r8d .byte 72,193,235,32 // shr $0x20,%rbx @@ -37092,13 +37562,16 @@ _sk_byte_tables_sse2: .byte 68,9,195 // or %r8d,%ebx .byte 102,15,110,211 // movd %ebx,%xmm2 .byte 102,15,196,213,1 // pinsrw $0x1,%ebp,%xmm2 - .byte 102,65,15,96,209 // punpcklbw %xmm9,%xmm2 - .byte 102,65,15,97,209 // punpcklwd %xmm9,%xmm2 + .byte 102,65,15,96,208 // punpcklbw %xmm8,%xmm2 + .byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 - .byte 65,15,89,210 // mulps %xmm10,%xmm2 + .byte 65,15,89,211 // mulps %xmm11,%xmm2 .byte 72,139,64,24 // mov 0x18(%rax),%rax - .byte 65,15,89,216 // mulps %xmm8,%xmm3 - .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3 + .byte 69,15,87,228 // xorps %xmm12,%xmm12 + .byte 68,15,95,227 // maxps %xmm3,%xmm12 + .byte 69,15,93,225 // minps %xmm9,%xmm12 + .byte 69,15,89,226 // mulps %xmm10,%xmm12 + .byte 102,65,15,91,220 // cvtps2dq %xmm12,%xmm3 .byte 102,72,15,126,221 // movq %xmm3,%rbp .byte 65,137,232 // mov %ebp,%r8d .byte 72,193,237,32 // shr $0x20,%rbp @@ -37116,10 +37589,10 @@ _sk_byte_tables_sse2: .byte 68,9,192 // or %r8d,%eax .byte 102,15,110,216 // movd %eax,%xmm3 .byte 102,15,196,219,1 // pinsrw $0x1,%ebx,%xmm3 - .byte 102,65,15,96,217 // punpcklbw %xmm9,%xmm3 - .byte 102,65,15,97,217 // punpcklwd %xmm9,%xmm3 + .byte 102,65,15,96,216 // punpcklbw %xmm8,%xmm3 + .byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 - .byte 65,15,89,218 // mulps %xmm10,%xmm3 + .byte 65,15,89,219 // mulps %xmm11,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 65,94 // pop %r14 @@ -37138,9 +37611,14 @@ _sk_byte_tables_rgb_sse2: .byte 65,255,200 // dec %r8d .byte 102,69,15,110,192 // movd %r8d,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 - .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 - .byte 65,15,89,192 // mulps %xmm8,%xmm0 - .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 + .byte 69,15,91,200 // cvtdq2ps %xmm8,%xmm9 + .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 + .byte 69,15,87,219 // xorps %xmm11,%xmm11 + .byte 68,15,95,216 // maxps %xmm0,%xmm11 + .byte 68,15,40,21,169,65,1,0 // movaps 0x141a9(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,93,218 // minps %xmm10,%xmm11 + .byte 69,15,89,217 // mulps %xmm9,%xmm11 + .byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0 .byte 102,73,15,126,192 // movq %xmm0,%r8 .byte 69,137,193 // mov %r8d,%r9d .byte 77,137,194 // mov %r8,%r10 @@ -37162,14 +37640,16 @@ _sk_byte_tables_rgb_sse2: .byte 68,9,203 // or %r9d,%ebx .byte 102,15,110,195 // movd %ebx,%xmm0 .byte 102,15,196,197,1 // pinsrw $0x1,%ebp,%xmm0 - .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 - .byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0 - .byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0 + .byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0 + .byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 68,15,40,21,251,65,1,0 // movaps 0x141fb(%rip),%xmm10 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> - .byte 65,15,89,194 // mulps %xmm10,%xmm0 - .byte 65,15,89,200 // mulps %xmm8,%xmm1 - .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 + .byte 68,15,40,29,68,67,1,0 // movaps 0x14344(%rip),%xmm11 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> + .byte 65,15,89,195 // mulps %xmm11,%xmm0 + .byte 69,15,87,228 // xorps %xmm12,%xmm12 + .byte 68,15,95,225 // maxps %xmm1,%xmm12 + .byte 69,15,93,226 // minps %xmm10,%xmm12 + .byte 69,15,89,225 // mulps %xmm9,%xmm12 + .byte 102,65,15,91,204 // cvtps2dq %xmm12,%xmm1 .byte 102,72,15,126,205 // movq %xmm1,%rbp .byte 65,137,233 // mov %ebp,%r9d .byte 72,193,237,32 // shr $0x20,%rbp @@ -37187,13 +37667,16 @@ _sk_byte_tables_rgb_sse2: .byte 68,9,205 // or %r9d,%ebp .byte 102,15,110,205 // movd %ebp,%xmm1 .byte 102,15,196,203,1 // pinsrw $0x1,%ebx,%xmm1 - .byte 102,65,15,96,201 // punpcklbw %xmm9,%xmm1 - .byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1 + .byte 102,65,15,96,200 // punpcklbw %xmm8,%xmm1 + .byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 - .byte 65,15,89,202 // mulps %xmm10,%xmm1 + .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 72,139,64,16 // mov 0x10(%rax),%rax - .byte 65,15,89,208 // mulps %xmm8,%xmm2 - .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2 + .byte 69,15,87,228 // xorps %xmm12,%xmm12 + .byte 68,15,95,226 // maxps %xmm2,%xmm12 + .byte 69,15,93,226 // minps %xmm10,%xmm12 + .byte 69,15,89,225 // mulps %xmm9,%xmm12 + .byte 102,65,15,91,212 // cvtps2dq %xmm12,%xmm2 .byte 102,72,15,126,213 // movq %xmm2,%rbp .byte 65,137,232 // mov %ebp,%r8d .byte 72,193,237,32 // shr $0x20,%rbp @@ -37211,10 +37694,10 @@ _sk_byte_tables_rgb_sse2: .byte 68,9,192 // or %r8d,%eax .byte 102,15,110,208 // movd %eax,%xmm2 .byte 102,15,196,211,1 // pinsrw $0x1,%ebx,%xmm2 - .byte 102,65,15,96,209 // punpcklbw %xmm9,%xmm2 - .byte 102,65,15,97,209 // punpcklwd %xmm9,%xmm2 + .byte 102,65,15,96,208 // punpcklbw %xmm8,%xmm2 + .byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 - .byte 65,15,89,210 // mulps %xmm10,%xmm2 + .byte 65,15,89,211 // mulps %xmm11,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 91 // pop %rbx .byte 65,94 // pop %r14 @@ -37232,8 +37715,11 @@ _sk_table_r_sse2: .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 - .byte 68,15,89,192 // mulps %xmm0,%xmm8 - .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 + .byte 69,15,87,201 // xorps %xmm9,%xmm9 + .byte 68,15,95,200 // maxps %xmm0,%xmm9 + .byte 68,15,93,13,37,64,1,0 // minps 0x14025(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8 .byte 102,65,15,112,192,78 // pshufd $0x4e,%xmm8,%xmm0 .byte 102,72,15,126,192 // movq %xmm0,%rax .byte 65,137,193 // mov %eax,%r9d @@ -37262,8 +37748,11 @@ _sk_table_g_sse2: .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 - .byte 68,15,89,193 // mulps %xmm1,%xmm8 - .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 + .byte 69,15,87,201 // xorps %xmm9,%xmm9 + .byte 68,15,95,201 // maxps %xmm1,%xmm9 + .byte 68,15,93,13,172,63,1,0 // minps 0x13fac(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8 .byte 102,65,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm1 .byte 102,72,15,126,200 // movq %xmm1,%rax .byte 65,137,193 // mov %eax,%r9d @@ -37292,8 +37781,11 @@ _sk_table_b_sse2: .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 - .byte 68,15,89,194 // mulps %xmm2,%xmm8 - .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 + .byte 69,15,87,201 // xorps %xmm9,%xmm9 + .byte 68,15,95,202 // maxps %xmm2,%xmm9 + .byte 68,15,93,13,51,63,1,0 // minps 0x13f33(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8 .byte 102,65,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm2 .byte 102,72,15,126,208 // movq %xmm2,%rax .byte 65,137,193 // mov %eax,%r9d @@ -37322,8 +37814,11 @@ _sk_table_a_sse2: .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8 .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8 - .byte 68,15,89,195 // mulps %xmm3,%xmm8 - .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 + .byte 69,15,87,201 // xorps %xmm9,%xmm9 + .byte 68,15,95,203 // maxps %xmm3,%xmm9 + .byte 68,15,93,13,186,62,1,0 // minps 0x13eba(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8 .byte 102,65,15,112,216,78 // pshufd $0x4e,%xmm8,%xmm3 .byte 102,72,15,126,216 // movq %xmm3,%rax .byte 65,137,193 // mov %eax,%r9d @@ -37365,16 +37860,16 @@ _sk_parametric_r_sse2: .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 69,15,87,210 // xorps %xmm10,%xmm10 .byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11 - .byte 68,15,89,29,195,63,1,0 // mulps 0x13fc3(%rip),%xmm11 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c> - .byte 68,15,40,45,203,63,1,0 // movaps 0x13fcb(%rip),%xmm13 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c> + .byte 68,15,89,29,178,64,1,0 // mulps 0x140b2(%rip),%xmm11 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98> + .byte 68,15,40,45,186,64,1,0 // movaps 0x140ba(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8> .byte 69,15,84,233 // andps %xmm9,%xmm13 - .byte 68,15,86,45,239,60,1,0 // orps 0x13cef(%rip),%xmm13 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> - .byte 68,15,88,29,199,63,1,0 // addps 0x13fc7(%rip),%xmm11 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> - .byte 68,15,40,53,207,63,1,0 // movaps 0x13fcf(%rip),%xmm14 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc> + .byte 68,15,86,45,222,61,1,0 // orps 0x13dde(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> + .byte 68,15,88,29,182,64,1,0 // addps 0x140b6(%rip),%xmm11 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> + .byte 68,15,40,53,190,64,1,0 // movaps 0x140be(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8> .byte 69,15,89,245 // mulps %xmm13,%xmm14 .byte 69,15,92,222 // subps %xmm14,%xmm11 - .byte 68,15,88,45,207,63,1,0 // addps 0x13fcf(%rip),%xmm13 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc> - .byte 68,15,40,53,215,63,1,0 // movaps 0x13fd7(%rip),%xmm14 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc> + .byte 68,15,88,45,190,64,1,0 // addps 0x140be(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8> + .byte 68,15,40,53,198,64,1,0 // movaps 0x140c6(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8> .byte 69,15,94,245 // divps %xmm13,%xmm14 .byte 69,15,92,222 // subps %xmm14,%xmm11 .byte 69,15,89,220 // mulps %xmm12,%xmm11 @@ -37382,21 +37877,21 @@ _sk_parametric_r_sse2: .byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13 .byte 69,15,40,243 // movaps %xmm11,%xmm14 .byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14 - .byte 68,15,40,37,177,60,1,0 // movaps 0x13cb1(%rip),%xmm12 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,37,160,61,1,0 // movaps 0x13da0(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,84,244 // andps %xmm12,%xmm14 .byte 69,15,92,238 // subps %xmm14,%xmm13 .byte 69,15,40,243 // movaps %xmm11,%xmm14 .byte 69,15,92,245 // subps %xmm13,%xmm14 - .byte 68,15,88,29,169,63,1,0 // addps 0x13fa9(%rip),%xmm11 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec> - .byte 68,15,40,45,177,63,1,0 // movaps 0x13fb1(%rip),%xmm13 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc> + .byte 68,15,88,29,152,64,1,0 // addps 0x14098(%rip),%xmm11 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8> + .byte 68,15,40,45,160,64,1,0 // movaps 0x140a0(%rip),%xmm13 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08> .byte 69,15,89,238 // mulps %xmm14,%xmm13 .byte 69,15,92,221 // subps %xmm13,%xmm11 - .byte 68,15,40,45,177,63,1,0 // movaps 0x13fb1(%rip),%xmm13 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c> + .byte 68,15,40,45,160,64,1,0 // movaps 0x140a0(%rip),%xmm13 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18> .byte 69,15,92,238 // subps %xmm14,%xmm13 - .byte 68,15,40,53,181,63,1,0 // movaps 0x13fb5(%rip),%xmm14 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c> + .byte 68,15,40,53,164,64,1,0 // movaps 0x140a4(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28> .byte 69,15,94,245 // divps %xmm13,%xmm14 .byte 69,15,88,243 // addps %xmm11,%xmm14 - .byte 68,15,89,53,181,63,1,0 // mulps 0x13fb5(%rip),%xmm14 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c> + .byte 68,15,89,53,164,64,1,0 // mulps 0x140a4(%rip),%xmm14 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38> .byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11 .byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9 .byte 69,15,84,203 // andps %xmm11,%xmm9 @@ -37435,16 +37930,16 @@ _sk_parametric_g_sse2: .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 69,15,87,210 // xorps %xmm10,%xmm10 .byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11 - .byte 68,15,89,29,120,62,1,0 // mulps 0x13e78(%rip),%xmm11 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c> - .byte 68,15,40,45,128,62,1,0 // movaps 0x13e80(%rip),%xmm13 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c> + .byte 68,15,89,29,103,63,1,0 // mulps 0x13f67(%rip),%xmm11 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98> + .byte 68,15,40,45,111,63,1,0 // movaps 0x13f6f(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8> .byte 69,15,84,233 // andps %xmm9,%xmm13 - .byte 68,15,86,45,164,59,1,0 // orps 0x13ba4(%rip),%xmm13 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> - .byte 68,15,88,29,124,62,1,0 // addps 0x13e7c(%rip),%xmm11 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> - .byte 68,15,40,53,132,62,1,0 // movaps 0x13e84(%rip),%xmm14 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc> + .byte 68,15,86,45,147,60,1,0 // orps 0x13c93(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> + .byte 68,15,88,29,107,63,1,0 // addps 0x13f6b(%rip),%xmm11 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> + .byte 68,15,40,53,115,63,1,0 // movaps 0x13f73(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8> .byte 69,15,89,245 // mulps %xmm13,%xmm14 .byte 69,15,92,222 // subps %xmm14,%xmm11 - .byte 68,15,88,45,132,62,1,0 // addps 0x13e84(%rip),%xmm13 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc> - .byte 68,15,40,53,140,62,1,0 // movaps 0x13e8c(%rip),%xmm14 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc> + .byte 68,15,88,45,115,63,1,0 // addps 0x13f73(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8> + .byte 68,15,40,53,123,63,1,0 // movaps 0x13f7b(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8> .byte 69,15,94,245 // divps %xmm13,%xmm14 .byte 69,15,92,222 // subps %xmm14,%xmm11 .byte 69,15,89,220 // mulps %xmm12,%xmm11 @@ -37452,21 +37947,21 @@ _sk_parametric_g_sse2: .byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13 .byte 69,15,40,243 // movaps %xmm11,%xmm14 .byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14 - .byte 68,15,40,37,102,59,1,0 // movaps 0x13b66(%rip),%xmm12 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,37,85,60,1,0 // movaps 0x13c55(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,84,244 // andps %xmm12,%xmm14 .byte 69,15,92,238 // subps %xmm14,%xmm13 .byte 69,15,40,243 // movaps %xmm11,%xmm14 .byte 69,15,92,245 // subps %xmm13,%xmm14 - .byte 68,15,88,29,94,62,1,0 // addps 0x13e5e(%rip),%xmm11 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec> - .byte 68,15,40,45,102,62,1,0 // movaps 0x13e66(%rip),%xmm13 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc> + .byte 68,15,88,29,77,63,1,0 // addps 0x13f4d(%rip),%xmm11 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8> + .byte 68,15,40,45,85,63,1,0 // movaps 0x13f55(%rip),%xmm13 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08> .byte 69,15,89,238 // mulps %xmm14,%xmm13 .byte 69,15,92,221 // subps %xmm13,%xmm11 - .byte 68,15,40,45,102,62,1,0 // movaps 0x13e66(%rip),%xmm13 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c> + .byte 68,15,40,45,85,63,1,0 // movaps 0x13f55(%rip),%xmm13 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18> .byte 69,15,92,238 // subps %xmm14,%xmm13 - .byte 68,15,40,53,106,62,1,0 // movaps 0x13e6a(%rip),%xmm14 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c> + .byte 68,15,40,53,89,63,1,0 // movaps 0x13f59(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28> .byte 69,15,94,245 // divps %xmm13,%xmm14 .byte 69,15,88,243 // addps %xmm11,%xmm14 - .byte 68,15,89,53,106,62,1,0 // mulps 0x13e6a(%rip),%xmm14 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c> + .byte 68,15,89,53,89,63,1,0 // mulps 0x13f59(%rip),%xmm14 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38> .byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11 .byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9 .byte 69,15,84,203 // andps %xmm11,%xmm9 @@ -37505,16 +38000,16 @@ _sk_parametric_b_sse2: .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 69,15,87,210 // xorps %xmm10,%xmm10 .byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11 - .byte 68,15,89,29,45,61,1,0 // mulps 0x13d2d(%rip),%xmm11 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c> - .byte 68,15,40,45,53,61,1,0 // movaps 0x13d35(%rip),%xmm13 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c> + .byte 68,15,89,29,28,62,1,0 // mulps 0x13e1c(%rip),%xmm11 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98> + .byte 68,15,40,45,36,62,1,0 // movaps 0x13e24(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8> .byte 69,15,84,233 // andps %xmm9,%xmm13 - .byte 68,15,86,45,89,58,1,0 // orps 0x13a59(%rip),%xmm13 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> - .byte 68,15,88,29,49,61,1,0 // addps 0x13d31(%rip),%xmm11 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> - .byte 68,15,40,53,57,61,1,0 // movaps 0x13d39(%rip),%xmm14 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc> + .byte 68,15,86,45,72,59,1,0 // orps 0x13b48(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> + .byte 68,15,88,29,32,62,1,0 // addps 0x13e20(%rip),%xmm11 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> + .byte 68,15,40,53,40,62,1,0 // movaps 0x13e28(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8> .byte 69,15,89,245 // mulps %xmm13,%xmm14 .byte 69,15,92,222 // subps %xmm14,%xmm11 - .byte 68,15,88,45,57,61,1,0 // addps 0x13d39(%rip),%xmm13 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc> - .byte 68,15,40,53,65,61,1,0 // movaps 0x13d41(%rip),%xmm14 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc> + .byte 68,15,88,45,40,62,1,0 // addps 0x13e28(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8> + .byte 68,15,40,53,48,62,1,0 // movaps 0x13e30(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8> .byte 69,15,94,245 // divps %xmm13,%xmm14 .byte 69,15,92,222 // subps %xmm14,%xmm11 .byte 69,15,89,220 // mulps %xmm12,%xmm11 @@ -37522,21 +38017,21 @@ _sk_parametric_b_sse2: .byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13 .byte 69,15,40,243 // movaps %xmm11,%xmm14 .byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14 - .byte 68,15,40,37,27,58,1,0 // movaps 0x13a1b(%rip),%xmm12 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,37,10,59,1,0 // movaps 0x13b0a(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,84,244 // andps %xmm12,%xmm14 .byte 69,15,92,238 // subps %xmm14,%xmm13 .byte 69,15,40,243 // movaps %xmm11,%xmm14 .byte 69,15,92,245 // subps %xmm13,%xmm14 - .byte 68,15,88,29,19,61,1,0 // addps 0x13d13(%rip),%xmm11 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec> - .byte 68,15,40,45,27,61,1,0 // movaps 0x13d1b(%rip),%xmm13 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc> + .byte 68,15,88,29,2,62,1,0 // addps 0x13e02(%rip),%xmm11 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8> + .byte 68,15,40,45,10,62,1,0 // movaps 0x13e0a(%rip),%xmm13 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08> .byte 69,15,89,238 // mulps %xmm14,%xmm13 .byte 69,15,92,221 // subps %xmm13,%xmm11 - .byte 68,15,40,45,27,61,1,0 // movaps 0x13d1b(%rip),%xmm13 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c> + .byte 68,15,40,45,10,62,1,0 // movaps 0x13e0a(%rip),%xmm13 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18> .byte 69,15,92,238 // subps %xmm14,%xmm13 - .byte 68,15,40,53,31,61,1,0 // movaps 0x13d1f(%rip),%xmm14 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c> + .byte 68,15,40,53,14,62,1,0 // movaps 0x13e0e(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28> .byte 69,15,94,245 // divps %xmm13,%xmm14 .byte 69,15,88,243 // addps %xmm11,%xmm14 - .byte 68,15,89,53,31,61,1,0 // mulps 0x13d1f(%rip),%xmm14 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c> + .byte 68,15,89,53,14,62,1,0 // mulps 0x13e0e(%rip),%xmm14 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38> .byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11 .byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9 .byte 69,15,84,203 // andps %xmm11,%xmm9 @@ -37575,16 +38070,16 @@ _sk_parametric_a_sse2: .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12 .byte 69,15,87,210 // xorps %xmm10,%xmm10 .byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11 - .byte 68,15,89,29,226,59,1,0 // mulps 0x13be2(%rip),%xmm11 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c> - .byte 68,15,40,45,234,59,1,0 // movaps 0x13bea(%rip),%xmm13 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c> + .byte 68,15,89,29,209,60,1,0 // mulps 0x13cd1(%rip),%xmm11 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98> + .byte 68,15,40,45,217,60,1,0 // movaps 0x13cd9(%rip),%xmm13 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8> .byte 69,15,84,233 // andps %xmm9,%xmm13 - .byte 68,15,86,45,14,57,1,0 // orps 0x1390e(%rip),%xmm13 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> - .byte 68,15,88,29,230,59,1,0 // addps 0x13be6(%rip),%xmm11 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> - .byte 68,15,40,53,238,59,1,0 // movaps 0x13bee(%rip),%xmm14 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc> + .byte 68,15,86,45,253,57,1,0 // orps 0x139fd(%rip),%xmm13 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> + .byte 68,15,88,29,213,60,1,0 // addps 0x13cd5(%rip),%xmm11 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> + .byte 68,15,40,53,221,60,1,0 // movaps 0x13cdd(%rip),%xmm14 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8> .byte 69,15,89,245 // mulps %xmm13,%xmm14 .byte 69,15,92,222 // subps %xmm14,%xmm11 - .byte 68,15,88,45,238,59,1,0 // addps 0x13bee(%rip),%xmm13 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc> - .byte 68,15,40,53,246,59,1,0 // movaps 0x13bf6(%rip),%xmm14 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc> + .byte 68,15,88,45,221,60,1,0 // addps 0x13cdd(%rip),%xmm13 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8> + .byte 68,15,40,53,229,60,1,0 // movaps 0x13ce5(%rip),%xmm14 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8> .byte 69,15,94,245 // divps %xmm13,%xmm14 .byte 69,15,92,222 // subps %xmm14,%xmm11 .byte 69,15,89,220 // mulps %xmm12,%xmm11 @@ -37592,21 +38087,21 @@ _sk_parametric_a_sse2: .byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13 .byte 69,15,40,243 // movaps %xmm11,%xmm14 .byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14 - .byte 68,15,40,37,208,56,1,0 // movaps 0x138d0(%rip),%xmm12 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,37,191,57,1,0 // movaps 0x139bf(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,84,244 // andps %xmm12,%xmm14 .byte 69,15,92,238 // subps %xmm14,%xmm13 .byte 69,15,40,243 // movaps %xmm11,%xmm14 .byte 69,15,92,245 // subps %xmm13,%xmm14 - .byte 68,15,88,29,200,59,1,0 // addps 0x13bc8(%rip),%xmm11 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec> - .byte 68,15,40,45,208,59,1,0 // movaps 0x13bd0(%rip),%xmm13 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc> + .byte 68,15,88,29,183,60,1,0 // addps 0x13cb7(%rip),%xmm11 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8> + .byte 68,15,40,45,191,60,1,0 // movaps 0x13cbf(%rip),%xmm13 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08> .byte 69,15,89,238 // mulps %xmm14,%xmm13 .byte 69,15,92,221 // subps %xmm13,%xmm11 - .byte 68,15,40,45,208,59,1,0 // movaps 0x13bd0(%rip),%xmm13 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c> + .byte 68,15,40,45,191,60,1,0 // movaps 0x13cbf(%rip),%xmm13 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18> .byte 69,15,92,238 // subps %xmm14,%xmm13 - .byte 68,15,40,53,212,59,1,0 // movaps 0x13bd4(%rip),%xmm14 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c> + .byte 68,15,40,53,195,60,1,0 // movaps 0x13cc3(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28> .byte 69,15,94,245 // divps %xmm13,%xmm14 .byte 69,15,88,243 // addps %xmm11,%xmm14 - .byte 68,15,89,53,212,59,1,0 // mulps 0x13bd4(%rip),%xmm14 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c> + .byte 68,15,89,53,195,60,1,0 // mulps 0x13cc3(%rip),%xmm14 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38> .byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11 .byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9 .byte 69,15,84,203 // andps %xmm11,%xmm9 @@ -37634,21 +38129,21 @@ _sk_gamma_sse2: .byte 68,15,40,209 // movaps %xmm1,%xmm10 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,91,244 // cvtdq2ps %xmm4,%xmm6 - .byte 15,40,5,209,58,1,0 // movaps 0x13ad1(%rip),%xmm0 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c> + .byte 15,40,5,192,59,1,0 // movaps 0x13bc0(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98> .byte 15,89,240 // mulps %xmm0,%xmm6 .byte 15,40,232 // movaps %xmm0,%xmm5 - .byte 68,15,40,5,211,58,1,0 // movaps 0x13ad3(%rip),%xmm8 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c> + .byte 68,15,40,5,194,59,1,0 // movaps 0x13bc2(%rip),%xmm8 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8> .byte 15,40,196 // movaps %xmm4,%xmm0 .byte 65,15,84,192 // andps %xmm8,%xmm0 - .byte 15,86,5,245,55,1,0 // orps 0x137f5(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> - .byte 15,88,53,206,58,1,0 // addps 0x13ace(%rip),%xmm6 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> - .byte 68,15,40,29,214,58,1,0 // movaps 0x13ad6(%rip),%xmm11 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc> + .byte 15,86,5,228,56,1,0 // orps 0x138e4(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> + .byte 15,88,53,189,59,1,0 // addps 0x13bbd(%rip),%xmm6 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> + .byte 68,15,40,29,197,59,1,0 // movaps 0x13bc5(%rip),%xmm11 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8> .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 15,92,241 // subps %xmm1,%xmm6 - .byte 68,15,40,61,212,58,1,0 // movaps 0x13ad4(%rip),%xmm15 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc> + .byte 68,15,40,61,195,59,1,0 // movaps 0x13bc3(%rip),%xmm15 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8> .byte 65,15,88,199 // addps %xmm15,%xmm0 - .byte 68,15,40,45,216,58,1,0 // movaps 0x13ad8(%rip),%xmm13 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc> + .byte 68,15,40,45,199,59,1,0 // movaps 0x13bc7(%rip),%xmm13 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8> .byte 65,15,40,205 // movaps %xmm13,%xmm1 .byte 15,94,200 // divps %xmm0,%xmm1 .byte 15,92,241 // subps %xmm1,%xmm6 @@ -37660,23 +38155,23 @@ _sk_gamma_sse2: .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,40,206 // movaps %xmm6,%xmm1 .byte 15,194,200,1 // cmpltps %xmm0,%xmm1 - .byte 15,84,13,172,55,1,0 // andps 0x137ac(%rip),%xmm1 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,84,13,155,56,1,0 // andps 0x1389b(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,92,193 // subps %xmm1,%xmm0 .byte 15,40,206 // movaps %xmm6,%xmm1 .byte 15,92,200 // subps %xmm0,%xmm1 - .byte 15,88,53,172,58,1,0 // addps 0x13aac(%rip),%xmm6 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec> - .byte 15,40,21,197,58,1,0 // movaps 0x13ac5(%rip),%xmm2 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c> + .byte 15,88,53,155,59,1,0 // addps 0x13b9b(%rip),%xmm6 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8> + .byte 15,40,21,180,59,1,0 // movaps 0x13bb4(%rip),%xmm2 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18> .byte 68,15,40,202 // movaps %xmm2,%xmm9 .byte 68,15,92,201 // subps %xmm1,%xmm9 .byte 15,40,193 // movaps %xmm1,%xmm0 - .byte 15,40,13,163,58,1,0 // movaps 0x13aa3(%rip),%xmm1 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc> + .byte 15,40,13,146,59,1,0 // movaps 0x13b92(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08> .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,92,240 // subps %xmm0,%xmm6 - .byte 68,15,40,53,181,58,1,0 // movaps 0x13ab5(%rip),%xmm14 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c> + .byte 68,15,40,53,164,59,1,0 // movaps 0x13ba4(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28> .byte 65,15,40,198 // movaps %xmm14,%xmm0 .byte 65,15,94,193 // divps %xmm9,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 - .byte 68,15,40,13,178,58,1,0 // movaps 0x13ab2(%rip),%xmm9 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c> + .byte 68,15,40,13,161,59,1,0 // movaps 0x13ba1(%rip),%xmm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38> .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 .byte 15,87,246 // xorps %xmm6,%xmm6 @@ -37686,9 +38181,9 @@ _sk_gamma_sse2: .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 65,15,40,250 // movaps %xmm10,%xmm7 .byte 65,15,84,248 // andps %xmm8,%xmm7 - .byte 15,40,53,42,55,1,0 // movaps 0x1372a(%rip),%xmm6 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,40,53,25,56,1,0 // movaps 0x13819(%rip),%xmm6 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 15,86,254 // orps %xmm6,%xmm7 - .byte 15,88,5,0,58,1,0 // addps 0x13a00(%rip),%xmm0 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> + .byte 15,88,5,239,58,1,0 // addps 0x13aef(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> .byte 15,40,239 // movaps %xmm7,%xmm5 .byte 65,15,89,235 // mulps %xmm11,%xmm5 .byte 15,92,197 // subps %xmm5,%xmm0 @@ -37701,12 +38196,12 @@ _sk_gamma_sse2: .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 .byte 15,40,248 // movaps %xmm0,%xmm7 .byte 15,194,253,1 // cmpltps %xmm5,%xmm7 - .byte 68,15,40,61,255,54,1,0 // movaps 0x136ff(%rip),%xmm15 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,61,238,55,1,0 // movaps 0x137ee(%rip),%xmm15 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 65,15,84,255 // andps %xmm15,%xmm7 .byte 15,92,239 // subps %xmm7,%xmm5 .byte 15,40,248 // movaps %xmm0,%xmm7 .byte 15,92,253 // subps %xmm5,%xmm7 - .byte 15,88,5,251,57,1,0 // addps 0x139fb(%rip),%xmm0 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec> + .byte 15,88,5,234,58,1,0 // addps 0x13aea(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8> .byte 15,40,234 // movaps %xmm2,%xmm5 .byte 15,92,239 // subps %xmm7,%xmm5 .byte 15,89,249 // mulps %xmm1,%xmm7 @@ -37720,13 +38215,13 @@ _sk_gamma_sse2: .byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10 .byte 68,15,84,208 // andps %xmm0,%xmm10 .byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0 - .byte 15,89,5,102,57,1,0 // mulps 0x13966(%rip),%xmm0 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c> + .byte 15,89,5,85,58,1,0 // mulps 0x13a55(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98> .byte 69,15,84,196 // andps %xmm12,%xmm8 .byte 68,15,86,198 // orps %xmm6,%xmm8 - .byte 15,88,5,119,57,1,0 // addps 0x13977(%rip),%xmm0 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> + .byte 15,88,5,102,58,1,0 // addps 0x13a66(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> .byte 69,15,89,216 // mulps %xmm8,%xmm11 .byte 65,15,92,195 // subps %xmm11,%xmm0 - .byte 68,15,88,5,135,57,1,0 // addps 0x13987(%rip),%xmm8 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc> + .byte 68,15,88,5,118,58,1,0 // addps 0x13a76(%rip),%xmm8 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8> .byte 69,15,94,232 // divps %xmm8,%xmm13 .byte 65,15,92,197 // subps %xmm13,%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 @@ -37738,7 +38233,7 @@ _sk_gamma_sse2: .byte 15,92,221 // subps %xmm5,%xmm3 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,92,235 // subps %xmm3,%xmm5 - .byte 15,88,5,122,57,1,0 // addps 0x1397a(%rip),%xmm0 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec> + .byte 15,88,5,105,58,1,0 // addps 0x13a69(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8> .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,92,193 // subps %xmm1,%xmm0 .byte 15,92,213 // subps %xmm5,%xmm2 @@ -37772,21 +38267,21 @@ _sk_gamma_dst_sse2: .byte 15,41,76,36,184 // movaps %xmm1,-0x48(%rsp) .byte 15,41,68,36,168 // movaps %xmm0,-0x58(%rsp) .byte 15,91,221 // cvtdq2ps %xmm5,%xmm3 - .byte 15,40,5,161,56,1,0 // movaps 0x138a1(%rip),%xmm0 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c> + .byte 15,40,5,144,57,1,0 // movaps 0x13990(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98> .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 15,40,240 // movaps %xmm0,%xmm6 - .byte 68,15,40,5,163,56,1,0 // movaps 0x138a3(%rip),%xmm8 # 3a3f0 <_sk_srcover_bgra_8888_sse2_lowp+0xe9c> + .byte 68,15,40,5,146,57,1,0 // movaps 0x13992(%rip),%xmm8 # 3ae10 <_sk_srcover_bgra_8888_sse2_lowp+0xea8> .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 65,15,84,192 // andps %xmm8,%xmm0 - .byte 15,86,5,197,53,1,0 // orps 0x135c5(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> - .byte 15,88,29,158,56,1,0 // addps 0x1389e(%rip),%xmm3 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> - .byte 68,15,40,29,166,56,1,0 // movaps 0x138a6(%rip),%xmm11 # 3a410 <_sk_srcover_bgra_8888_sse2_lowp+0xebc> + .byte 15,86,5,180,54,1,0 // orps 0x136b4(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> + .byte 15,88,29,141,57,1,0 // addps 0x1398d(%rip),%xmm3 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> + .byte 68,15,40,29,149,57,1,0 // movaps 0x13995(%rip),%xmm11 # 3ae30 <_sk_srcover_bgra_8888_sse2_lowp+0xec8> .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 15,92,217 // subps %xmm1,%xmm3 - .byte 68,15,40,61,164,56,1,0 // movaps 0x138a4(%rip),%xmm15 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc> + .byte 68,15,40,61,147,57,1,0 // movaps 0x13993(%rip),%xmm15 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8> .byte 65,15,88,199 // addps %xmm15,%xmm0 - .byte 68,15,40,45,168,56,1,0 // movaps 0x138a8(%rip),%xmm13 # 3a430 <_sk_srcover_bgra_8888_sse2_lowp+0xedc> + .byte 68,15,40,45,151,57,1,0 // movaps 0x13997(%rip),%xmm13 # 3ae50 <_sk_srcover_bgra_8888_sse2_lowp+0xee8> .byte 65,15,40,205 // movaps %xmm13,%xmm1 .byte 15,94,200 // divps %xmm0,%xmm1 .byte 15,92,217 // subps %xmm1,%xmm3 @@ -37798,23 +38293,23 @@ _sk_gamma_dst_sse2: .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,194,200,1 // cmpltps %xmm0,%xmm1 - .byte 15,84,13,124,53,1,0 // andps 0x1357c(%rip),%xmm1 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,84,13,107,54,1,0 // andps 0x1366b(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,92,193 // subps %xmm1,%xmm0 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,92,200 // subps %xmm0,%xmm1 - .byte 15,88,29,124,56,1,0 // addps 0x1387c(%rip),%xmm3 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec> - .byte 15,40,21,149,56,1,0 // movaps 0x13895(%rip),%xmm2 # 3a460 <_sk_srcover_bgra_8888_sse2_lowp+0xf0c> + .byte 15,88,29,107,57,1,0 // addps 0x1396b(%rip),%xmm3 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8> + .byte 15,40,21,132,57,1,0 // movaps 0x13984(%rip),%xmm2 # 3ae80 <_sk_srcover_bgra_8888_sse2_lowp+0xf18> .byte 68,15,40,202 // movaps %xmm2,%xmm9 .byte 68,15,92,201 // subps %xmm1,%xmm9 .byte 15,40,193 // movaps %xmm1,%xmm0 - .byte 15,40,13,115,56,1,0 // movaps 0x13873(%rip),%xmm1 # 3a450 <_sk_srcover_bgra_8888_sse2_lowp+0xefc> + .byte 15,40,13,98,57,1,0 // movaps 0x13962(%rip),%xmm1 # 3ae70 <_sk_srcover_bgra_8888_sse2_lowp+0xf08> .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,92,216 // subps %xmm0,%xmm3 - .byte 68,15,40,53,133,56,1,0 // movaps 0x13885(%rip),%xmm14 # 3a470 <_sk_srcover_bgra_8888_sse2_lowp+0xf1c> + .byte 68,15,40,53,116,57,1,0 // movaps 0x13974(%rip),%xmm14 # 3ae90 <_sk_srcover_bgra_8888_sse2_lowp+0xf28> .byte 65,15,40,198 // movaps %xmm14,%xmm0 .byte 65,15,94,193 // divps %xmm9,%xmm0 .byte 15,88,195 // addps %xmm3,%xmm0 - .byte 68,15,40,13,130,56,1,0 // movaps 0x13882(%rip),%xmm9 # 3a480 <_sk_srcover_bgra_8888_sse2_lowp+0xf2c> + .byte 68,15,40,13,113,57,1,0 // movaps 0x13971(%rip),%xmm9 # 3aea0 <_sk_srcover_bgra_8888_sse2_lowp+0xf38> .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 .byte 15,87,219 // xorps %xmm3,%xmm3 @@ -37824,9 +38319,9 @@ _sk_gamma_dst_sse2: .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 65,15,40,250 // movaps %xmm10,%xmm7 .byte 65,15,84,248 // andps %xmm8,%xmm7 - .byte 15,40,29,250,52,1,0 // movaps 0x134fa(%rip),%xmm3 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,40,29,233,53,1,0 // movaps 0x135e9(%rip),%xmm3 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 15,86,251 // orps %xmm3,%xmm7 - .byte 15,88,5,208,55,1,0 // addps 0x137d0(%rip),%xmm0 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> + .byte 15,88,5,191,56,1,0 // addps 0x138bf(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> .byte 15,40,247 // movaps %xmm7,%xmm6 .byte 65,15,89,243 // mulps %xmm11,%xmm6 .byte 15,92,198 // subps %xmm6,%xmm0 @@ -37839,12 +38334,12 @@ _sk_gamma_dst_sse2: .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 15,40,248 // movaps %xmm0,%xmm7 .byte 15,194,254,1 // cmpltps %xmm6,%xmm7 - .byte 68,15,40,61,207,52,1,0 // movaps 0x134cf(%rip),%xmm15 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,61,190,53,1,0 // movaps 0x135be(%rip),%xmm15 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 65,15,84,255 // andps %xmm15,%xmm7 .byte 15,92,247 // subps %xmm7,%xmm6 .byte 15,40,248 // movaps %xmm0,%xmm7 .byte 15,92,254 // subps %xmm6,%xmm7 - .byte 15,88,5,203,55,1,0 // addps 0x137cb(%rip),%xmm0 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec> + .byte 15,88,5,186,56,1,0 // addps 0x138ba(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8> .byte 15,40,242 // movaps %xmm2,%xmm6 .byte 15,92,247 // subps %xmm7,%xmm6 .byte 15,89,249 // mulps %xmm1,%xmm7 @@ -37858,13 +38353,13 @@ _sk_gamma_dst_sse2: .byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10 .byte 68,15,84,208 // andps %xmm0,%xmm10 .byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0 - .byte 15,89,5,54,55,1,0 // mulps 0x13736(%rip),%xmm0 # 3a3e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe8c> + .byte 15,89,5,37,56,1,0 // mulps 0x13825(%rip),%xmm0 # 3ae00 <_sk_srcover_bgra_8888_sse2_lowp+0xe98> .byte 69,15,84,196 // andps %xmm12,%xmm8 .byte 68,15,86,195 // orps %xmm3,%xmm8 - .byte 15,88,5,71,55,1,0 // addps 0x13747(%rip),%xmm0 # 3a400 <_sk_srcover_bgra_8888_sse2_lowp+0xeac> + .byte 15,88,5,54,56,1,0 // addps 0x13836(%rip),%xmm0 # 3ae20 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8> .byte 69,15,89,216 // mulps %xmm8,%xmm11 .byte 65,15,92,195 // subps %xmm11,%xmm0 - .byte 68,15,88,5,87,55,1,0 // addps 0x13757(%rip),%xmm8 # 3a420 <_sk_srcover_bgra_8888_sse2_lowp+0xecc> + .byte 68,15,88,5,70,56,1,0 // addps 0x13846(%rip),%xmm8 # 3ae40 <_sk_srcover_bgra_8888_sse2_lowp+0xed8> .byte 69,15,94,232 // divps %xmm8,%xmm13 .byte 65,15,92,197 // subps %xmm13,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 @@ -37876,7 +38371,7 @@ _sk_gamma_dst_sse2: .byte 15,92,230 // subps %xmm6,%xmm4 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,92,244 // subps %xmm4,%xmm6 - .byte 15,88,5,74,55,1,0 // addps 0x1374a(%rip),%xmm0 # 3a440 <_sk_srcover_bgra_8888_sse2_lowp+0xeec> + .byte 15,88,5,57,56,1,0 // addps 0x13839(%rip),%xmm0 # 3ae60 <_sk_srcover_bgra_8888_sse2_lowp+0xef8> .byte 15,89,206 // mulps %xmm6,%xmm1 .byte 15,92,193 // subps %xmm1,%xmm0 .byte 15,92,214 // subps %xmm6,%xmm2 @@ -37901,29 +38396,29 @@ HIDDEN _sk_lab_to_xyz_sse2 .globl _sk_lab_to_xyz_sse2 FUNCTION(_sk_lab_to_xyz_sse2) _sk_lab_to_xyz_sse2: - .byte 15,89,5,72,55,1,0 // mulps 0x13748(%rip),%xmm0 # 3a490 <_sk_srcover_bgra_8888_sse2_lowp+0xf3c> - .byte 68,15,40,5,192,52,1,0 // movaps 0x134c0(%rip),%xmm8 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> + .byte 15,89,5,55,56,1,0 // mulps 0x13837(%rip),%xmm0 # 3aeb0 <_sk_srcover_bgra_8888_sse2_lowp+0xf48> + .byte 68,15,40,5,175,53,1,0 // movaps 0x135af(%rip),%xmm8 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> .byte 65,15,89,200 // mulps %xmm8,%xmm1 - .byte 68,15,40,13,68,55,1,0 // movaps 0x13744(%rip),%xmm9 # 3a4a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf4c> + .byte 68,15,40,13,51,56,1,0 // movaps 0x13833(%rip),%xmm9 # 3aec0 <_sk_srcover_bgra_8888_sse2_lowp+0xf58> .byte 65,15,88,201 // addps %xmm9,%xmm1 .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 65,15,88,209 // addps %xmm9,%xmm2 - .byte 15,88,5,65,55,1,0 // addps 0x13741(%rip),%xmm0 # 3a4b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf5c> - .byte 15,89,5,74,55,1,0 // mulps 0x1374a(%rip),%xmm0 # 3a4c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf6c> - .byte 15,89,13,83,55,1,0 // mulps 0x13753(%rip),%xmm1 # 3a4d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf7c> + .byte 15,88,5,48,56,1,0 // addps 0x13830(%rip),%xmm0 # 3aed0 <_sk_srcover_bgra_8888_sse2_lowp+0xf68> + .byte 15,89,5,57,56,1,0 // mulps 0x13839(%rip),%xmm0 # 3aee0 <_sk_srcover_bgra_8888_sse2_lowp+0xf78> + .byte 15,89,13,66,56,1,0 // mulps 0x13842(%rip),%xmm1 # 3aef0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88> .byte 15,88,200 // addps %xmm0,%xmm1 - .byte 15,89,21,89,55,1,0 // mulps 0x13759(%rip),%xmm2 # 3a4e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf8c> + .byte 15,89,21,72,56,1,0 // mulps 0x13848(%rip),%xmm2 # 3af00 <_sk_srcover_bgra_8888_sse2_lowp+0xf98> .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 68,15,92,202 // subps %xmm2,%xmm9 .byte 68,15,40,225 // movaps %xmm1,%xmm12 .byte 69,15,89,228 // mulps %xmm12,%xmm12 .byte 68,15,89,225 // mulps %xmm1,%xmm12 - .byte 15,40,21,78,55,1,0 // movaps 0x1374e(%rip),%xmm2 # 3a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0xf9c> + .byte 15,40,21,61,56,1,0 // movaps 0x1383d(%rip),%xmm2 # 3af10 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8> .byte 68,15,40,194 // movaps %xmm2,%xmm8 .byte 69,15,194,196,1 // cmpltps %xmm12,%xmm8 - .byte 68,15,40,21,77,55,1,0 // movaps 0x1374d(%rip),%xmm10 # 3a500 <_sk_srcover_bgra_8888_sse2_lowp+0xfac> + .byte 68,15,40,21,60,56,1,0 // movaps 0x1383c(%rip),%xmm10 # 3af20 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8> .byte 65,15,88,202 // addps %xmm10,%xmm1 - .byte 68,15,40,29,81,55,1,0 // movaps 0x13751(%rip),%xmm11 # 3a510 <_sk_srcover_bgra_8888_sse2_lowp+0xfbc> + .byte 68,15,40,29,64,56,1,0 // movaps 0x13840(%rip),%xmm11 # 3af30 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8> .byte 65,15,89,203 // mulps %xmm11,%xmm1 .byte 69,15,84,224 // andps %xmm8,%xmm12 .byte 68,15,85,193 // andnps %xmm1,%xmm8 @@ -37947,8 +38442,8 @@ _sk_lab_to_xyz_sse2: .byte 15,84,194 // andps %xmm2,%xmm0 .byte 65,15,85,209 // andnps %xmm9,%xmm2 .byte 15,86,208 // orps %xmm0,%xmm2 - .byte 68,15,89,5,1,55,1,0 // mulps 0x13701(%rip),%xmm8 # 3a520 <_sk_srcover_bgra_8888_sse2_lowp+0xfcc> - .byte 15,89,21,10,55,1,0 // mulps 0x1370a(%rip),%xmm2 # 3a530 <_sk_srcover_bgra_8888_sse2_lowp+0xfdc> + .byte 68,15,89,5,240,55,1,0 // mulps 0x137f0(%rip),%xmm8 # 3af40 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8> + .byte 15,89,21,249,55,1,0 // mulps 0x137f9(%rip),%xmm2 # 3af50 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax @@ -37964,13 +38459,13 @@ _sk_load_a8_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,46 // jne 26e74 <_sk_load_a8_sse2+0x46> + .byte 117,46 // jne 277a5 <_sk_load_a8_sse2+0x46> .byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0 - .byte 102,15,219,5,132,51,1,0 // pand 0x13384(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,219,5,115,52,1,0 // pand 0x13473(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3 - .byte 15,89,29,218,52,1,0 // mulps 0x134da(%rip),%xmm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 15,89,29,201,53,1,0 // mulps 0x135c9(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 102,15,87,201 // xorpd %xmm1,%xmm1 @@ -37979,12 +38474,12 @@ _sk_load_a8_sse2: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,54 // je 26eb7 <_sk_load_a8_sse2+0x89> + .byte 116,54 // je 277e8 <_sk_load_a8_sse2+0x89> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,21 // je 26ea0 <_sk_load_a8_sse2+0x72> + .byte 116,21 // je 277d1 <_sk_load_a8_sse2+0x72> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,195 // jne 26e54 <_sk_load_a8_sse2+0x26> + .byte 117,195 // jne 27785 <_sk_load_a8_sse2+0x26> .byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 @@ -37993,10 +38488,10 @@ _sk_load_a8_sse2: .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 242,15,16,193 // movsd %xmm1,%xmm0 - .byte 235,157 // jmp 26e54 <_sk_load_a8_sse2+0x26> + .byte 235,157 // jmp 27785 <_sk_load_a8_sse2+0x26> .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 - .byte 235,146 // jmp 26e54 <_sk_load_a8_sse2+0x26> + .byte 235,146 // jmp 27785 <_sk_load_a8_sse2+0x26> HIDDEN _sk_load_a8_dst_sse2 .globl _sk_load_a8_dst_sse2 @@ -38009,13 +38504,13 @@ _sk_load_a8_dst_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,46 // jne 26f08 <_sk_load_a8_dst_sse2+0x46> + .byte 117,46 // jne 27839 <_sk_load_a8_dst_sse2+0x46> .byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 - .byte 102,15,219,37,240,50,1,0 // pand 0x132f0(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,219,37,223,51,1,0 // pand 0x133df(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 15,91,252 // cvtdq2ps %xmm4,%xmm7 - .byte 15,89,61,70,52,1,0 // mulps 0x13446(%rip),%xmm7 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 15,89,61,53,53,1,0 // mulps 0x13535(%rip),%xmm7 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 102,15,87,237 // xorpd %xmm5,%xmm5 @@ -38024,12 +38519,12 @@ _sk_load_a8_dst_sse2: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,54 // je 26f4b <_sk_load_a8_dst_sse2+0x89> + .byte 116,54 // je 2787c <_sk_load_a8_dst_sse2+0x89> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,21 // je 26f34 <_sk_load_a8_dst_sse2+0x72> + .byte 116,21 // je 27865 <_sk_load_a8_dst_sse2+0x72> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,195 // jne 26ee8 <_sk_load_a8_dst_sse2+0x26> + .byte 117,195 // jne 27819 <_sk_load_a8_dst_sse2+0x26> .byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 @@ -38038,10 +38533,10 @@ _sk_load_a8_dst_sse2: .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 - .byte 235,157 // jmp 26ee8 <_sk_load_a8_dst_sse2+0x26> + .byte 235,157 // jmp 27819 <_sk_load_a8_dst_sse2+0x26> .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax .byte 102,15,110,224 // movd %eax,%xmm4 - .byte 235,146 // jmp 26ee8 <_sk_load_a8_dst_sse2+0x26> + .byte 235,146 // jmp 27819 <_sk_load_a8_dst_sse2+0x26> HIDDEN _sk_gather_a8_sse2 .globl _sk_gather_a8_sse2 @@ -38094,7 +38589,7 @@ _sk_gather_a8_sse2: .byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0 .byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0 .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3 - .byte 15,89,29,32,51,1,0 // mulps 0x13320(%rip),%xmm3 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 15,89,29,15,52,1,0 // mulps 0x1340f(%rip),%xmm3 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 @@ -38111,15 +38606,17 @@ _sk_store_a8_sse2: .byte 77,15,175,193 // imul %r9,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 - .byte 68,15,40,5,199,49,1,0 // movaps 0x131c7(%rip),%xmm8 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> - .byte 68,15,89,195 // mulps %xmm3,%xmm8 + .byte 69,15,87,192 // xorps %xmm8,%xmm8 + .byte 68,15,95,195 // maxps %xmm3,%xmm8 + .byte 68,15,93,5,206,49,1,0 // minps 0x131ce(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 68,15,89,5,166,50,1,0 // mulps 0x132a6(%rip),%xmm8 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8 .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8 .byte 102,68,15,107,192 // packssdw %xmm0,%xmm8 .byte 102,68,15,103,192 // packuswb %xmm0,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,13 // jne 2707a <_sk_store_a8_sse2+0x4c> + .byte 117,13 // jne 279b7 <_sk_store_a8_sse2+0x58> .byte 102,68,15,126,192 // movd %xmm8,%eax .byte 67,137,4,16 // mov %eax,(%r8,%r10,1) .byte 72,173 // lods %ds:(%rsi),%rax @@ -38129,22 +38626,22 @@ _sk_store_a8_sse2: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,54 // je 270c7 <_sk_store_a8_sse2+0x99> + .byte 116,54 // je 27a04 <_sk_store_a8_sse2+0xa5> .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,17 // je 270a8 <_sk_store_a8_sse2+0x7a> + .byte 116,17 // je 279e5 <_sk_store_a8_sse2+0x86> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,217 // jne 27076 <_sk_store_a8_sse2+0x48> + .byte 117,217 // jne 279b3 <_sk_store_a8_sse2+0x54> .byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax .byte 67,136,68,16,2 // mov %al,0x2(%r8,%r10,1) - .byte 102,68,15,219,5,47,49,1,0 // pand 0x1312f(%rip),%xmm8 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,68,15,219,5,18,50,1,0 // pand 0x13212(%rip),%xmm8 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 102,69,15,103,192 // packuswb %xmm8,%xmm8 .byte 102,69,15,103,192 // packuswb %xmm8,%xmm8 .byte 102,68,15,126,192 // movd %xmm8,%eax .byte 102,67,137,4,16 // mov %ax,(%r8,%r10,1) - .byte 235,175 // jmp 27076 <_sk_store_a8_sse2+0x48> + .byte 235,175 // jmp 279b3 <_sk_store_a8_sse2+0x54> .byte 102,68,15,126,192 // movd %xmm8,%eax .byte 67,136,4,16 // mov %al,(%r8,%r10,1) - .byte 235,164 // jmp 27076 <_sk_store_a8_sse2+0x48> + .byte 235,164 // jmp 279b3 <_sk_store_a8_sse2+0x54> HIDDEN _sk_load_g8_sse2 .globl _sk_load_g8_sse2 @@ -38157,27 +38654,27 @@ _sk_load_g8_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,49 // jne 2711b <_sk_load_g8_sse2+0x49> + .byte 117,49 // jne 27a58 <_sk_load_g8_sse2+0x49> .byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0 - .byte 102,15,219,5,224,48,1,0 // pand 0x130e0(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,219,5,195,49,1,0 // pand 0x131c3(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,89,5,54,50,1,0 // mulps 0x13236(%rip),%xmm0 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 15,89,5,25,51,1,0 // mulps 0x13319(%rip),%xmm0 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,29,48,1,0 // movaps 0x1301d(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,29,0,49,1,0 // movaps 0x13100(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,54 // je 2715e <_sk_load_g8_sse2+0x8c> + .byte 116,54 // je 27a9b <_sk_load_g8_sse2+0x8c> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,21 // je 27147 <_sk_load_g8_sse2+0x75> + .byte 116,21 // je 27a84 <_sk_load_g8_sse2+0x75> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,192 // jne 270f8 <_sk_load_g8_sse2+0x26> + .byte 117,192 // jne 27a35 <_sk_load_g8_sse2+0x26> .byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 @@ -38186,10 +38683,10 @@ _sk_load_g8_sse2: .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 242,15,16,193 // movsd %xmm1,%xmm0 - .byte 235,154 // jmp 270f8 <_sk_load_g8_sse2+0x26> + .byte 235,154 // jmp 27a35 <_sk_load_g8_sse2+0x26> .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 - .byte 235,143 // jmp 270f8 <_sk_load_g8_sse2+0x26> + .byte 235,143 // jmp 27a35 <_sk_load_g8_sse2+0x26> HIDDEN _sk_load_g8_dst_sse2 .globl _sk_load_g8_dst_sse2 @@ -38202,27 +38699,27 @@ _sk_load_g8_dst_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,49 // jne 271b2 <_sk_load_g8_dst_sse2+0x49> + .byte 117,49 // jne 27aef <_sk_load_g8_dst_sse2+0x49> .byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 - .byte 102,15,219,37,73,48,1,0 // pand 0x13049(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,219,37,44,49,1,0 // pand 0x1312c(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 15,89,37,159,49,1,0 // mulps 0x1319f(%rip),%xmm4 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 15,89,37,130,50,1,0 // mulps 0x13282(%rip),%xmm4 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,61,134,47,1,0 // movaps 0x12f86(%rip),%xmm7 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,61,105,48,1,0 // movaps 0x13069(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,40,244 // movaps %xmm4,%xmm6 .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,54 // je 271f5 <_sk_load_g8_dst_sse2+0x8c> + .byte 116,54 // je 27b32 <_sk_load_g8_dst_sse2+0x8c> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,21 // je 271de <_sk_load_g8_dst_sse2+0x75> + .byte 116,21 // je 27b1b <_sk_load_g8_dst_sse2+0x75> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,192 // jne 2718f <_sk_load_g8_dst_sse2+0x26> + .byte 117,192 // jne 27acc <_sk_load_g8_dst_sse2+0x26> .byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 @@ -38231,10 +38728,10 @@ _sk_load_g8_dst_sse2: .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 - .byte 235,154 // jmp 2718f <_sk_load_g8_dst_sse2+0x26> + .byte 235,154 // jmp 27acc <_sk_load_g8_dst_sse2+0x26> .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax .byte 102,15,110,224 // movd %eax,%xmm4 - .byte 235,143 // jmp 2718f <_sk_load_g8_dst_sse2+0x26> + .byte 235,143 // jmp 27acc <_sk_load_g8_dst_sse2+0x26> HIDDEN _sk_gather_g8_sse2 .globl _sk_gather_g8_sse2 @@ -38287,9 +38784,9 @@ _sk_gather_g8_sse2: .byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0 .byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,89,5,118,48,1,0 // mulps 0x13076(%rip),%xmm0 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 15,89,5,89,49,1,0 // mulps 0x13159(%rip),%xmm0 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,93,46,1,0 // movaps 0x12e5d(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,29,64,47,1,0 // movaps 0x12f40(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 255,224 // jmpq *%rax @@ -38306,42 +38803,42 @@ _sk_load_565_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,83 // jne 27349 <_sk_load_565_sse2+0x6e> + .byte 117,83 // jne 27c86 <_sk_load_565_sse2+0x6e> .byte 243,67,15,126,20,80 // movq (%r8,%r10,2),%xmm2 .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2 - .byte 102,15,111,5,72,48,1,0 // movdqa 0x13048(%rip),%xmm0 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc> + .byte 102,15,111,5,43,49,1,0 // movdqa 0x1312b(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08> .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,89,5,74,48,1,0 // mulps 0x1304a(%rip),%xmm0 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c> - .byte 102,15,111,13,82,48,1,0 // movdqa 0x13052(%rip),%xmm1 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c> + .byte 15,89,5,45,49,1,0 // mulps 0x1312d(%rip),%xmm0 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18> + .byte 102,15,111,13,53,49,1,0 // movdqa 0x13135(%rip),%xmm1 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28> .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 - .byte 15,89,13,84,48,1,0 // mulps 0x13054(%rip),%xmm1 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c> - .byte 102,15,219,21,92,48,1,0 // pand 0x1305c(%rip),%xmm2 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c> + .byte 15,89,13,55,49,1,0 // mulps 0x13137(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38> + .byte 102,15,219,21,63,49,1,0 // pand 0x1313f(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48> .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 - .byte 15,89,21,98,48,1,0 // mulps 0x13062(%rip),%xmm2 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c> + .byte 15,89,21,69,49,1,0 // mulps 0x13145(%rip),%xmm2 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,233,45,1,0 // movaps 0x12de9(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,29,204,46,1,0 // movaps 0x12ecc(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,51 // je 27389 <_sk_load_565_sse2+0xae> + .byte 116,51 // je 27cc6 <_sk_load_565_sse2+0xae> .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,21 // je 27375 <_sk_load_565_sse2+0x9a> + .byte 116,21 // je 27cb2 <_sk_load_565_sse2+0x9a> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,154 // jne 27300 <_sk_load_565_sse2+0x25> + .byte 117,154 // jne 27c3d <_sk_load_565_sse2+0x25> .byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2 .byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0 .byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0 .byte 242,15,16,208 // movsd %xmm0,%xmm2 - .byte 233,119,255,255,255 // jmpq 27300 <_sk_load_565_sse2+0x25> + .byte 233,119,255,255,255 // jmpq 27c3d <_sk_load_565_sse2+0x25> .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax .byte 102,15,110,208 // movd %eax,%xmm2 - .byte 233,105,255,255,255 // jmpq 27300 <_sk_load_565_sse2+0x25> + .byte 233,105,255,255,255 // jmpq 27c3d <_sk_load_565_sse2+0x25> HIDDEN _sk_load_565_dst_sse2 .globl _sk_load_565_dst_sse2 @@ -38355,42 +38852,42 @@ _sk_load_565_dst_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,83 // jne 27405 <_sk_load_565_dst_sse2+0x6e> + .byte 117,83 // jne 27d42 <_sk_load_565_dst_sse2+0x6e> .byte 243,67,15,126,52,80 // movq (%r8,%r10,2),%xmm6 .byte 102,15,97,240 // punpcklwd %xmm0,%xmm6 - .byte 102,15,111,37,140,47,1,0 // movdqa 0x12f8c(%rip),%xmm4 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc> + .byte 102,15,111,37,111,48,1,0 // movdqa 0x1306f(%rip),%xmm4 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08> .byte 102,15,219,230 // pand %xmm6,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 15,89,37,142,47,1,0 // mulps 0x12f8e(%rip),%xmm4 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c> - .byte 102,15,111,45,150,47,1,0 // movdqa 0x12f96(%rip),%xmm5 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c> + .byte 15,89,37,113,48,1,0 // mulps 0x13071(%rip),%xmm4 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18> + .byte 102,15,111,45,121,48,1,0 // movdqa 0x13079(%rip),%xmm5 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28> .byte 102,15,219,238 // pand %xmm6,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 - .byte 15,89,45,152,47,1,0 // mulps 0x12f98(%rip),%xmm5 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c> - .byte 102,15,219,53,160,47,1,0 // pand 0x12fa0(%rip),%xmm6 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c> + .byte 15,89,45,123,48,1,0 // mulps 0x1307b(%rip),%xmm5 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38> + .byte 102,15,219,53,131,48,1,0 // pand 0x13083(%rip),%xmm6 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48> .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 - .byte 15,89,53,166,47,1,0 // mulps 0x12fa6(%rip),%xmm6 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c> + .byte 15,89,53,137,48,1,0 // mulps 0x13089(%rip),%xmm6 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,61,45,45,1,0 // movaps 0x12d2d(%rip),%xmm7 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,61,16,46,1,0 // movaps 0x12e10(%rip),%xmm7 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,51 // je 27445 <_sk_load_565_dst_sse2+0xae> + .byte 116,51 // je 27d82 <_sk_load_565_dst_sse2+0xae> .byte 102,15,239,246 // pxor %xmm6,%xmm6 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,21 // je 27431 <_sk_load_565_dst_sse2+0x9a> + .byte 116,21 // je 27d6e <_sk_load_565_dst_sse2+0x9a> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,154 // jne 273bc <_sk_load_565_dst_sse2+0x25> + .byte 117,154 // jne 27cf9 <_sk_load_565_dst_sse2+0x25> .byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6 .byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4 .byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4 .byte 242,15,16,244 // movsd %xmm4,%xmm6 - .byte 233,119,255,255,255 // jmpq 273bc <_sk_load_565_dst_sse2+0x25> + .byte 233,119,255,255,255 // jmpq 27cf9 <_sk_load_565_dst_sse2+0x25> .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax .byte 102,15,110,240 // movd %eax,%xmm6 - .byte 233,105,255,255,255 // jmpq 273bc <_sk_load_565_dst_sse2+0x25> + .byte 233,105,255,255,255 // jmpq 27cf9 <_sk_load_565_dst_sse2+0x25> HIDDEN _sk_gather_565_sse2 .globl _sk_gather_565_sse2 @@ -38439,19 +38936,19 @@ _sk_gather_565_sse2: .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax .byte 102,15,196,208,3 // pinsrw $0x3,%eax,%xmm2 .byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2 - .byte 102,15,111,5,59,46,1,0 // movdqa 0x12e3b(%rip),%xmm0 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0xdfc> + .byte 102,15,111,5,30,47,1,0 // movdqa 0x12f1e(%rip),%xmm0 # 3ad70 <_sk_srcover_bgra_8888_sse2_lowp+0xe08> .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,89,5,61,46,1,0 // mulps 0x12e3d(%rip),%xmm0 # 3a360 <_sk_srcover_bgra_8888_sse2_lowp+0xe0c> - .byte 102,15,111,13,69,46,1,0 // movdqa 0x12e45(%rip),%xmm1 # 3a370 <_sk_srcover_bgra_8888_sse2_lowp+0xe1c> + .byte 15,89,5,32,47,1,0 // mulps 0x12f20(%rip),%xmm0 # 3ad80 <_sk_srcover_bgra_8888_sse2_lowp+0xe18> + .byte 102,15,111,13,40,47,1,0 // movdqa 0x12f28(%rip),%xmm1 # 3ad90 <_sk_srcover_bgra_8888_sse2_lowp+0xe28> .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 - .byte 15,89,13,71,46,1,0 // mulps 0x12e47(%rip),%xmm1 # 3a380 <_sk_srcover_bgra_8888_sse2_lowp+0xe2c> - .byte 102,15,219,21,79,46,1,0 // pand 0x12e4f(%rip),%xmm2 # 3a390 <_sk_srcover_bgra_8888_sse2_lowp+0xe3c> + .byte 15,89,13,42,47,1,0 // mulps 0x12f2a(%rip),%xmm1 # 3ada0 <_sk_srcover_bgra_8888_sse2_lowp+0xe38> + .byte 102,15,219,21,50,47,1,0 // pand 0x12f32(%rip),%xmm2 # 3adb0 <_sk_srcover_bgra_8888_sse2_lowp+0xe48> .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 - .byte 15,89,21,85,46,1,0 // mulps 0x12e55(%rip),%xmm2 # 3a3a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe4c> + .byte 15,89,21,56,47,1,0 // mulps 0x12f38(%rip),%xmm2 # 3adc0 <_sk_srcover_bgra_8888_sse2_lowp+0xe58> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,220,43,1,0 // movaps 0x12bdc(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,29,191,44,1,0 // movaps 0x12cbf(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 255,224 // jmpq *%rax HIDDEN _sk_store_565_sse2 @@ -38465,24 +38962,32 @@ _sk_store_565_sse2: .byte 77,1,192 // add %r8,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 - .byte 68,15,40,5,220,47,1,0 // movaps 0x12fdc(%rip),%xmm8 # 3a550 <_sk_srcover_bgra_8888_sse2_lowp+0xffc> - .byte 68,15,40,200 // movaps %xmm0,%xmm9 - .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 69,15,87,192 // xorps %xmm8,%xmm8 + .byte 69,15,87,201 // xorps %xmm9,%xmm9 + .byte 68,15,95,200 // maxps %xmm0,%xmm9 + .byte 68,15,40,21,147,44,1,0 // movaps 0x12c93(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,93,202 // minps %xmm10,%xmm9 + .byte 68,15,40,29,167,48,1,0 // movaps 0x130a7(%rip),%xmm11 # 3af70 <_sk_srcover_bgra_8888_sse2_lowp+0x1008> + .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,11 // pslld $0xb,%xmm9 - .byte 68,15,40,21,209,47,1,0 // movaps 0x12fd1(%rip),%xmm10 # 3a560 <_sk_srcover_bgra_8888_sse2_lowp+0x100c> - .byte 68,15,89,209 // mulps %xmm1,%xmm10 - .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 - .byte 102,65,15,114,242,5 // pslld $0x5,%xmm10 - .byte 102,69,15,235,209 // por %xmm9,%xmm10 - .byte 68,15,89,194 // mulps %xmm2,%xmm8 + .byte 69,15,87,228 // xorps %xmm12,%xmm12 + .byte 68,15,95,225 // maxps %xmm1,%xmm12 + .byte 69,15,93,226 // minps %xmm10,%xmm12 + .byte 68,15,89,37,148,48,1,0 // mulps 0x13094(%rip),%xmm12 # 3af80 <_sk_srcover_bgra_8888_sse2_lowp+0x1018> + .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12 + .byte 102,65,15,114,244,5 // pslld $0x5,%xmm12 + .byte 68,15,95,194 // maxps %xmm2,%xmm8 + .byte 69,15,93,194 // minps %xmm10,%xmm8 + .byte 69,15,89,195 // mulps %xmm11,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 - .byte 102,69,15,86,194 // orpd %xmm10,%xmm8 + .byte 102,69,15,86,193 // orpd %xmm9,%xmm8 + .byte 102,69,15,86,196 // orpd %xmm12,%xmm8 .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8 .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8 .byte 102,68,15,107,192 // packssdw %xmm0,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne 275d1 <_sk_store_565_sse2+0x7b> + .byte 117,10 // jne 27f32 <_sk_store_565_sse2+0x9f> .byte 102,71,15,214,4,80 // movq %xmm8,(%r8,%r10,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -38490,19 +38995,19 @@ _sk_store_565_sse2: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,38 // je 27609 <_sk_store_565_sse2+0xb3> + .byte 116,38 // je 27f6a <_sk_store_565_sse2+0xd7> .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,18 // je 275fb <_sk_store_565_sse2+0xa5> + .byte 116,18 // je 27f5c <_sk_store_565_sse2+0xc9> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,222 // jne 275cd <_sk_store_565_sse2+0x77> + .byte 117,222 // jne 27f2e <_sk_store_565_sse2+0x9b> .byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax .byte 102,67,137,68,80,4 // mov %ax,0x4(%r8,%r10,2) .byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8 .byte 102,71,15,126,4,80 // movd %xmm8,(%r8,%r10,2) - .byte 235,196 // jmp 275cd <_sk_store_565_sse2+0x77> + .byte 235,196 // jmp 27f2e <_sk_store_565_sse2+0x9b> .byte 102,68,15,126,192 // movd %xmm8,%eax .byte 102,67,137,4,80 // mov %ax,(%r8,%r10,2) - .byte 235,184 // jmp 275cd <_sk_store_565_sse2+0x77> + .byte 235,184 // jmp 27f2e <_sk_store_565_sse2+0x9b> HIDDEN _sk_load_4444_sse2 .globl _sk_load_4444_sse2 @@ -38516,45 +39021,45 @@ _sk_load_4444_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,98 // jne 27692 <_sk_load_4444_sse2+0x7d> + .byte 117,98 // jne 27ff3 <_sk_load_4444_sse2+0x7d> .byte 243,67,15,126,28,80 // movq (%r8,%r10,2),%xmm3 .byte 102,15,97,216 // punpcklwd %xmm0,%xmm3 - .byte 102,15,111,5,46,47,1,0 // movdqa 0x12f2e(%rip),%xmm0 # 3a570 <_sk_srcover_bgra_8888_sse2_lowp+0x101c> + .byte 102,15,111,5,237,47,1,0 // movdqa 0x12fed(%rip),%xmm0 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028> .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,89,5,48,47,1,0 // mulps 0x12f30(%rip),%xmm0 # 3a580 <_sk_srcover_bgra_8888_sse2_lowp+0x102c> - .byte 102,15,111,13,56,47,1,0 // movdqa 0x12f38(%rip),%xmm1 # 3a590 <_sk_srcover_bgra_8888_sse2_lowp+0x103c> + .byte 15,89,5,239,47,1,0 // mulps 0x12fef(%rip),%xmm0 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038> + .byte 102,15,111,13,247,47,1,0 // movdqa 0x12ff7(%rip),%xmm1 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048> .byte 102,15,219,203 // pand %xmm3,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 - .byte 15,89,13,58,47,1,0 // mulps 0x12f3a(%rip),%xmm1 # 3a5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x104c> - .byte 102,15,111,21,66,47,1,0 // movdqa 0x12f42(%rip),%xmm2 # 3a5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x105c> + .byte 15,89,13,249,47,1,0 // mulps 0x12ff9(%rip),%xmm1 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058> + .byte 102,15,111,21,1,48,1,0 // movdqa 0x13001(%rip),%xmm2 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068> .byte 102,15,219,211 // pand %xmm3,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 - .byte 15,89,21,68,47,1,0 // mulps 0x12f44(%rip),%xmm2 # 3a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x106c> - .byte 102,15,219,29,76,47,1,0 // pand 0x12f4c(%rip),%xmm3 # 3a5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x107c> + .byte 15,89,21,3,48,1,0 // mulps 0x13003(%rip),%xmm2 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078> + .byte 102,15,219,29,11,48,1,0 // pand 0x1300b(%rip),%xmm3 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088> .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 - .byte 15,89,29,82,47,1,0 // mulps 0x12f52(%rip),%xmm3 # 3a5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x108c> + .byte 15,89,29,17,48,1,0 // mulps 0x13011(%rip),%xmm3 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,51 // je 276d2 <_sk_load_4444_sse2+0xbd> + .byte 116,51 // je 28033 <_sk_load_4444_sse2+0xbd> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,21 // je 276be <_sk_load_4444_sse2+0xa9> + .byte 116,21 // je 2801f <_sk_load_4444_sse2+0xa9> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,139 // jne 2763a <_sk_load_4444_sse2+0x25> + .byte 117,139 // jne 27f9b <_sk_load_4444_sse2+0x25> .byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0 .byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0 .byte 242,15,16,216 // movsd %xmm0,%xmm3 - .byte 233,104,255,255,255 // jmpq 2763a <_sk_load_4444_sse2+0x25> + .byte 233,104,255,255,255 // jmpq 27f9b <_sk_load_4444_sse2+0x25> .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax .byte 102,15,110,216 // movd %eax,%xmm3 - .byte 233,90,255,255,255 // jmpq 2763a <_sk_load_4444_sse2+0x25> + .byte 233,90,255,255,255 // jmpq 27f9b <_sk_load_4444_sse2+0x25> HIDDEN _sk_load_4444_dst_sse2 .globl _sk_load_4444_dst_sse2 @@ -38568,45 +39073,45 @@ _sk_load_4444_dst_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 .byte 72,133,255 // test %rdi,%rdi - .byte 117,98 // jne 2775d <_sk_load_4444_dst_sse2+0x7d> + .byte 117,98 // jne 280be <_sk_load_4444_dst_sse2+0x7d> .byte 243,67,15,126,60,80 // movq (%r8,%r10,2),%xmm7 .byte 102,15,97,248 // punpcklwd %xmm0,%xmm7 - .byte 102,15,111,37,99,46,1,0 // movdqa 0x12e63(%rip),%xmm4 # 3a570 <_sk_srcover_bgra_8888_sse2_lowp+0x101c> + .byte 102,15,111,37,34,47,1,0 // movdqa 0x12f22(%rip),%xmm4 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028> .byte 102,15,219,231 // pand %xmm7,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 15,89,37,101,46,1,0 // mulps 0x12e65(%rip),%xmm4 # 3a580 <_sk_srcover_bgra_8888_sse2_lowp+0x102c> - .byte 102,15,111,45,109,46,1,0 // movdqa 0x12e6d(%rip),%xmm5 # 3a590 <_sk_srcover_bgra_8888_sse2_lowp+0x103c> + .byte 15,89,37,36,47,1,0 // mulps 0x12f24(%rip),%xmm4 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038> + .byte 102,15,111,45,44,47,1,0 // movdqa 0x12f2c(%rip),%xmm5 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048> .byte 102,15,219,239 // pand %xmm7,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 - .byte 15,89,45,111,46,1,0 // mulps 0x12e6f(%rip),%xmm5 # 3a5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x104c> - .byte 102,15,111,53,119,46,1,0 // movdqa 0x12e77(%rip),%xmm6 # 3a5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x105c> + .byte 15,89,45,46,47,1,0 // mulps 0x12f2e(%rip),%xmm5 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058> + .byte 102,15,111,53,54,47,1,0 // movdqa 0x12f36(%rip),%xmm6 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068> .byte 102,15,219,247 // pand %xmm7,%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 - .byte 15,89,53,121,46,1,0 // mulps 0x12e79(%rip),%xmm6 # 3a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x106c> - .byte 102,15,219,61,129,46,1,0 // pand 0x12e81(%rip),%xmm7 # 3a5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x107c> + .byte 15,89,53,56,47,1,0 // mulps 0x12f38(%rip),%xmm6 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078> + .byte 102,15,219,61,64,47,1,0 // pand 0x12f40(%rip),%xmm7 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088> .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7 - .byte 15,89,61,135,46,1,0 // mulps 0x12e87(%rip),%xmm7 # 3a5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x108c> + .byte 15,89,61,70,47,1,0 // mulps 0x12f46(%rip),%xmm7 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,51 // je 2779d <_sk_load_4444_dst_sse2+0xbd> + .byte 116,51 // je 280fe <_sk_load_4444_dst_sse2+0xbd> .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,21 // je 27789 <_sk_load_4444_dst_sse2+0xa9> + .byte 116,21 // je 280ea <_sk_load_4444_dst_sse2+0xa9> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,139 // jne 27705 <_sk_load_4444_dst_sse2+0x25> + .byte 117,139 // jne 28066 <_sk_load_4444_dst_sse2+0x25> .byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax .byte 102,15,110,224 // movd %eax,%xmm4 .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7 .byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4 .byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4 .byte 242,15,16,252 // movsd %xmm4,%xmm7 - .byte 233,104,255,255,255 // jmpq 27705 <_sk_load_4444_dst_sse2+0x25> + .byte 233,104,255,255,255 // jmpq 28066 <_sk_load_4444_dst_sse2+0x25> .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax .byte 102,15,110,248 // movd %eax,%xmm7 - .byte 233,90,255,255,255 // jmpq 27705 <_sk_load_4444_dst_sse2+0x25> + .byte 233,90,255,255,255 // jmpq 28066 <_sk_load_4444_dst_sse2+0x25> HIDDEN _sk_gather_4444_sse2 .globl _sk_gather_4444_sse2 @@ -38655,21 +39160,21 @@ _sk_gather_4444_sse2: .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax .byte 102,15,196,216,3 // pinsrw $0x3,%eax,%xmm3 .byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3 - .byte 102,15,111,5,3,45,1,0 // movdqa 0x12d03(%rip),%xmm0 # 3a570 <_sk_srcover_bgra_8888_sse2_lowp+0x101c> + .byte 102,15,111,5,194,45,1,0 // movdqa 0x12dc2(%rip),%xmm0 # 3af90 <_sk_srcover_bgra_8888_sse2_lowp+0x1028> .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,89,5,5,45,1,0 // mulps 0x12d05(%rip),%xmm0 # 3a580 <_sk_srcover_bgra_8888_sse2_lowp+0x102c> - .byte 102,15,111,13,13,45,1,0 // movdqa 0x12d0d(%rip),%xmm1 # 3a590 <_sk_srcover_bgra_8888_sse2_lowp+0x103c> + .byte 15,89,5,196,45,1,0 // mulps 0x12dc4(%rip),%xmm0 # 3afa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1038> + .byte 102,15,111,13,204,45,1,0 // movdqa 0x12dcc(%rip),%xmm1 # 3afb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1048> .byte 102,15,219,203 // pand %xmm3,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 - .byte 15,89,13,15,45,1,0 // mulps 0x12d0f(%rip),%xmm1 # 3a5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x104c> - .byte 102,15,111,21,23,45,1,0 // movdqa 0x12d17(%rip),%xmm2 # 3a5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x105c> + .byte 15,89,13,206,45,1,0 // mulps 0x12dce(%rip),%xmm1 # 3afc0 <_sk_srcover_bgra_8888_sse2_lowp+0x1058> + .byte 102,15,111,21,214,45,1,0 // movdqa 0x12dd6(%rip),%xmm2 # 3afd0 <_sk_srcover_bgra_8888_sse2_lowp+0x1068> .byte 102,15,219,211 // pand %xmm3,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 - .byte 15,89,21,25,45,1,0 // mulps 0x12d19(%rip),%xmm2 # 3a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x106c> - .byte 102,15,219,29,33,45,1,0 // pand 0x12d21(%rip),%xmm3 # 3a5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x107c> + .byte 15,89,21,216,45,1,0 // mulps 0x12dd8(%rip),%xmm2 # 3afe0 <_sk_srcover_bgra_8888_sse2_lowp+0x1078> + .byte 102,15,219,29,224,45,1,0 // pand 0x12de0(%rip),%xmm3 # 3aff0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088> .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 - .byte 15,89,29,39,45,1,0 // mulps 0x12d27(%rip),%xmm3 # 3a5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x108c> + .byte 15,89,29,230,45,1,0 // mulps 0x12de6(%rip),%xmm3 # 3b000 <_sk_srcover_bgra_8888_sse2_lowp+0x1098> .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -38684,29 +39189,39 @@ _sk_store_4444_sse2: .byte 77,1,192 // add %r8,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 76,99,210 // movslq %edx,%r10 - .byte 68,15,40,5,21,45,1,0 // movaps 0x12d15(%rip),%xmm8 # 3a5f0 <_sk_srcover_bgra_8888_sse2_lowp+0x109c> - .byte 68,15,40,200 // movaps %xmm0,%xmm9 - .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 69,15,87,192 // xorps %xmm8,%xmm8 + .byte 69,15,87,201 // xorps %xmm9,%xmm9 + .byte 68,15,95,200 // maxps %xmm0,%xmm9 + .byte 68,15,40,21,8,41,1,0 // movaps 0x12908(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,93,202 // minps %xmm10,%xmm9 + .byte 68,15,40,29,188,45,1,0 // movaps 0x12dbc(%rip),%xmm11 # 3b010 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8> + .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,12 // pslld $0xc,%xmm9 - .byte 68,15,40,209 // movaps %xmm1,%xmm10 - .byte 69,15,89,208 // mulps %xmm8,%xmm10 - .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 - .byte 102,65,15,114,242,8 // pslld $0x8,%xmm10 - .byte 102,69,15,235,209 // por %xmm9,%xmm10 - .byte 68,15,40,202 // movaps %xmm2,%xmm9 - .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 69,15,87,228 // xorps %xmm12,%xmm12 + .byte 68,15,95,225 // maxps %xmm1,%xmm12 + .byte 69,15,93,226 // minps %xmm10,%xmm12 + .byte 69,15,89,227 // mulps %xmm11,%xmm12 + .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12 + .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12 + .byte 102,69,15,235,225 // por %xmm9,%xmm12 + .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 + .byte 68,15,95,202 // maxps %xmm2,%xmm9 + .byte 69,15,93,202 // minps %xmm10,%xmm9 + .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,4 // pslld $0x4,%xmm9 - .byte 68,15,89,195 // mulps %xmm3,%xmm8 + .byte 68,15,95,195 // maxps %xmm3,%xmm8 + .byte 69,15,93,194 // minps %xmm10,%xmm8 + .byte 69,15,89,195 // mulps %xmm11,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,69,15,86,193 // orpd %xmm9,%xmm8 - .byte 102,69,15,86,194 // orpd %xmm10,%xmm8 + .byte 102,69,15,86,196 // orpd %xmm12,%xmm8 .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8 .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8 .byte 102,68,15,107,192 // packssdw %xmm0,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne 2794c <_sk_store_4444_sse2+0x8f> + .byte 117,10 // jne 282da <_sk_store_4444_sse2+0xbc> .byte 102,71,15,214,4,80 // movq %xmm8,(%r8,%r10,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -38714,19 +39229,19 @@ _sk_store_4444_sse2: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,38 // je 27984 <_sk_store_4444_sse2+0xc7> + .byte 116,38 // je 28312 <_sk_store_4444_sse2+0xf4> .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,18 // je 27976 <_sk_store_4444_sse2+0xb9> + .byte 116,18 // je 28304 <_sk_store_4444_sse2+0xe6> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,222 // jne 27948 <_sk_store_4444_sse2+0x8b> + .byte 117,222 // jne 282d6 <_sk_store_4444_sse2+0xb8> .byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax .byte 102,67,137,68,80,4 // mov %ax,0x4(%r8,%r10,2) .byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8 .byte 102,71,15,126,4,80 // movd %xmm8,(%r8,%r10,2) - .byte 235,196 // jmp 27948 <_sk_store_4444_sse2+0x8b> + .byte 235,196 // jmp 282d6 <_sk_store_4444_sse2+0xb8> .byte 102,68,15,126,192 // movd %xmm8,%eax .byte 102,67,137,4,80 // mov %ax,(%r8,%r10,2) - .byte 235,184 // jmp 27948 <_sk_store_4444_sse2+0x8b> + .byte 235,184 // jmp 282d6 <_sk_store_4444_sse2+0xb8> HIDDEN _sk_load_8888_sse2 .globl _sk_load_8888_sse2 @@ -38740,13 +39255,13 @@ _sk_load_8888_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 117,98 // jne 27a0e <_sk_load_8888_sse2+0x7e> + .byte 117,98 // jne 2839c <_sk_load_8888_sse2+0x7e> .byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9 - .byte 102,15,111,21,38,40,1,0 // movdqa 0x12826(%rip),%xmm2 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,111,21,184,40,1,0 // movdqa 0x128b8(%rip),%xmm2 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0 .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 68,15,40,5,114,41,1,0 // movaps 0x12972(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 68,15,40,5,4,42,1,0 // movaps 0x12a04(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1 .byte 102,15,114,209,8 // psrld $0x8,%xmm1 @@ -38766,18 +39281,18 @@ _sk_load_8888_sse2: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,41 // je 27a44 <_sk_load_8888_sse2+0xb4> + .byte 116,41 // je 283d2 <_sk_load_8888_sse2+0xb4> .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,19 // je 27a39 <_sk_load_8888_sse2+0xa9> + .byte 116,19 // je 283c7 <_sk_load_8888_sse2+0xa9> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,134 // jne 279b2 <_sk_load_8888_sse2+0x22> + .byte 117,134 // jne 28340 <_sk_load_8888_sse2+0x22> .byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0 .byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9 .byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9 - .byte 233,110,255,255,255 // jmpq 279b2 <_sk_load_8888_sse2+0x22> + .byte 233,110,255,255,255 // jmpq 28340 <_sk_load_8888_sse2+0x22> .byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9 - .byte 233,99,255,255,255 // jmpq 279b2 <_sk_load_8888_sse2+0x22> + .byte 233,99,255,255,255 // jmpq 28340 <_sk_load_8888_sse2+0x22> HIDDEN _sk_load_8888_dst_sse2 .globl _sk_load_8888_dst_sse2 @@ -38791,13 +39306,13 @@ _sk_load_8888_dst_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 117,98 // jne 27acd <_sk_load_8888_dst_sse2+0x7e> + .byte 117,98 // jne 2845b <_sk_load_8888_dst_sse2+0x7e> .byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9 - .byte 102,15,111,53,103,39,1,0 // movdqa 0x12767(%rip),%xmm6 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,111,53,249,39,1,0 // movdqa 0x127f9(%rip),%xmm6 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 102,65,15,111,225 // movdqa %xmm9,%xmm4 .byte 102,15,219,230 // pand %xmm6,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 68,15,40,5,179,40,1,0 // movaps 0x128b3(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 68,15,40,5,69,41,1,0 // movaps 0x12945(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 65,15,89,224 // mulps %xmm8,%xmm4 .byte 102,65,15,111,233 // movdqa %xmm9,%xmm5 .byte 102,15,114,213,8 // psrld $0x8,%xmm5 @@ -38817,18 +39332,18 @@ _sk_load_8888_dst_sse2: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,41 // je 27b03 <_sk_load_8888_dst_sse2+0xb4> + .byte 116,41 // je 28491 <_sk_load_8888_dst_sse2+0xb4> .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,19 // je 27af8 <_sk_load_8888_dst_sse2+0xa9> + .byte 116,19 // je 28486 <_sk_load_8888_dst_sse2+0xa9> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,134 // jne 27a71 <_sk_load_8888_dst_sse2+0x22> + .byte 117,134 // jne 283ff <_sk_load_8888_dst_sse2+0x22> .byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4 .byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9 .byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9 - .byte 233,110,255,255,255 // jmpq 27a71 <_sk_load_8888_dst_sse2+0x22> + .byte 233,110,255,255,255 // jmpq 283ff <_sk_load_8888_dst_sse2+0x22> .byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9 - .byte 233,99,255,255,255 // jmpq 27a71 <_sk_load_8888_dst_sse2+0x22> + .byte 233,99,255,255,255 // jmpq 283ff <_sk_load_8888_dst_sse2+0x22> HIDDEN _sk_gather_8888_sse2 .globl _sk_gather_8888_sse2 @@ -38874,11 +39389,11 @@ _sk_gather_8888_sse2: .byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1 .byte 102,15,98,200 // punpckldq %xmm0,%xmm1 .byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9 - .byte 102,15,111,21,26,38,1,0 // movdqa 0x1261a(%rip),%xmm2 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,111,21,172,38,1,0 // movdqa 0x126ac(%rip),%xmm2 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0 .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 68,15,40,5,102,39,1,0 // movaps 0x12766(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 68,15,40,5,248,39,1,0 // movaps 0x127f8(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1 .byte 102,15,114,209,8 // psrld $0x8,%xmm1 @@ -38907,43 +39422,53 @@ _sk_store_8888_sse2: .byte 73,193,224,2 // shl $0x2,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax - .byte 68,15,40,5,215,37,1,0 // movaps 0x125d7(%rip),%xmm8 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> - .byte 68,15,40,200 // movaps %xmm0,%xmm9 - .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 69,15,87,192 // xorps %xmm8,%xmm8 + .byte 69,15,87,201 // xorps %xmm9,%xmm9 + .byte 68,15,95,200 // maxps %xmm0,%xmm9 + .byte 68,15,40,21,125,37,1,0 // movaps 0x1257d(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,93,202 // minps %xmm10,%xmm9 + .byte 68,15,40,29,81,38,1,0 // movaps 0x12651(%rip),%xmm11 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> + .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 - .byte 68,15,40,209 // movaps %xmm1,%xmm10 - .byte 69,15,89,208 // mulps %xmm8,%xmm10 - .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 - .byte 102,65,15,114,242,8 // pslld $0x8,%xmm10 - .byte 102,69,15,235,209 // por %xmm9,%xmm10 - .byte 68,15,40,202 // movaps %xmm2,%xmm9 - .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 69,15,87,228 // xorps %xmm12,%xmm12 + .byte 68,15,95,225 // maxps %xmm1,%xmm12 + .byte 69,15,93,226 // minps %xmm10,%xmm12 + .byte 69,15,89,227 // mulps %xmm11,%xmm12 + .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12 + .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12 + .byte 102,69,15,235,225 // por %xmm9,%xmm12 + .byte 102,69,15,87,201 // xorpd %xmm9,%xmm9 + .byte 68,15,95,202 // maxps %xmm2,%xmm9 + .byte 69,15,93,202 // minps %xmm10,%xmm9 + .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9 - .byte 68,15,89,195 // mulps %xmm3,%xmm8 + .byte 68,15,95,195 // maxps %xmm3,%xmm8 + .byte 69,15,93,194 // minps %xmm10,%xmm8 + .byte 69,15,89,195 // mulps %xmm11,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,65,15,114,240,24 // pslld $0x18,%xmm8 .byte 102,69,15,235,193 // por %xmm9,%xmm8 - .byte 102,69,15,235,194 // por %xmm10,%xmm8 + .byte 102,69,15,235,196 // por %xmm12,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne 27c99 <_sk_store_8888_sse2+0x7f> + .byte 117,10 // jne 28654 <_sk_store_8888_sse2+0xac> .byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,33 // je 27cc7 <_sk_store_8888_sse2+0xad> + .byte 116,33 // je 28682 <_sk_store_8888_sse2+0xda> .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,19 // je 27cbf <_sk_store_8888_sse2+0xa5> + .byte 116,19 // je 2867a <_sk_store_8888_sse2+0xd2> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,227 // jne 27c95 <_sk_store_8888_sse2+0x7b> + .byte 117,227 // jne 28650 <_sk_store_8888_sse2+0xa8> .byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9 .byte 102,69,15,126,76,128,8 // movd %xmm9,0x8(%r8,%rax,4) .byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4) - .byte 235,206 // jmp 27c95 <_sk_store_8888_sse2+0x7b> + .byte 235,206 // jmp 28650 <_sk_store_8888_sse2+0xa8> .byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4) - .byte 235,198 // jmp 27c95 <_sk_store_8888_sse2+0x7b> + .byte 235,198 // jmp 28650 <_sk_store_8888_sse2+0xa8> HIDDEN _sk_load_bgra_sse2 .globl _sk_load_bgra_sse2 @@ -38957,13 +39482,13 @@ _sk_load_bgra_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 117,98 // jne 27d4d <_sk_load_bgra_sse2+0x7e> + .byte 117,98 // jne 28708 <_sk_load_bgra_sse2+0x7e> .byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9 - .byte 102,15,111,5,231,36,1,0 // movdqa 0x124e7(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,111,5,76,37,1,0 // movdqa 0x1254c(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1 .byte 102,15,219,200 // pand %xmm0,%xmm1 .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2 - .byte 68,15,40,5,51,38,1,0 // movaps 0x12633(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 68,15,40,5,152,38,1,0 // movaps 0x12698(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1 .byte 102,15,114,209,8 // psrld $0x8,%xmm1 @@ -38983,18 +39508,18 @@ _sk_load_bgra_sse2: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,41 // je 27d83 <_sk_load_bgra_sse2+0xb4> + .byte 116,41 // je 2873e <_sk_load_bgra_sse2+0xb4> .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,19 // je 27d78 <_sk_load_bgra_sse2+0xa9> + .byte 116,19 // je 28733 <_sk_load_bgra_sse2+0xa9> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,134 // jne 27cf1 <_sk_load_bgra_sse2+0x22> + .byte 117,134 // jne 286ac <_sk_load_bgra_sse2+0x22> .byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0 .byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9 .byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9 - .byte 233,110,255,255,255 // jmpq 27cf1 <_sk_load_bgra_sse2+0x22> + .byte 233,110,255,255,255 // jmpq 286ac <_sk_load_bgra_sse2+0x22> .byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9 - .byte 233,99,255,255,255 // jmpq 27cf1 <_sk_load_bgra_sse2+0x22> + .byte 233,99,255,255,255 // jmpq 286ac <_sk_load_bgra_sse2+0x22> HIDDEN _sk_load_bgra_dst_sse2 .globl _sk_load_bgra_dst_sse2 @@ -39008,13 +39533,13 @@ _sk_load_bgra_dst_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 117,98 // jne 27e0c <_sk_load_bgra_dst_sse2+0x7e> + .byte 117,98 // jne 287c7 <_sk_load_bgra_dst_sse2+0x7e> .byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9 - .byte 102,15,111,37,40,36,1,0 // movdqa 0x12428(%rip),%xmm4 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,111,37,141,36,1,0 // movdqa 0x1248d(%rip),%xmm4 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 102,65,15,111,233 // movdqa %xmm9,%xmm5 .byte 102,15,219,236 // pand %xmm4,%xmm5 .byte 15,91,245 // cvtdq2ps %xmm5,%xmm6 - .byte 68,15,40,5,116,37,1,0 // movaps 0x12574(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 68,15,40,5,217,37,1,0 // movaps 0x125d9(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 65,15,89,240 // mulps %xmm8,%xmm6 .byte 102,65,15,111,233 // movdqa %xmm9,%xmm5 .byte 102,15,114,213,8 // psrld $0x8,%xmm5 @@ -39034,18 +39559,18 @@ _sk_load_bgra_dst_sse2: .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,41 // je 27e42 <_sk_load_bgra_dst_sse2+0xb4> + .byte 116,41 // je 287fd <_sk_load_bgra_dst_sse2+0xb4> .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,19 // je 27e37 <_sk_load_bgra_dst_sse2+0xa9> + .byte 116,19 // je 287f2 <_sk_load_bgra_dst_sse2+0xa9> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,134 // jne 27db0 <_sk_load_bgra_dst_sse2+0x22> + .byte 117,134 // jne 2876b <_sk_load_bgra_dst_sse2+0x22> .byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4 .byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9 .byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9 - .byte 233,110,255,255,255 // jmpq 27db0 <_sk_load_bgra_dst_sse2+0x22> + .byte 233,110,255,255,255 // jmpq 2876b <_sk_load_bgra_dst_sse2+0x22> .byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9 - .byte 233,99,255,255,255 // jmpq 27db0 <_sk_load_bgra_dst_sse2+0x22> + .byte 233,99,255,255,255 // jmpq 2876b <_sk_load_bgra_dst_sse2+0x22> HIDDEN _sk_gather_bgra_sse2 .globl _sk_gather_bgra_sse2 @@ -39091,11 +39616,11 @@ _sk_gather_bgra_sse2: .byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1 .byte 102,15,98,200 // punpckldq %xmm0,%xmm1 .byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9 - .byte 102,15,111,5,219,34,1,0 // movdqa 0x122db(%rip),%xmm0 # 3a1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xc8c> + .byte 102,15,111,5,64,35,1,0 // movdqa 0x12340(%rip),%xmm0 # 3ac00 <_sk_srcover_bgra_8888_sse2_lowp+0xc98> .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1 .byte 102,15,219,200 // pand %xmm0,%xmm1 .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2 - .byte 68,15,40,5,39,36,1,0 // movaps 0x12427(%rip),%xmm8 # 3a340 <_sk_srcover_bgra_8888_sse2_lowp+0xdec> + .byte 68,15,40,5,140,36,1,0 // movaps 0x1248c(%rip),%xmm8 # 3ad60 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8> .byte 65,15,89,208 // mulps %xmm8,%xmm2 .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1 .byte 102,15,114,209,8 // psrld $0x8,%xmm1 @@ -39124,43 +39649,53 @@ _sk_store_bgra_sse2: .byte 73,193,224,2 // shl $0x2,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax - .byte 68,15,40,5,152,34,1,0 // movaps 0x12298(%rip),%xmm8 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> - .byte 68,15,40,202 // movaps %xmm2,%xmm9 - .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 69,15,87,192 // xorps %xmm8,%xmm8 + .byte 69,15,87,201 // xorps %xmm9,%xmm9 + .byte 68,15,95,202 // maxps %xmm2,%xmm9 + .byte 68,15,40,21,17,34,1,0 // movaps 0x12211(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,93,202 // minps %xmm10,%xmm9 + .byte 68,15,40,29,229,34,1,0 // movaps 0x122e5(%rip),%xmm11 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> + .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 - .byte 68,15,40,209 // movaps %xmm1,%xmm10 - .byte 69,15,89,208 // mulps %xmm8,%xmm10 - .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 - .byte 102,65,15,114,242,8 // pslld $0x8,%xmm10 - .byte 102,69,15,235,209 // por %xmm9,%xmm10 - .byte 68,15,40,200 // movaps %xmm0,%xmm9 - .byte 69,15,89,200 // mulps %xmm8,%xmm9 + .byte 69,15,87,228 // xorps %xmm12,%xmm12 + .byte 68,15,95,225 // maxps %xmm1,%xmm12 + .byte 69,15,93,226 // minps %xmm10,%xmm12 + .byte 69,15,89,227 // mulps %xmm11,%xmm12 + .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12 + .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12 + .byte 102,69,15,235,225 // por %xmm9,%xmm12 + .byte 102,69,15,87,201 // xorpd %xmm9,%xmm9 + .byte 68,15,95,200 // maxps %xmm0,%xmm9 + .byte 69,15,93,202 // minps %xmm10,%xmm9 + .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9 - .byte 68,15,89,195 // mulps %xmm3,%xmm8 + .byte 68,15,95,195 // maxps %xmm3,%xmm8 + .byte 69,15,93,194 // minps %xmm10,%xmm8 + .byte 69,15,89,195 // mulps %xmm11,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,65,15,114,240,24 // pslld $0x18,%xmm8 .byte 102,69,15,235,193 // por %xmm9,%xmm8 - .byte 102,69,15,235,194 // por %xmm10,%xmm8 + .byte 102,69,15,235,196 // por %xmm12,%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,10 // jne 27fd8 <_sk_store_bgra_sse2+0x7f> + .byte 117,10 // jne 289c0 <_sk_store_bgra_sse2+0xac> .byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 65,137,249 // mov %edi,%r9d .byte 65,128,225,3 // and $0x3,%r9b .byte 65,128,249,1 // cmp $0x1,%r9b - .byte 116,33 // je 28006 <_sk_store_bgra_sse2+0xad> + .byte 116,33 // je 289ee <_sk_store_bgra_sse2+0xda> .byte 65,128,249,2 // cmp $0x2,%r9b - .byte 116,19 // je 27ffe <_sk_store_bgra_sse2+0xa5> + .byte 116,19 // je 289e6 <_sk_store_bgra_sse2+0xd2> .byte 65,128,249,3 // cmp $0x3,%r9b - .byte 117,227 // jne 27fd4 <_sk_store_bgra_sse2+0x7b> + .byte 117,227 // jne 289bc <_sk_store_bgra_sse2+0xa8> .byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9 .byte 102,69,15,126,76,128,8 // movd %xmm9,0x8(%r8,%rax,4) .byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4) - .byte 235,206 // jmp 27fd4 <_sk_store_bgra_sse2+0x7b> + .byte 235,206 // jmp 289bc <_sk_store_bgra_sse2+0xa8> .byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4) - .byte 235,198 // jmp 27fd4 <_sk_store_bgra_sse2+0x7b> + .byte 235,198 // jmp 289bc <_sk_store_bgra_sse2+0xa8> HIDDEN _sk_load_f16_sse2 .globl _sk_load_f16_sse2 @@ -39174,7 +39709,7 @@ _sk_load_f16_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,47,1,0,0 // jne 2815d <_sk_load_f16_sse2+0x14f> + .byte 15,133,47,1,0,0 // jne 28b45 <_sk_load_f16_sse2+0x14f> .byte 102,65,15,16,4,192 // movupd (%r8,%rax,8),%xmm0 .byte 243,65,15,111,76,192,16 // movdqu 0x10(%r8,%rax,8),%xmm1 .byte 102,68,15,40,192 // movapd %xmm0,%xmm8 @@ -39186,18 +39721,18 @@ _sk_load_f16_sse2: .byte 102,69,15,239,210 // pxor %xmm10,%xmm10 .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1 - .byte 102,68,15,111,13,146,37,1,0 // movdqa 0x12592(%rip),%xmm9 # 3a600 <_sk_srcover_bgra_8888_sse2_lowp+0x10ac> + .byte 102,68,15,111,13,202,37,1,0 // movdqa 0x125ca(%rip),%xmm9 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8> .byte 102,68,15,111,225 // movdqa %xmm1,%xmm12 .byte 102,69,15,219,225 // pand %xmm9,%xmm12 - .byte 102,68,15,111,29,143,37,1,0 // movdqa 0x1258f(%rip),%xmm11 # 3a610 <_sk_srcover_bgra_8888_sse2_lowp+0x10bc> + .byte 102,68,15,111,29,199,37,1,0 // movdqa 0x125c7(%rip),%xmm11 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8> .byte 102,65,15,219,203 // pand %xmm11,%xmm1 - .byte 102,15,111,29,146,37,1,0 // movdqa 0x12592(%rip),%xmm3 # 3a620 <_sk_srcover_bgra_8888_sse2_lowp+0x10cc> + .byte 102,15,111,29,202,37,1,0 // movdqa 0x125ca(%rip),%xmm3 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8> .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 .byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0 .byte 102,15,114,241,13 // pslld $0xd,%xmm1 .byte 102,65,15,235,204 // por %xmm12,%xmm1 - .byte 102,68,15,111,37,129,37,1,0 // movdqa 0x12581(%rip),%xmm12 # 3a630 <_sk_srcover_bgra_8888_sse2_lowp+0x10dc> + .byte 102,68,15,111,37,185,37,1,0 // movdqa 0x125b9(%rip),%xmm12 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8> .byte 102,65,15,254,204 // paddd %xmm12,%xmm1 .byte 102,15,223,193 // pandn %xmm1,%xmm0 .byte 102,65,15,105,210 // punpckhwd %xmm10,%xmm2 @@ -39236,16 +39771,16 @@ _sk_load_f16_sse2: .byte 255,224 // jmpq *%rax .byte 242,65,15,16,4,192 // movsd (%r8,%rax,8),%xmm0 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,13 // jne 28176 <_sk_load_f16_sse2+0x168> + .byte 117,13 // jne 28b5e <_sk_load_f16_sse2+0x168> .byte 243,15,126,192 // movq %xmm0,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 - .byte 233,197,254,255,255 // jmpq 2803b <_sk_load_f16_sse2+0x2d> + .byte 233,197,254,255,255 // jmpq 28a23 <_sk_load_f16_sse2+0x2d> .byte 102,65,15,22,68,192,8 // movhpd 0x8(%r8,%rax,8),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 15,130,176,254,255,255 // jb 2803b <_sk_load_f16_sse2+0x2d> + .byte 15,130,176,254,255,255 // jb 28a23 <_sk_load_f16_sse2+0x2d> .byte 243,65,15,126,76,192,16 // movq 0x10(%r8,%rax,8),%xmm1 - .byte 233,164,254,255,255 // jmpq 2803b <_sk_load_f16_sse2+0x2d> + .byte 233,164,254,255,255 // jmpq 28a23 <_sk_load_f16_sse2+0x2d> HIDDEN _sk_load_f16_dst_sse2 .globl _sk_load_f16_dst_sse2 @@ -39259,7 +39794,7 @@ _sk_load_f16_dst_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,47,1,0,0 // jne 282e6 <_sk_load_f16_dst_sse2+0x14f> + .byte 15,133,47,1,0,0 // jne 28cce <_sk_load_f16_dst_sse2+0x14f> .byte 102,65,15,16,36,192 // movupd (%r8,%rax,8),%xmm4 .byte 243,65,15,111,108,192,16 // movdqu 0x10(%r8,%rax,8),%xmm5 .byte 102,68,15,40,196 // movapd %xmm4,%xmm8 @@ -39271,18 +39806,18 @@ _sk_load_f16_dst_sse2: .byte 102,69,15,239,210 // pxor %xmm10,%xmm10 .byte 102,15,111,238 // movdqa %xmm6,%xmm5 .byte 102,65,15,97,234 // punpcklwd %xmm10,%xmm5 - .byte 102,68,15,111,13,9,36,1,0 // movdqa 0x12409(%rip),%xmm9 # 3a600 <_sk_srcover_bgra_8888_sse2_lowp+0x10ac> + .byte 102,68,15,111,13,65,36,1,0 // movdqa 0x12441(%rip),%xmm9 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8> .byte 102,68,15,111,229 // movdqa %xmm5,%xmm12 .byte 102,69,15,219,225 // pand %xmm9,%xmm12 - .byte 102,68,15,111,29,6,36,1,0 // movdqa 0x12406(%rip),%xmm11 # 3a610 <_sk_srcover_bgra_8888_sse2_lowp+0x10bc> + .byte 102,68,15,111,29,62,36,1,0 // movdqa 0x1243e(%rip),%xmm11 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8> .byte 102,65,15,219,235 // pand %xmm11,%xmm5 - .byte 102,15,111,61,9,36,1,0 // movdqa 0x12409(%rip),%xmm7 # 3a620 <_sk_srcover_bgra_8888_sse2_lowp+0x10cc> + .byte 102,15,111,61,65,36,1,0 // movdqa 0x12441(%rip),%xmm7 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8> .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12 .byte 102,15,111,231 // movdqa %xmm7,%xmm4 .byte 102,15,102,229 // pcmpgtd %xmm5,%xmm4 .byte 102,15,114,245,13 // pslld $0xd,%xmm5 .byte 102,65,15,235,236 // por %xmm12,%xmm5 - .byte 102,68,15,111,37,248,35,1,0 // movdqa 0x123f8(%rip),%xmm12 # 3a630 <_sk_srcover_bgra_8888_sse2_lowp+0x10dc> + .byte 102,68,15,111,37,48,36,1,0 // movdqa 0x12430(%rip),%xmm12 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8> .byte 102,65,15,254,236 // paddd %xmm12,%xmm5 .byte 102,15,223,229 // pandn %xmm5,%xmm4 .byte 102,65,15,105,242 // punpckhwd %xmm10,%xmm6 @@ -39321,16 +39856,16 @@ _sk_load_f16_dst_sse2: .byte 255,224 // jmpq *%rax .byte 242,65,15,16,36,192 // movsd (%r8,%rax,8),%xmm4 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,13 // jne 282ff <_sk_load_f16_dst_sse2+0x168> + .byte 117,13 // jne 28ce7 <_sk_load_f16_dst_sse2+0x168> .byte 243,15,126,228 // movq %xmm4,%xmm4 .byte 102,15,239,237 // pxor %xmm5,%xmm5 - .byte 233,197,254,255,255 // jmpq 281c4 <_sk_load_f16_dst_sse2+0x2d> + .byte 233,197,254,255,255 // jmpq 28bac <_sk_load_f16_dst_sse2+0x2d> .byte 102,65,15,22,100,192,8 // movhpd 0x8(%r8,%rax,8),%xmm4 .byte 102,15,239,237 // pxor %xmm5,%xmm5 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 15,130,176,254,255,255 // jb 281c4 <_sk_load_f16_dst_sse2+0x2d> + .byte 15,130,176,254,255,255 // jb 28bac <_sk_load_f16_dst_sse2+0x2d> .byte 243,65,15,126,108,192,16 // movq 0x10(%r8,%rax,8),%xmm5 - .byte 233,164,254,255,255 // jmpq 281c4 <_sk_load_f16_dst_sse2+0x2d> + .byte 233,164,254,255,255 // jmpq 28bac <_sk_load_f16_dst_sse2+0x2d> HIDDEN _sk_gather_f16_sse2 .globl _sk_gather_f16_sse2 @@ -39384,18 +39919,18 @@ _sk_gather_f16_sse2: .byte 102,68,15,105,201 // punpckhwd %xmm1,%xmm9 .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1 - .byte 102,68,15,111,21,7,34,1,0 // movdqa 0x12207(%rip),%xmm10 # 3a600 <_sk_srcover_bgra_8888_sse2_lowp+0x10ac> + .byte 102,68,15,111,21,63,34,1,0 // movdqa 0x1223f(%rip),%xmm10 # 3b020 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8> .byte 102,68,15,111,225 // movdqa %xmm1,%xmm12 .byte 102,69,15,219,226 // pand %xmm10,%xmm12 - .byte 102,68,15,111,29,4,34,1,0 // movdqa 0x12204(%rip),%xmm11 # 3a610 <_sk_srcover_bgra_8888_sse2_lowp+0x10bc> + .byte 102,68,15,111,29,60,34,1,0 // movdqa 0x1223c(%rip),%xmm11 # 3b030 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8> .byte 102,65,15,219,203 // pand %xmm11,%xmm1 - .byte 102,15,111,29,7,34,1,0 // movdqa 0x12207(%rip),%xmm3 # 3a620 <_sk_srcover_bgra_8888_sse2_lowp+0x10cc> + .byte 102,15,111,29,63,34,1,0 // movdqa 0x1223f(%rip),%xmm3 # 3b040 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8> .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 .byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0 .byte 102,15,114,241,13 // pslld $0xd,%xmm1 .byte 102,65,15,235,204 // por %xmm12,%xmm1 - .byte 102,68,15,111,37,246,33,1,0 // movdqa 0x121f6(%rip),%xmm12 # 3a630 <_sk_srcover_bgra_8888_sse2_lowp+0x10dc> + .byte 102,68,15,111,37,46,34,1,0 // movdqa 0x1222e(%rip),%xmm12 # 3b050 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8> .byte 102,65,15,254,204 // paddd %xmm12,%xmm1 .byte 102,15,223,193 // pandn %xmm1,%xmm0 .byte 102,65,15,105,208 // punpckhwd %xmm8,%xmm2 @@ -39438,19 +39973,19 @@ HIDDEN _sk_store_f16_sse2 FUNCTION(_sk_store_f16_sse2) _sk_store_f16_sse2: .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp) - .byte 102,68,15,111,29,74,33,1,0 // movdqa 0x1214a(%rip),%xmm11 # 3a640 <_sk_srcover_bgra_8888_sse2_lowp+0x10ec> + .byte 102,68,15,111,29,130,33,1,0 // movdqa 0x12182(%rip),%xmm11 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8> .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8 .byte 102,69,15,219,195 // pand %xmm11,%xmm8 - .byte 102,68,15,111,21,71,33,1,0 // movdqa 0x12147(%rip),%xmm10 # 3a650 <_sk_srcover_bgra_8888_sse2_lowp+0x10fc> + .byte 102,68,15,111,21,127,33,1,0 // movdqa 0x1217f(%rip),%xmm10 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108> .byte 102,68,15,111,240 // movdqa %xmm0,%xmm14 .byte 102,69,15,219,242 // pand %xmm10,%xmm14 - .byte 102,15,111,61,69,33,1,0 // movdqa 0x12145(%rip),%xmm7 # 3a660 <_sk_srcover_bgra_8888_sse2_lowp+0x110c> - .byte 102,68,15,111,37,236,34,1,0 // movdqa 0x122ec(%rip),%xmm12 # 3a810 <_sk_srcover_bgra_8888_sse2_lowp+0x12bc> + .byte 102,15,111,61,125,33,1,0 // movdqa 0x1217d(%rip),%xmm7 # 3b080 <_sk_srcover_bgra_8888_sse2_lowp+0x1118> + .byte 102,68,15,111,37,36,35,1,0 // movdqa 0x12324(%rip),%xmm12 # 3b230 <_sk_srcover_bgra_8888_sse2_lowp+0x12c8> .byte 102,68,15,111,248 // movdqa %xmm0,%xmm15 .byte 102,65,15,114,247,3 // pslld $0x3,%xmm15 .byte 102,69,15,219,252 // pand %xmm12,%xmm15 .byte 102,69,15,254,248 // paddd %xmm8,%xmm15 - .byte 102,68,15,111,45,158,29,1,0 // movdqa 0x11d9e(%rip),%xmm13 # 3a2e0 <_sk_srcover_bgra_8888_sse2_lowp+0xd8c> + .byte 102,68,15,111,45,214,29,1,0 // movdqa 0x11dd6(%rip),%xmm13 # 3ad00 <_sk_srcover_bgra_8888_sse2_lowp+0xd98> .byte 102,69,15,254,253 // paddd %xmm13,%xmm15 .byte 102,65,15,114,231,16 // psrad $0x10,%xmm15 .byte 102,68,15,111,199 // movdqa %xmm7,%xmm8 @@ -39506,7 +40041,7 @@ _sk_store_f16_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 72,99,194 // movslq %edx,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 117,37 // jne 28674 <_sk_store_f16_sse2+0x18c> + .byte 117,37 // jne 2905c <_sk_store_f16_sse2+0x18c> .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7 .byte 102,65,15,98,254 // punpckldq %xmm14,%xmm7 .byte 243,65,15,127,60,192 // movdqu %xmm7,(%r8,%rax,8) @@ -39519,13 +40054,13 @@ _sk_store_f16_sse2: .byte 102,69,15,98,206 // punpckldq %xmm14,%xmm9 .byte 102,69,15,214,12,192 // movq %xmm9,(%r8,%rax,8) .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,225 // je 2866b <_sk_store_f16_sse2+0x183> + .byte 116,225 // je 29053 <_sk_store_f16_sse2+0x183> .byte 102,69,15,23,76,192,8 // movhpd %xmm9,0x8(%r8,%rax,8) .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,212 // jb 2866b <_sk_store_f16_sse2+0x183> + .byte 114,212 // jb 29053 <_sk_store_f16_sse2+0x183> .byte 102,69,15,106,198 // punpckhdq %xmm14,%xmm8 .byte 102,69,15,214,68,192,16 // movq %xmm8,0x10(%r8,%rax,8) - .byte 235,198 // jmp 2866b <_sk_store_f16_sse2+0x183> + .byte 235,198 // jmp 29053 <_sk_store_f16_sse2+0x183> HIDDEN _sk_load_u16_be_sse2 .globl _sk_load_u16_be_sse2 @@ -39540,7 +40075,7 @@ _sk_load_u16_be_sse2: .byte 76,3,0 // add (%rax),%r8 .byte 73,99,193 // movslq %r9d,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,190,0,0,0 // jne 2878a <_sk_load_u16_be_sse2+0xe5> + .byte 15,133,190,0,0,0 // jne 29172 <_sk_load_u16_be_sse2+0xe5> .byte 102,65,15,16,4,64 // movupd (%r8,%rax,2),%xmm0 .byte 243,65,15,111,76,64,16 // movdqu 0x10(%r8,%rax,2),%xmm1 .byte 102,15,40,208 // movapd %xmm0,%xmm2 @@ -39557,7 +40092,7 @@ _sk_load_u16_be_sse2: .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1 .byte 15,91,193 // cvtdq2ps %xmm1,%xmm0 - .byte 68,15,40,5,179,28,1,0 // movaps 0x11cb3(%rip),%xmm8 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe7c> + .byte 68,15,40,5,235,28,1,0 // movaps 0x11ceb(%rip),%xmm8 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,113,241,8 // psllw $0x8,%xmm1 @@ -39585,16 +40120,16 @@ _sk_load_u16_be_sse2: .byte 255,224 // jmpq *%rax .byte 242,65,15,16,4,64 // movsd (%r8,%rax,2),%xmm0 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,13 // jne 287a3 <_sk_load_u16_be_sse2+0xfe> + .byte 117,13 // jne 2918b <_sk_load_u16_be_sse2+0xfe> .byte 243,15,126,192 // movq %xmm0,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 - .byte 233,54,255,255,255 // jmpq 286d9 <_sk_load_u16_be_sse2+0x34> + .byte 233,54,255,255,255 // jmpq 290c1 <_sk_load_u16_be_sse2+0x34> .byte 102,65,15,22,68,64,8 // movhpd 0x8(%r8,%rax,2),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 15,130,33,255,255,255 // jb 286d9 <_sk_load_u16_be_sse2+0x34> + .byte 15,130,33,255,255,255 // jb 290c1 <_sk_load_u16_be_sse2+0x34> .byte 243,65,15,126,76,64,16 // movq 0x10(%r8,%rax,2),%xmm1 - .byte 233,21,255,255,255 // jmpq 286d9 <_sk_load_u16_be_sse2+0x34> + .byte 233,21,255,255,255 // jmpq 290c1 <_sk_load_u16_be_sse2+0x34> HIDDEN _sk_load_rgb_u16_be_sse2 .globl _sk_load_rgb_u16_be_sse2 @@ -39611,7 +40146,7 @@ _sk_load_rgb_u16_be_sse2: .byte 72,141,4,64 // lea (%rax,%rax,2),%rax .byte 72,193,248,32 // sar $0x20,%rax .byte 72,133,255 // test %rdi,%rdi - .byte 15,133,175,0,0,0 // jne 2889e <_sk_load_rgb_u16_be_sse2+0xda> + .byte 15,133,175,0,0,0 // jne 29286 <_sk_load_rgb_u16_be_sse2+0xda> .byte 243,65,15,111,20,64 // movdqu (%r8,%rax,2),%xmm2 .byte 243,65,15,111,92,64,8 // movdqu 0x8(%r8,%rax,2),%xmm3 .byte 102,15,115,219,4 // psrldq $0x4,%xmm3 @@ -39632,7 +40167,7 @@ _sk_load_rgb_u16_be_sse2: .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1 .byte 15,91,193 // cvtdq2ps %xmm1,%xmm0 - .byte 68,15,40,13,125,27,1,0 // movaps 0x11b7d(%rip),%xmm9 # 3a3d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe7c> + .byte 68,15,40,13,181,27,1,0 // movaps 0x11bb5(%rip),%xmm9 # 3adf0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88> .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,113,241,8 // psllw $0x8,%xmm1 @@ -39649,27 +40184,27 @@ _sk_load_rgb_u16_be_sse2: .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 65,15,89,209 // mulps %xmm9,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,148,24,1,0 // movaps 0x11894(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,29,204,24,1,0 // movaps 0x118cc(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 255,224 // jmpq *%rax .byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,65,15,196,84,64,4,2 // pinsrw $0x2,0x4(%r8,%rax,2),%xmm2 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,13 // jne 288c3 <_sk_load_rgb_u16_be_sse2+0xff> + .byte 117,13 // jne 292ab <_sk_load_rgb_u16_be_sse2+0xff> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,239,192 // pxor %xmm0,%xmm0 - .byte 233,80,255,255,255 // jmpq 28813 <_sk_load_rgb_u16_be_sse2+0x4f> + .byte 233,80,255,255,255 // jmpq 291fb <_sk_load_rgb_u16_be_sse2+0x4f> .byte 102,65,15,110,68,64,6 // movd 0x6(%r8,%rax,2),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,65,15,196,68,64,10,2 // pinsrw $0x2,0xa(%r8,%rax,2),%xmm0 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,24 // jb 288f4 <_sk_load_rgb_u16_be_sse2+0x130> + .byte 114,24 // jb 292dc <_sk_load_rgb_u16_be_sse2+0x130> .byte 102,65,15,110,92,64,12 // movd 0xc(%r8,%rax,2),%xmm3 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,65,15,196,92,64,16,2 // pinsrw $0x2,0x10(%r8,%rax,2),%xmm3 - .byte 233,31,255,255,255 // jmpq 28813 <_sk_load_rgb_u16_be_sse2+0x4f> + .byte 233,31,255,255,255 // jmpq 291fb <_sk_load_rgb_u16_be_sse2+0x4f> .byte 102,15,239,219 // pxor %xmm3,%xmm3 - .byte 233,22,255,255,255 // jmpq 28813 <_sk_load_rgb_u16_be_sse2+0x4f> + .byte 233,22,255,255,255 // jmpq 291fb <_sk_load_rgb_u16_be_sse2+0x4f> HIDDEN _sk_store_u16_be_sse2 .globl _sk_store_u16_be_sse2 @@ -39683,66 +40218,76 @@ _sk_store_u16_be_sse2: .byte 77,1,192 // add %r8,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 73,99,193 // movslq %r9d,%rax - .byte 68,15,40,21,93,29,1,0 // movaps 0x11d5d(%rip),%xmm10 # 3a680 <_sk_srcover_bgra_8888_sse2_lowp+0x112c> - .byte 68,15,40,192 // movaps %xmm0,%xmm8 - .byte 69,15,89,194 // mulps %xmm10,%xmm8 + .byte 69,15,87,201 // xorps %xmm9,%xmm9 + .byte 69,15,87,192 // xorps %xmm8,%xmm8 + .byte 68,15,95,192 // maxps %xmm0,%xmm8 + .byte 68,15,40,21,57,24,1,0 // movaps 0x11839(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> + .byte 69,15,93,194 // minps %xmm10,%xmm8 + .byte 68,15,40,29,125,29,1,0 // movaps 0x11d7d(%rip),%xmm11 # 3b0a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1138> + .byte 69,15,89,195 // mulps %xmm11,%xmm8 .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8 .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8 .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8 .byte 102,68,15,107,192 // packssdw %xmm0,%xmm8 - .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 - .byte 102,65,15,113,241,8 // psllw $0x8,%xmm9 + .byte 102,69,15,111,224 // movdqa %xmm8,%xmm12 + .byte 102,65,15,113,244,8 // psllw $0x8,%xmm12 .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8 - .byte 102,69,15,235,193 // por %xmm9,%xmm8 - .byte 68,15,40,201 // movaps %xmm1,%xmm9 - .byte 69,15,89,202 // mulps %xmm10,%xmm9 - .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 - .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9 - .byte 102,65,15,114,225,16 // psrad $0x10,%xmm9 - .byte 102,68,15,107,200 // packssdw %xmm0,%xmm9 - .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11 - .byte 102,65,15,113,243,8 // psllw $0x8,%xmm11 - .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9 - .byte 102,69,15,235,203 // por %xmm11,%xmm9 - .byte 102,69,15,97,193 // punpcklwd %xmm9,%xmm8 - .byte 68,15,40,202 // movaps %xmm2,%xmm9 - .byte 69,15,89,202 // mulps %xmm10,%xmm9 + .byte 102,69,15,235,196 // por %xmm12,%xmm8 + .byte 102,69,15,239,228 // pxor %xmm12,%xmm12 + .byte 68,15,95,225 // maxps %xmm1,%xmm12 + .byte 69,15,93,226 // minps %xmm10,%xmm12 + .byte 69,15,89,227 // mulps %xmm11,%xmm12 + .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12 + .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12 + .byte 102,65,15,114,228,16 // psrad $0x10,%xmm12 + .byte 102,68,15,107,224 // packssdw %xmm0,%xmm12 + .byte 102,69,15,111,236 // movdqa %xmm12,%xmm13 + .byte 102,65,15,113,245,8 // psllw $0x8,%xmm13 + .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12 + .byte 102,69,15,235,229 // por %xmm13,%xmm12 + .byte 102,69,15,97,196 // punpcklwd %xmm12,%xmm8 + .byte 102,69,15,239,228 // pxor %xmm12,%xmm12 + .byte 68,15,95,226 // maxps %xmm2,%xmm12 + .byte 69,15,93,226 // minps %xmm10,%xmm12 + .byte 69,15,89,227 // mulps %xmm11,%xmm12 + .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12 + .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12 + .byte 102,65,15,114,228,16 // psrad $0x10,%xmm12 + .byte 102,68,15,107,224 // packssdw %xmm0,%xmm12 + .byte 102,69,15,111,236 // movdqa %xmm12,%xmm13 + .byte 102,65,15,113,245,8 // psllw $0x8,%xmm13 + .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12 + .byte 102,69,15,235,229 // por %xmm13,%xmm12 + .byte 68,15,95,203 // maxps %xmm3,%xmm9 + .byte 69,15,93,202 // minps %xmm10,%xmm9 + .byte 69,15,89,203 // mulps %xmm11,%xmm9 .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9 .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9 .byte 102,65,15,114,225,16 // psrad $0x10,%xmm9 .byte 102,68,15,107,200 // packssdw %xmm0,%xmm9 - .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11 - .byte 102,65,15,113,243,8 // psllw $0x8,%xmm11 + .byte 102,69,15,111,209 // movdqa %xmm9,%xmm10 + .byte 102,65,15,113,242,8 // psllw $0x8,%xmm10 .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9 - .byte 102,69,15,235,203 // por %xmm11,%xmm9 - .byte 68,15,89,211 // mulps %xmm3,%xmm10 - .byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10 - .byte 102,65,15,114,242,16 // pslld $0x10,%xmm10 - .byte 102,65,15,114,226,16 // psrad $0x10,%xmm10 - .byte 102,68,15,107,208 // packssdw %xmm0,%xmm10 - .byte 102,69,15,111,218 // movdqa %xmm10,%xmm11 - .byte 102,65,15,113,243,8 // psllw $0x8,%xmm11 - .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10 - .byte 102,69,15,235,211 // por %xmm11,%xmm10 - .byte 102,69,15,97,202 // punpcklwd %xmm10,%xmm9 - .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10 - .byte 102,69,15,98,209 // punpckldq %xmm9,%xmm10 + .byte 102,69,15,235,202 // por %xmm10,%xmm9 + .byte 102,69,15,97,225 // punpcklwd %xmm9,%xmm12 + .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 + .byte 102,69,15,98,204 // punpckldq %xmm12,%xmm9 .byte 72,133,255 // test %rdi,%rdi - .byte 117,21 // jne 28a1d <_sk_store_u16_be_sse2+0x120> - .byte 69,15,17,20,64 // movups %xmm10,(%r8,%rax,2) - .byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8 + .byte 117,21 // jne 29433 <_sk_store_u16_be_sse2+0x14e> + .byte 69,15,17,12,64 // movups %xmm9,(%r8,%rax,2) + .byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8 .byte 243,69,15,127,68,64,16 // movdqu %xmm8,0x10(%r8,%rax,2) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax - .byte 102,69,15,214,20,64 // movq %xmm10,(%r8,%rax,2) + .byte 102,69,15,214,12,64 // movq %xmm9,(%r8,%rax,2) .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,240 // je 28a19 <_sk_store_u16_be_sse2+0x11c> - .byte 102,69,15,23,84,64,8 // movhpd %xmm10,0x8(%r8,%rax,2) + .byte 116,240 // je 2942f <_sk_store_u16_be_sse2+0x14a> + .byte 102,69,15,23,76,64,8 // movhpd %xmm9,0x8(%r8,%rax,2) .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,227 // jb 28a19 <_sk_store_u16_be_sse2+0x11c> - .byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8 + .byte 114,227 // jb 2942f <_sk_store_u16_be_sse2+0x14a> + .byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8 .byte 102,69,15,214,68,64,16 // movq %xmm8,0x10(%r8,%rax,2) - .byte 235,213 // jmp 28a19 <_sk_store_u16_be_sse2+0x11c> + .byte 235,213 // jmp 2942f <_sk_store_u16_be_sse2+0x14a> HIDDEN _sk_load_f32_sse2 .globl _sk_load_f32_sse2 @@ -39758,7 +40303,7 @@ _sk_load_f32_sse2: .byte 73,99,193 // movslq %r9d,%rax .byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,66 // jne 28aaf <_sk_load_f32_sse2+0x6b> + .byte 117,66 // jne 294c5 <_sk_load_f32_sse2+0x6b> .byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0 .byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3 .byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9 @@ -39778,17 +40323,17 @@ _sk_load_f32_sse2: .byte 255,224 // jmpq *%rax .byte 69,15,87,201 // xorps %xmm9,%xmm9 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,8 // jne 28ac1 <_sk_load_f32_sse2+0x7d> + .byte 117,8 // jne 294d7 <_sk_load_f32_sse2+0x7d> .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 15,87,192 // xorps %xmm0,%xmm0 - .byte 235,190 // jmp 28a7f <_sk_load_f32_sse2+0x3b> + .byte 235,190 // jmp 29495 <_sk_load_f32_sse2+0x3b> .byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,8 // jb 28ad5 <_sk_load_f32_sse2+0x91> + .byte 114,8 // jb 294eb <_sk_load_f32_sse2+0x91> .byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3 - .byte 235,170 // jmp 28a7f <_sk_load_f32_sse2+0x3b> + .byte 235,170 // jmp 29495 <_sk_load_f32_sse2+0x3b> .byte 15,87,219 // xorps %xmm3,%xmm3 - .byte 235,165 // jmp 28a7f <_sk_load_f32_sse2+0x3b> + .byte 235,165 // jmp 29495 <_sk_load_f32_sse2+0x3b> HIDDEN _sk_load_f32_dst_sse2 .globl _sk_load_f32_dst_sse2 @@ -39804,7 +40349,7 @@ _sk_load_f32_dst_sse2: .byte 73,99,193 // movslq %r9d,%rax .byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8 .byte 72,133,255 // test %rdi,%rdi - .byte 117,66 // jne 28b45 <_sk_load_f32_dst_sse2+0x6b> + .byte 117,66 // jne 2955b <_sk_load_f32_dst_sse2+0x6b> .byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4 .byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7 .byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9 @@ -39824,17 +40369,17 @@ _sk_load_f32_dst_sse2: .byte 255,224 // jmpq *%rax .byte 69,15,87,201 // xorps %xmm9,%xmm9 .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 117,8 // jne 28b57 <_sk_load_f32_dst_sse2+0x7d> + .byte 117,8 // jne 2956d <_sk_load_f32_dst_sse2+0x7d> .byte 15,87,255 // xorps %xmm7,%xmm7 .byte 15,87,228 // xorps %xmm4,%xmm4 - .byte 235,190 // jmp 28b15 <_sk_load_f32_dst_sse2+0x3b> + .byte 235,190 // jmp 2952b <_sk_load_f32_dst_sse2+0x3b> .byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4 .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,8 // jb 28b6b <_sk_load_f32_dst_sse2+0x91> + .byte 114,8 // jb 29581 <_sk_load_f32_dst_sse2+0x91> .byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7 - .byte 235,170 // jmp 28b15 <_sk_load_f32_dst_sse2+0x3b> + .byte 235,170 // jmp 2952b <_sk_load_f32_dst_sse2+0x3b> .byte 15,87,255 // xorps %xmm7,%xmm7 - .byte 235,165 // jmp 28b15 <_sk_load_f32_dst_sse2+0x3b> + .byte 235,165 // jmp 2952b <_sk_load_f32_dst_sse2+0x3b> HIDDEN _sk_store_f32_sse2 .globl _sk_store_f32_sse2 @@ -39863,7 +40408,7 @@ _sk_store_f32_sse2: .byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9 .byte 102,69,15,17,36,128 // movupd %xmm12,(%r8,%rax,4) .byte 72,133,255 // test %rdi,%rdi - .byte 117,29 // jne 28bed <_sk_store_f32_sse2+0x7d> + .byte 117,29 // jne 29603 <_sk_store_f32_sse2+0x7d> .byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10 .byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4) .byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4) @@ -39871,12 +40416,12 @@ _sk_store_f32_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 72,131,255,1 // cmp $0x1,%rdi - .byte 116,246 // je 28be9 <_sk_store_f32_sse2+0x79> + .byte 116,246 // je 295ff <_sk_store_f32_sse2+0x79> .byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4) .byte 72,131,255,3 // cmp $0x3,%rdi - .byte 114,234 // jb 28be9 <_sk_store_f32_sse2+0x79> + .byte 114,234 // jb 295ff <_sk_store_f32_sse2+0x79> .byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4) - .byte 235,225 // jmp 28be9 <_sk_store_f32_sse2+0x79> + .byte 235,225 // jmp 295ff <_sk_store_f32_sse2+0x79> HIDDEN _sk_repeat_x_sse2 .globl _sk_repeat_x_sse2 @@ -39890,7 +40435,7 @@ _sk_repeat_x_sse2: .byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10 .byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10 .byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9 - .byte 68,15,84,13,252,20,1,0 // andps 0x114fc(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,84,13,6,21,1,0 // andps 0x11506(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,92,209 // subps %xmm9,%xmm10 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 69,15,89,194 // mulps %xmm10,%xmm8 @@ -39910,7 +40455,7 @@ _sk_repeat_y_sse2: .byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10 .byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10 .byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9 - .byte 68,15,84,13,187,20,1,0 // andps 0x114bb(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,84,13,197,20,1,0 // andps 0x114c5(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,92,209 // subps %xmm9,%xmm10 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 69,15,89,194 // mulps %xmm10,%xmm8 @@ -39930,13 +40475,13 @@ _sk_mirror_x_sse2: .byte 65,15,92,194 // subps %xmm10,%xmm0 .byte 243,69,15,88,192 // addss %xmm8,%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 - .byte 243,68,15,89,13,73,11,1,0 // mulss 0x10b49(%rip),%xmm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 243,68,15,89,13,71,11,1,0 // mulss 0x10b47(%rip),%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 68,15,89,200 // mulps %xmm0,%xmm9 .byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11 .byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11 .byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9 - .byte 68,15,84,13,90,20,1,0 // andps 0x1145a(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,84,13,100,20,1,0 // andps 0x11464(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,87,228 // xorps %xmm12,%xmm12 .byte 69,15,92,217 // subps %xmm9,%xmm11 .byte 69,15,89,216 // mulps %xmm8,%xmm11 @@ -39959,13 +40504,13 @@ _sk_mirror_y_sse2: .byte 65,15,92,202 // subps %xmm10,%xmm1 .byte 243,69,15,88,192 // addss %xmm8,%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 - .byte 243,68,15,89,13,221,10,1,0 // mulss 0x10add(%rip),%xmm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 243,68,15,89,13,219,10,1,0 // mulss 0x10adb(%rip),%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 68,15,89,201 // mulps %xmm1,%xmm9 .byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11 .byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11 .byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9 - .byte 68,15,84,13,238,19,1,0 // andps 0x113ee(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,84,13,248,19,1,0 // andps 0x113f8(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,87,228 // xorps %xmm12,%xmm12 .byte 69,15,92,217 // subps %xmm9,%xmm11 .byte 69,15,89,216 // mulps %xmm8,%xmm11 @@ -39982,7 +40527,7 @@ FUNCTION(_sk_clamp_x_1_sse2) _sk_clamp_x_1_sse2: .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 68,15,95,192 // maxps %xmm0,%xmm8 - .byte 68,15,93,5,190,19,1,0 // minps 0x113be(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,93,5,200,19,1,0 // minps 0x113c8(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 65,15,40,192 // movaps %xmm8,%xmm0 .byte 255,224 // jmpq *%rax @@ -39995,7 +40540,7 @@ _sk_repeat_x_1_sse2: .byte 69,15,91,200 // cvtdq2ps %xmm8,%xmm9 .byte 68,15,40,208 // movaps %xmm0,%xmm10 .byte 69,15,194,209,1 // cmpltps %xmm9,%xmm10 - .byte 68,15,40,29,156,19,1,0 // movaps 0x1139c(%rip),%xmm11 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,29,166,19,1,0 // movaps 0x113a6(%rip),%xmm11 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,84,211 // andps %xmm11,%xmm10 .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 69,15,92,202 // subps %xmm10,%xmm9 @@ -40010,14 +40555,14 @@ HIDDEN _sk_mirror_x_1_sse2 .globl _sk_mirror_x_1_sse2 FUNCTION(_sk_mirror_x_1_sse2) _sk_mirror_x_1_sse2: - .byte 68,15,40,13,212,19,1,0 // movaps 0x113d4(%rip),%xmm9 # 3a190 <_sk_srcover_bgra_8888_sse2_lowp+0xc3c> + .byte 68,15,40,13,222,19,1,0 // movaps 0x113de(%rip),%xmm9 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48> .byte 65,15,88,193 // addps %xmm9,%xmm0 - .byte 68,15,40,21,88,19,1,0 // movaps 0x11358(%rip),%xmm10 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,40,21,98,19,1,0 // movaps 0x11362(%rip),%xmm10 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 68,15,89,208 // mulps %xmm0,%xmm10 .byte 243,69,15,91,194 // cvttps2dq %xmm10,%xmm8 .byte 69,15,91,216 // cvtdq2ps %xmm8,%xmm11 .byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10 - .byte 68,15,40,37,78,19,1,0 // movaps 0x1134e(%rip),%xmm12 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,37,88,19,1,0 // movaps 0x11358(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,84,212 // andps %xmm12,%xmm10 .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 69,15,92,218 // subps %xmm10,%xmm11 @@ -40038,10 +40583,10 @@ HIDDEN _sk_luminance_to_alpha_sse2 FUNCTION(_sk_luminance_to_alpha_sse2) _sk_luminance_to_alpha_sse2: .byte 15,40,218 // movaps %xmm2,%xmm3 - .byte 15,89,5,112,24,1,0 // mulps 0x11870(%rip),%xmm0 # 3a690 <_sk_srcover_bgra_8888_sse2_lowp+0x113c> - .byte 15,89,13,121,24,1,0 // mulps 0x11879(%rip),%xmm1 # 3a6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x114c> + .byte 15,89,5,122,24,1,0 // mulps 0x1187a(%rip),%xmm0 # 3b0b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1148> + .byte 15,89,13,131,24,1,0 // mulps 0x11883(%rip),%xmm1 # 3b0c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1158> .byte 15,88,200 // addps %xmm0,%xmm1 - .byte 15,89,29,127,24,1,0 // mulps 0x1187f(%rip),%xmm3 # 3a6b0 <_sk_srcover_bgra_8888_sse2_lowp+0x115c> + .byte 15,89,29,137,24,1,0 // mulps 0x11889(%rip),%xmm3 # 3b0d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1168> .byte 15,88,217 // addps %xmm1,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,192 // xorps %xmm0,%xmm0 @@ -40353,9 +40898,9 @@ _sk_evenly_spaced_gradient_sse2: .byte 72,139,24 // mov (%rax),%rbx .byte 76,139,112,8 // mov 0x8(%rax),%r14 .byte 72,255,203 // dec %rbx - .byte 120,7 // js 292d1 <_sk_evenly_spaced_gradient_sse2+0x18> + .byte 120,7 // js 29ce7 <_sk_evenly_spaced_gradient_sse2+0x18> .byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1 - .byte 235,21 // jmp 292e6 <_sk_evenly_spaced_gradient_sse2+0x2d> + .byte 235,21 // jmp 29cfc <_sk_evenly_spaced_gradient_sse2+0x2d> .byte 73,137,216 // mov %rbx,%r8 .byte 73,209,232 // shr %r8 .byte 131,227,1 // and $0x1,%ebx @@ -40457,7 +41002,7 @@ _sk_gradient_sse2: .byte 76,139,0 // mov (%rax),%r8 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 73,131,248,2 // cmp $0x2,%r8 - .byte 114,41 // jb 294aa <_sk_gradient_sse2+0x38> + .byte 114,41 // jb 29ec0 <_sk_gradient_sse2+0x38> .byte 76,139,72,72 // mov 0x48(%rax),%r9 .byte 73,255,200 // dec %r8 .byte 73,131,193,4 // add $0x4,%r9 @@ -40468,7 +41013,7 @@ _sk_gradient_sse2: .byte 102,15,250,202 // psubd %xmm2,%xmm1 .byte 73,131,193,4 // add $0x4,%r9 .byte 73,255,200 // dec %r8 - .byte 117,230 // jne 29490 <_sk_gradient_sse2+0x1e> + .byte 117,230 // jne 29ea6 <_sk_gradient_sse2+0x1e> .byte 65,86 // push %r14 .byte 83 // push %rbx .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 @@ -40608,29 +41153,29 @@ _sk_xy_to_unit_angle_sse2: .byte 69,15,94,220 // divps %xmm12,%xmm11 .byte 69,15,40,227 // movaps %xmm11,%xmm12 .byte 69,15,89,228 // mulps %xmm12,%xmm12 - .byte 68,15,40,45,219,15,1,0 // movaps 0x10fdb(%rip),%xmm13 # 3a6c0 <_sk_srcover_bgra_8888_sse2_lowp+0x116c> + .byte 68,15,40,45,229,15,1,0 // movaps 0x10fe5(%rip),%xmm13 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1178> .byte 69,15,89,236 // mulps %xmm12,%xmm13 - .byte 68,15,88,45,223,15,1,0 // addps 0x10fdf(%rip),%xmm13 # 3a6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x117c> + .byte 68,15,88,45,233,15,1,0 // addps 0x10fe9(%rip),%xmm13 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188> .byte 69,15,89,236 // mulps %xmm12,%xmm13 - .byte 68,15,88,45,227,15,1,0 // addps 0x10fe3(%rip),%xmm13 # 3a6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x118c> + .byte 68,15,88,45,237,15,1,0 // addps 0x10fed(%rip),%xmm13 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1198> .byte 69,15,89,236 // mulps %xmm12,%xmm13 - .byte 68,15,88,45,231,15,1,0 // addps 0x10fe7(%rip),%xmm13 # 3a6f0 <_sk_srcover_bgra_8888_sse2_lowp+0x119c> + .byte 68,15,88,45,241,15,1,0 // addps 0x10ff1(%rip),%xmm13 # 3b110 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8> .byte 69,15,89,235 // mulps %xmm11,%xmm13 .byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9 - .byte 68,15,40,21,230,15,1,0 // movaps 0x10fe6(%rip),%xmm10 # 3a700 <_sk_srcover_bgra_8888_sse2_lowp+0x11ac> + .byte 68,15,40,21,240,15,1,0 // movaps 0x10ff0(%rip),%xmm10 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8> .byte 69,15,92,213 // subps %xmm13,%xmm10 .byte 69,15,84,209 // andps %xmm9,%xmm10 .byte 69,15,85,205 // andnps %xmm13,%xmm9 .byte 69,15,86,202 // orps %xmm10,%xmm9 .byte 68,15,194,192,1 // cmpltps %xmm0,%xmm8 - .byte 68,15,40,21,233,9,1,0 // movaps 0x109e9(%rip),%xmm10 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,40,21,243,9,1,0 // movaps 0x109f3(%rip),%xmm10 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 69,15,92,209 // subps %xmm9,%xmm10 .byte 69,15,84,208 // andps %xmm8,%xmm10 .byte 69,15,85,193 // andnps %xmm9,%xmm8 .byte 69,15,86,194 // orps %xmm10,%xmm8 .byte 68,15,40,201 // movaps %xmm1,%xmm9 .byte 68,15,194,200,1 // cmpltps %xmm0,%xmm9 - .byte 68,15,40,21,216,9,1,0 // movaps 0x109d8(%rip),%xmm10 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,21,226,9,1,0 // movaps 0x109e2(%rip),%xmm10 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,92,208 // subps %xmm8,%xmm10 .byte 69,15,84,209 // andps %xmm9,%xmm10 .byte 69,15,85,200 // andnps %xmm8,%xmm9 @@ -40666,7 +41211,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2: .byte 243,69,15,89,203 // mulss %xmm11,%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 69,15,88,200 // addps %xmm8,%xmm9 - .byte 68,15,89,13,76,15,1,0 // mulps 0x10f4c(%rip),%xmm9 # 3a710 <_sk_srcover_bgra_8888_sse2_lowp+0x11bc> + .byte 68,15,89,13,86,15,1,0 // mulps 0x10f56(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8> .byte 69,15,89,192 // mulps %xmm8,%xmm8 .byte 68,15,40,225 // movaps %xmm1,%xmm12 .byte 69,15,89,228 // mulps %xmm12,%xmm12 @@ -40674,7 +41219,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2: .byte 243,69,15,89,219 // mulss %xmm11,%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 69,15,92,227 // subps %xmm11,%xmm12 - .byte 68,15,89,21,54,15,1,0 // mulps 0x10f36(%rip),%xmm10 # 3a720 <_sk_srcover_bgra_8888_sse2_lowp+0x11cc> + .byte 68,15,89,21,64,15,1,0 // mulps 0x10f40(%rip),%xmm10 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8> .byte 69,15,89,212 // mulps %xmm12,%xmm10 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 69,15,89,192 // mulps %xmm8,%xmm8 @@ -40682,7 +41227,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2: .byte 69,15,81,192 // sqrtps %xmm8,%xmm8 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 .byte 69,15,92,193 // subps %xmm9,%xmm8 - .byte 15,89,5,19,9,1,0 // mulps 0x10913(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,89,5,29,9,1,0 // mulps 0x1091d(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 65,15,89,192 // mulps %xmm8,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -40701,7 +41246,7 @@ _sk_xy_to_2pt_conical_quadratic_second_sse2: .byte 243,69,15,89,203 // mulss %xmm11,%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 69,15,88,200 // addps %xmm8,%xmm9 - .byte 68,15,89,13,195,14,1,0 // mulps 0x10ec3(%rip),%xmm9 # 3a710 <_sk_srcover_bgra_8888_sse2_lowp+0x11bc> + .byte 68,15,89,13,205,14,1,0 // mulps 0x10ecd(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8> .byte 69,15,89,192 // mulps %xmm8,%xmm8 .byte 68,15,40,225 // movaps %xmm1,%xmm12 .byte 69,15,89,228 // mulps %xmm12,%xmm12 @@ -40709,16 +41254,16 @@ _sk_xy_to_2pt_conical_quadratic_second_sse2: .byte 243,69,15,89,219 // mulss %xmm11,%xmm11 .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11 .byte 69,15,92,227 // subps %xmm11,%xmm12 - .byte 68,15,89,21,173,14,1,0 // mulps 0x10ead(%rip),%xmm10 # 3a720 <_sk_srcover_bgra_8888_sse2_lowp+0x11cc> + .byte 68,15,89,21,183,14,1,0 // mulps 0x10eb7(%rip),%xmm10 # 3b140 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8> .byte 69,15,89,212 // mulps %xmm12,%xmm10 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 69,15,89,192 // mulps %xmm8,%xmm8 .byte 69,15,88,194 // addps %xmm10,%xmm8 .byte 69,15,81,192 // sqrtps %xmm8,%xmm8 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 - .byte 68,15,87,13,173,13,1,0 // xorps 0x10dad(%rip),%xmm9 # 3a640 <_sk_srcover_bgra_8888_sse2_lowp+0x10ec> + .byte 68,15,87,13,183,13,1,0 // xorps 0x10db7(%rip),%xmm9 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8> .byte 69,15,92,200 // subps %xmm8,%xmm9 - .byte 15,89,5,130,8,1,0 // mulps 0x10882(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,89,5,140,8,1,0 // mulps 0x1088c(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 65,15,89,193 // mulps %xmm9,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -40733,7 +41278,7 @@ _sk_xy_to_2pt_conical_linear_sse2: .byte 243,69,15,89,200 // mulss %xmm8,%xmm9 .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9 .byte 68,15,88,200 // addps %xmm0,%xmm9 - .byte 68,15,89,13,70,14,1,0 // mulps 0x10e46(%rip),%xmm9 # 3a710 <_sk_srcover_bgra_8888_sse2_lowp+0x11bc> + .byte 68,15,89,13,80,14,1,0 // mulps 0x10e50(%rip),%xmm9 # 3b130 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8> .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 68,15,40,209 // movaps %xmm1,%xmm10 .byte 69,15,89,210 // mulps %xmm10,%xmm10 @@ -40741,7 +41286,7 @@ _sk_xy_to_2pt_conical_linear_sse2: .byte 243,69,15,89,192 // mulss %xmm8,%xmm8 .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8 .byte 65,15,92,192 // subps %xmm8,%xmm0 - .byte 15,87,5,82,13,1,0 // xorps 0x10d52(%rip),%xmm0 # 3a640 <_sk_srcover_bgra_8888_sse2_lowp+0x10ec> + .byte 15,87,5,92,13,1,0 // xorps 0x10d5c(%rip),%xmm0 # 3b060 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8> .byte 65,15,94,193 // divps %xmm9,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -40787,7 +41332,7 @@ HIDDEN _sk_save_xy_sse2 FUNCTION(_sk_save_xy_sse2) _sk_save_xy_sse2: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 68,15,40,5,185,7,1,0 // movaps 0x107b9(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,40,5,195,7,1,0 // movaps 0x107c3(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 15,17,0 // movups %xmm0,(%rax) .byte 68,15,40,200 // movaps %xmm0,%xmm9 .byte 69,15,88,200 // addps %xmm8,%xmm9 @@ -40795,7 +41340,7 @@ _sk_save_xy_sse2: .byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10 .byte 69,15,40,217 // movaps %xmm9,%xmm11 .byte 69,15,194,218,1 // cmpltps %xmm10,%xmm11 - .byte 68,15,40,37,164,7,1,0 // movaps 0x107a4(%rip),%xmm12 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,37,174,7,1,0 // movaps 0x107ae(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,84,220 // andps %xmm12,%xmm11 .byte 69,15,92,211 // subps %xmm11,%xmm10 .byte 69,15,92,202 // subps %xmm10,%xmm9 @@ -40842,8 +41387,8 @@ _sk_bilinear_nx_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8 - .byte 15,88,5,4,13,1,0 // addps 0x10d04(%rip),%xmm0 # 3a730 <_sk_srcover_bgra_8888_sse2_lowp+0x11dc> - .byte 68,15,40,13,252,6,1,0 // movaps 0x106fc(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,88,5,14,13,1,0 // addps 0x10d0e(%rip),%xmm0 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8> + .byte 68,15,40,13,6,7,1,0 // movaps 0x10706(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -40856,7 +41401,7 @@ _sk_bilinear_px_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8 - .byte 15,88,5,200,6,1,0 // addps 0x106c8(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,88,5,210,6,1,0 // addps 0x106d2(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -40868,8 +41413,8 @@ _sk_bilinear_ny_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,64 // movups 0x40(%rax),%xmm1 .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8 - .byte 15,88,13,183,12,1,0 // addps 0x10cb7(%rip),%xmm1 # 3a730 <_sk_srcover_bgra_8888_sse2_lowp+0x11dc> - .byte 68,15,40,13,175,6,1,0 // movaps 0x106af(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,88,13,193,12,1,0 // addps 0x10cc1(%rip),%xmm1 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8> + .byte 68,15,40,13,185,6,1,0 // movaps 0x106b9(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -40882,7 +41427,7 @@ _sk_bilinear_py_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,64 // movups 0x40(%rax),%xmm1 .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8 - .byte 15,88,13,122,6,1,0 // addps 0x1067a(%rip),%xmm1 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,88,13,132,6,1,0 // addps 0x10684(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -40894,13 +41439,13 @@ _sk_bicubic_n3x_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8 - .byte 15,88,5,122,12,1,0 // addps 0x10c7a(%rip),%xmm0 # 3a740 <_sk_srcover_bgra_8888_sse2_lowp+0x11ec> - .byte 68,15,40,13,98,6,1,0 // movaps 0x10662(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,88,5,132,12,1,0 // addps 0x10c84(%rip),%xmm0 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8> + .byte 68,15,40,13,108,6,1,0 // movaps 0x1066c(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 69,15,89,192 // mulps %xmm8,%xmm8 - .byte 68,15,89,13,110,12,1,0 // mulps 0x10c6e(%rip),%xmm9 # 3a750 <_sk_srcover_bgra_8888_sse2_lowp+0x11fc> - .byte 68,15,88,13,70,8,1,0 // addps 0x10846(%rip),%xmm9 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc> + .byte 68,15,89,13,120,12,1,0 // mulps 0x10c78(%rip),%xmm9 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208> + .byte 68,15,88,13,80,8,1,0 // addps 0x10850(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8> .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -40913,16 +41458,16 @@ _sk_bicubic_n1x_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8 - .byte 15,88,5,34,12,1,0 // addps 0x10c22(%rip),%xmm0 # 3a730 <_sk_srcover_bgra_8888_sse2_lowp+0x11dc> - .byte 68,15,40,13,26,6,1,0 // movaps 0x1061a(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,88,5,44,12,1,0 // addps 0x10c2c(%rip),%xmm0 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8> + .byte 68,15,40,13,36,6,1,0 // movaps 0x10624(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,92,200 // subps %xmm8,%xmm9 - .byte 68,15,40,5,62,12,1,0 // movaps 0x10c3e(%rip),%xmm8 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x120c> + .byte 68,15,40,5,72,12,1,0 // movaps 0x10c48(%rip),%xmm8 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218> .byte 69,15,89,193 // mulps %xmm9,%xmm8 - .byte 68,15,88,5,66,12,1,0 // addps 0x10c42(%rip),%xmm8 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c> + .byte 68,15,88,5,76,12,1,0 // addps 0x10c4c(%rip),%xmm8 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228> .byte 69,15,89,193 // mulps %xmm9,%xmm8 - .byte 68,15,88,5,230,5,1,0 // addps 0x105e6(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,88,5,240,5,1,0 // addps 0x105f0(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 69,15,89,193 // mulps %xmm9,%xmm8 - .byte 68,15,88,5,58,12,1,0 // addps 0x10c3a(%rip),%xmm8 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x122c> + .byte 68,15,88,5,68,12,1,0 // addps 0x10c44(%rip),%xmm8 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238> .byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -40932,17 +41477,17 @@ HIDDEN _sk_bicubic_p1x_sse2 FUNCTION(_sk_bicubic_p1x_sse2) _sk_bicubic_p1x_sse2: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 68,15,40,5,196,5,1,0 // movaps 0x105c4(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,40,5,206,5,1,0 // movaps 0x105ce(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,136,128,0,0,0 // movups 0x80(%rax),%xmm9 .byte 65,15,88,192 // addps %xmm8,%xmm0 - .byte 68,15,40,21,237,11,1,0 // movaps 0x10bed(%rip),%xmm10 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x120c> + .byte 68,15,40,21,247,11,1,0 // movaps 0x10bf7(%rip),%xmm10 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218> .byte 69,15,89,209 // mulps %xmm9,%xmm10 - .byte 68,15,88,21,241,11,1,0 // addps 0x10bf1(%rip),%xmm10 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c> + .byte 68,15,88,21,251,11,1,0 // addps 0x10bfb(%rip),%xmm10 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228> .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,208 // addps %xmm8,%xmm10 .byte 69,15,89,209 // mulps %xmm9,%xmm10 - .byte 68,15,88,21,237,11,1,0 // addps 0x10bed(%rip),%xmm10 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x122c> + .byte 68,15,88,21,247,11,1,0 // addps 0x10bf7(%rip),%xmm10 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238> .byte 68,15,17,144,0,1,0,0 // movups %xmm10,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -40954,11 +41499,11 @@ _sk_bicubic_p3x_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,0 // movups (%rax),%xmm0 .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8 - .byte 15,88,5,189,11,1,0 // addps 0x10bbd(%rip),%xmm0 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c> + .byte 15,88,5,199,11,1,0 // addps 0x10bc7(%rip),%xmm0 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228> .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 69,15,89,201 // mulps %xmm9,%xmm9 - .byte 68,15,89,5,141,11,1,0 // mulps 0x10b8d(%rip),%xmm8 # 3a750 <_sk_srcover_bgra_8888_sse2_lowp+0x11fc> - .byte 68,15,88,5,101,7,1,0 // addps 0x10765(%rip),%xmm8 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc> + .byte 68,15,89,5,151,11,1,0 // mulps 0x10b97(%rip),%xmm8 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208> + .byte 68,15,88,5,111,7,1,0 // addps 0x1076f(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -40971,13 +41516,13 @@ _sk_bicubic_n3y_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,64 // movups 0x40(%rax),%xmm1 .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8 - .byte 15,88,13,80,11,1,0 // addps 0x10b50(%rip),%xmm1 # 3a740 <_sk_srcover_bgra_8888_sse2_lowp+0x11ec> - .byte 68,15,40,13,56,5,1,0 // movaps 0x10538(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,88,13,90,11,1,0 // addps 0x10b5a(%rip),%xmm1 # 3b160 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8> + .byte 68,15,40,13,66,5,1,0 // movaps 0x10542(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,92,200 // subps %xmm8,%xmm9 .byte 69,15,40,193 // movaps %xmm9,%xmm8 .byte 69,15,89,192 // mulps %xmm8,%xmm8 - .byte 68,15,89,13,68,11,1,0 // mulps 0x10b44(%rip),%xmm9 # 3a750 <_sk_srcover_bgra_8888_sse2_lowp+0x11fc> - .byte 68,15,88,13,28,7,1,0 // addps 0x1071c(%rip),%xmm9 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc> + .byte 68,15,89,13,78,11,1,0 // mulps 0x10b4e(%rip),%xmm9 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208> + .byte 68,15,88,13,38,7,1,0 // addps 0x10726(%rip),%xmm9 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8> .byte 69,15,89,200 // mulps %xmm8,%xmm9 .byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -40990,16 +41535,16 @@ _sk_bicubic_n1y_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,64 // movups 0x40(%rax),%xmm1 .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8 - .byte 15,88,13,247,10,1,0 // addps 0x10af7(%rip),%xmm1 # 3a730 <_sk_srcover_bgra_8888_sse2_lowp+0x11dc> - .byte 68,15,40,13,239,4,1,0 // movaps 0x104ef(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,88,13,1,11,1,0 // addps 0x10b01(%rip),%xmm1 # 3b150 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8> + .byte 68,15,40,13,249,4,1,0 // movaps 0x104f9(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,92,200 // subps %xmm8,%xmm9 - .byte 68,15,40,5,19,11,1,0 // movaps 0x10b13(%rip),%xmm8 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x120c> + .byte 68,15,40,5,29,11,1,0 // movaps 0x10b1d(%rip),%xmm8 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218> .byte 69,15,89,193 // mulps %xmm9,%xmm8 - .byte 68,15,88,5,23,11,1,0 // addps 0x10b17(%rip),%xmm8 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c> + .byte 68,15,88,5,33,11,1,0 // addps 0x10b21(%rip),%xmm8 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228> .byte 69,15,89,193 // mulps %xmm9,%xmm8 - .byte 68,15,88,5,187,4,1,0 // addps 0x104bb(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,88,5,197,4,1,0 // addps 0x104c5(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 69,15,89,193 // mulps %xmm9,%xmm8 - .byte 68,15,88,5,15,11,1,0 // addps 0x10b0f(%rip),%xmm8 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x122c> + .byte 68,15,88,5,25,11,1,0 // addps 0x10b19(%rip),%xmm8 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238> .byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -41009,17 +41554,17 @@ HIDDEN _sk_bicubic_p1y_sse2 FUNCTION(_sk_bicubic_p1y_sse2) _sk_bicubic_p1y_sse2: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 68,15,40,5,153,4,1,0 // movaps 0x10499(%rip),%xmm8 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,40,5,163,4,1,0 // movaps 0x104a3(%rip),%xmm8 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 15,16,72,64 // movups 0x40(%rax),%xmm1 .byte 68,15,16,136,192,0,0,0 // movups 0xc0(%rax),%xmm9 .byte 65,15,88,200 // addps %xmm8,%xmm1 - .byte 68,15,40,21,193,10,1,0 // movaps 0x10ac1(%rip),%xmm10 # 3a760 <_sk_srcover_bgra_8888_sse2_lowp+0x120c> + .byte 68,15,40,21,203,10,1,0 // movaps 0x10acb(%rip),%xmm10 # 3b180 <_sk_srcover_bgra_8888_sse2_lowp+0x1218> .byte 69,15,89,209 // mulps %xmm9,%xmm10 - .byte 68,15,88,21,197,10,1,0 // addps 0x10ac5(%rip),%xmm10 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c> + .byte 68,15,88,21,207,10,1,0 // addps 0x10acf(%rip),%xmm10 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228> .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 69,15,88,208 // addps %xmm8,%xmm10 .byte 69,15,89,209 // mulps %xmm9,%xmm10 - .byte 68,15,88,21,193,10,1,0 // addps 0x10ac1(%rip),%xmm10 # 3a780 <_sk_srcover_bgra_8888_sse2_lowp+0x122c> + .byte 68,15,88,21,203,10,1,0 // addps 0x10acb(%rip),%xmm10 # 3b1a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1238> .byte 68,15,17,144,64,1,0,0 // movups %xmm10,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -41031,11 +41576,11 @@ _sk_bicubic_p3y_sse2: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,72,64 // movups 0x40(%rax),%xmm1 .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8 - .byte 15,88,13,144,10,1,0 // addps 0x10a90(%rip),%xmm1 # 3a770 <_sk_srcover_bgra_8888_sse2_lowp+0x121c> + .byte 15,88,13,154,10,1,0 // addps 0x10a9a(%rip),%xmm1 # 3b190 <_sk_srcover_bgra_8888_sse2_lowp+0x1228> .byte 69,15,40,200 // movaps %xmm8,%xmm9 .byte 69,15,89,201 // mulps %xmm9,%xmm9 - .byte 68,15,89,5,96,10,1,0 // mulps 0x10a60(%rip),%xmm8 # 3a750 <_sk_srcover_bgra_8888_sse2_lowp+0x11fc> - .byte 68,15,88,5,56,6,1,0 // addps 0x10638(%rip),%xmm8 # 3a330 <_sk_srcover_bgra_8888_sse2_lowp+0xddc> + .byte 68,15,89,5,106,10,1,0 // mulps 0x10a6a(%rip),%xmm8 # 3b170 <_sk_srcover_bgra_8888_sse2_lowp+0x1208> + .byte 68,15,88,5,66,6,1,0 // addps 0x10642(%rip),%xmm8 # 3ad50 <_sk_srcover_bgra_8888_sse2_lowp+0xde8> .byte 69,15,89,193 // mulps %xmm9,%xmm8 .byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax) .byte 72,173 // lods %ds:(%rsi),%rax @@ -41180,7 +41725,7 @@ _sk_clut_3D_sse2: .byte 102,65,15,254,205 // paddd %xmm13,%xmm1 .byte 102,68,15,127,108,36,208 // movdqa %xmm13,-0x30(%rsp) .byte 102,15,254,217 // paddd %xmm1,%xmm3 - .byte 102,68,15,111,5,167,8,1,0 // movdqa 0x108a7(%rip),%xmm8 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c> + .byte 102,68,15,111,5,177,8,1,0 // movdqa 0x108b1(%rip),%xmm8 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258> .byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0 .byte 102,65,15,244,216 // pmuludq %xmm8,%xmm3 .byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0 @@ -41219,7 +41764,7 @@ _sk_clut_3D_sse2: .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5 .byte 15,20,236 // unpcklps %xmm4,%xmm5 .byte 102,15,20,221 // unpcklpd %xmm5,%xmm3 - .byte 102,68,15,111,37,174,1,1,0 // movdqa 0x101ae(%rip),%xmm12 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,68,15,111,37,184,1,1,0 // movdqa 0x101b8(%rip),%xmm12 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,65,15,254,196 // paddd %xmm12,%xmm0 .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4 .byte 102,73,15,126,224 // movq %xmm4,%r8 @@ -41235,7 +41780,7 @@ _sk_clut_3D_sse2: .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4 .byte 15,20,224 // unpcklps %xmm0,%xmm4 .byte 102,15,20,236 // unpcklpd %xmm4,%xmm5 - .byte 15,40,37,147,7,1,0 // movaps 0x10793(%rip),%xmm4 # 3a790 <_sk_srcover_bgra_8888_sse2_lowp+0x123c> + .byte 15,40,37,157,7,1,0 // movaps 0x1079d(%rip),%xmm4 # 3b1b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248> .byte 68,15,88,220 // addps %xmm4,%xmm11 .byte 68,15,41,92,36,192 // movaps %xmm11,-0x40(%rsp) .byte 68,15,40,223 // movaps %xmm7,%xmm11 @@ -41271,7 +41816,7 @@ _sk_clut_3D_sse2: .byte 15,20,249 // unpcklps %xmm1,%xmm7 .byte 102,15,20,252 // unpcklpd %xmm4,%xmm7 .byte 102,15,111,202 // movdqa %xmm2,%xmm1 - .byte 102,15,250,13,8,7,1,0 // psubd 0x10708(%rip),%xmm1 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c> + .byte 102,15,250,13,18,7,1,0 // psubd 0x10712(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268> .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4 .byte 102,73,15,126,224 // movq %xmm4,%r8 .byte 102,72,15,126,200 // movq %xmm1,%rax @@ -41361,7 +41906,7 @@ _sk_clut_3D_sse2: .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5 .byte 15,20,233 // unpcklps %xmm1,%xmm5 .byte 102,15,20,221 // unpcklpd %xmm5,%xmm3 - .byte 102,68,15,111,45,32,255,0,0 // movdqa 0xff20(%rip),%xmm13 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,68,15,111,45,42,255,0,0 // movdqa 0xff2a(%rip),%xmm13 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,65,15,254,197 // paddd %xmm13,%xmm0 .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,73,15,126,200 // movq %xmm1,%r8 @@ -41458,7 +42003,7 @@ _sk_clut_3D_sse2: .byte 102,15,111,206 // movdqa %xmm6,%xmm1 .byte 102,65,15,254,202 // paddd %xmm10,%xmm1 .byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2 - .byte 102,15,111,29,163,3,1,0 // movdqa 0x103a3(%rip),%xmm3 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c> + .byte 102,15,111,29,173,3,1,0 // movdqa 0x103ad(%rip),%xmm3 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258> .byte 102,15,244,203 // pmuludq %xmm3,%xmm1 .byte 102,15,244,211 // pmuludq %xmm3,%xmm2 .byte 102,15,111,251 // movdqa %xmm3,%xmm7 @@ -41496,7 +42041,7 @@ _sk_clut_3D_sse2: .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5 .byte 15,20,236 // unpcklps %xmm4,%xmm5 .byte 102,15,20,213 // unpcklpd %xmm5,%xmm2 - .byte 102,15,111,5,179,252,0,0 // movdqa 0xfcb3(%rip),%xmm0 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,15,111,5,189,252,0,0 // movdqa 0xfcbd(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,15,254,216 // paddd %xmm0,%xmm3 .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4 .byte 102,73,15,126,224 // movq %xmm4,%r8 @@ -41577,7 +42122,7 @@ _sk_clut_3D_sse2: .byte 102,15,111,214 // movdqa %xmm6,%xmm2 .byte 102,65,15,254,212 // paddd %xmm12,%xmm2 .byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0 - .byte 102,15,111,13,128,1,1,0 // movdqa 0x10180(%rip),%xmm1 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c> + .byte 102,15,111,13,138,1,1,0 // movdqa 0x1018a(%rip),%xmm1 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258> .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,244,193 // pmuludq %xmm1,%xmm0 .byte 102,15,111,241 // movdqa %xmm1,%xmm6 @@ -41599,7 +42144,7 @@ _sk_clut_3D_sse2: .byte 68,15,20,209 // unpcklps %xmm1,%xmm10 .byte 102,68,15,20,210 // unpcklpd %xmm2,%xmm10 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 - .byte 102,15,250,13,37,1,1,0 // psubd 0x10125(%rip),%xmm1 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c> + .byte 102,15,250,13,47,1,1,0 // psubd 0x1012f(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268> .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,73,15,126,208 // movq %xmm2,%r8 .byte 102,72,15,126,200 // movq %xmm1,%rax @@ -41614,7 +42159,7 @@ _sk_clut_3D_sse2: .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 15,20,209 // unpcklps %xmm1,%xmm2 .byte 102,15,20,226 // unpcklpd %xmm2,%xmm4 - .byte 102,15,254,5,144,250,0,0 // paddd 0xfa90(%rip),%xmm0 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,15,254,5,154,250,0,0 // paddd 0xfa9a(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,73,15,126,200 // movq %xmm1,%r8 .byte 102,72,15,126,192 // movq %xmm0,%rax @@ -41651,7 +42196,7 @@ _sk_clut_3D_sse2: .byte 15,20,199 // unpcklps %xmm7,%xmm0 .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0 .byte 102,15,111,202 // movdqa %xmm2,%xmm1 - .byte 102,15,250,13,47,0,1,0 // psubd 0x1002f(%rip),%xmm1 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c> + .byte 102,15,250,13,57,0,1,0 // psubd 0x10039(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268> .byte 102,15,112,249,78 // pshufd $0x4e,%xmm1,%xmm7 .byte 102,73,15,126,248 // movq %xmm7,%r8 .byte 102,72,15,126,200 // movq %xmm1,%rax @@ -41666,7 +42211,7 @@ _sk_clut_3D_sse2: .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6 .byte 15,20,247 // unpcklps %xmm7,%xmm6 .byte 102,15,20,206 // unpcklpd %xmm6,%xmm1 - .byte 102,15,254,21,154,249,0,0 // paddd 0xf99a(%rip),%xmm2 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,15,254,21,164,249,0,0 // paddd 0xf9a4(%rip),%xmm2 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6 .byte 102,73,15,126,240 // movq %xmm6,%r8 .byte 102,72,15,126,208 // movq %xmm2,%rax @@ -41812,7 +42357,7 @@ _sk_clut_4D_sse2: .byte 102,65,15,254,210 // paddd %xmm10,%xmm2 .byte 102,15,111,220 // movdqa %xmm4,%xmm3 .byte 102,15,254,218 // paddd %xmm2,%xmm3 - .byte 102,15,111,37,114,253,0,0 // movdqa 0xfd72(%rip),%xmm4 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c> + .byte 102,15,111,37,124,253,0,0 // movdqa 0xfd7c(%rip),%xmm4 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258> .byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0 .byte 102,15,244,220 // pmuludq %xmm4,%xmm3 .byte 102,15,244,196 // pmuludq %xmm4,%xmm0 @@ -41851,7 +42396,7 @@ _sk_clut_4D_sse2: .byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6 .byte 15,20,244 // unpcklps %xmm4,%xmm6 .byte 102,15,20,238 // unpcklpd %xmm6,%xmm5 - .byte 102,15,254,5,124,246,0,0 // paddd 0xf67c(%rip),%xmm0 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,15,254,5,134,246,0,0 // paddd 0xf686(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4 .byte 102,73,15,126,224 // movq %xmm4,%r8 .byte 102,73,15,126,193 // movq %xmm0,%r9 @@ -41866,7 +42411,7 @@ _sk_clut_4D_sse2: .byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6 .byte 15,20,244 // unpcklps %xmm4,%xmm6 .byte 102,15,20,222 // unpcklpd %xmm6,%xmm3 - .byte 15,40,53,102,252,0,0 // movaps 0xfc66(%rip),%xmm6 # 3a790 <_sk_srcover_bgra_8888_sse2_lowp+0x123c> + .byte 15,40,53,112,252,0,0 // movaps 0xfc70(%rip),%xmm6 # 3b1b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1248> .byte 68,15,88,198 // addps %xmm6,%xmm8 .byte 68,15,41,68,36,176 // movaps %xmm8,-0x50(%rsp) .byte 68,15,88,254 // addps %xmm6,%xmm15 @@ -41884,7 +42429,7 @@ _sk_clut_4D_sse2: .byte 102,65,15,254,215 // paddd %xmm15,%xmm2 .byte 102,68,15,127,124,36,224 // movdqa %xmm15,-0x20(%rsp) .byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0 - .byte 102,15,111,13,28,252,0,0 // movdqa 0xfc1c(%rip),%xmm1 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c> + .byte 102,15,111,13,38,252,0,0 // movdqa 0xfc26(%rip),%xmm1 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258> .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,244,193 // pmuludq %xmm1,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 @@ -41905,7 +42450,7 @@ _sk_clut_4D_sse2: .byte 15,20,240 // unpcklps %xmm0,%xmm6 .byte 102,15,20,242 // unpcklpd %xmm2,%xmm6 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 - .byte 102,15,250,5,199,251,0,0 // psubd 0xfbc7(%rip),%xmm0 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c> + .byte 102,15,250,5,209,251,0,0 // psubd 0xfbd1(%rip),%xmm0 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268> .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2 .byte 102,73,15,126,208 // movq %xmm2,%r8 .byte 102,72,15,126,192 // movq %xmm0,%rax @@ -41920,7 +42465,7 @@ _sk_clut_4D_sse2: .byte 243,68,15,16,28,131 // movss (%rbx,%rax,4),%xmm11 .byte 68,15,20,216 // unpcklps %xmm0,%xmm11 .byte 102,65,15,20,211 // unpcklpd %xmm11,%xmm2 - .byte 102,15,254,13,47,245,0,0 // paddd 0xf52f(%rip),%xmm1 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,15,254,13,57,245,0,0 // paddd 0xf539(%rip),%xmm1 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0 .byte 102,73,15,126,192 // movq %xmm0,%r8 .byte 102,72,15,126,200 // movq %xmm1,%rax @@ -41958,7 +42503,7 @@ _sk_clut_4D_sse2: .byte 102,65,15,111,194 // movdqa %xmm10,%xmm0 .byte 102,15,254,68,36,160 // paddd -0x60(%rsp),%xmm0 .byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3 - .byte 102,15,111,37,198,250,0,0 // movdqa 0xfac6(%rip),%xmm4 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c> + .byte 102,15,111,37,208,250,0,0 // movdqa 0xfad0(%rip),%xmm4 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258> .byte 102,15,244,196 // pmuludq %xmm4,%xmm0 .byte 102,15,244,220 // pmuludq %xmm4,%xmm3 .byte 102,68,15,111,220 // movdqa %xmm4,%xmm11 @@ -41996,7 +42541,7 @@ _sk_clut_4D_sse2: .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7 .byte 15,20,253 // unpcklps %xmm5,%xmm7 .byte 102,15,20,199 // unpcklpd %xmm7,%xmm0 - .byte 102,68,15,111,5,210,243,0,0 // movdqa 0xf3d2(%rip),%xmm8 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,68,15,111,5,220,243,0,0 // movdqa 0xf3dc(%rip),%xmm8 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,65,15,254,224 // paddd %xmm8,%xmm4 .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5 .byte 102,73,15,126,232 // movq %xmm5,%r8 @@ -42142,7 +42687,7 @@ _sk_clut_4D_sse2: .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4 .byte 15,20,226 // unpcklps %xmm2,%xmm4 .byte 102,15,20,252 // unpcklpd %xmm4,%xmm7 - .byte 102,68,15,111,61,44,241,0,0 // movdqa 0xf12c(%rip),%xmm15 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,68,15,111,61,54,241,0,0 // movdqa 0xf136(%rip),%xmm15 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,65,15,254,207 // paddd %xmm15,%xmm1 .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,73,15,126,208 // movq %xmm2,%r8 @@ -42225,7 +42770,7 @@ _sk_clut_4D_sse2: .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3 .byte 102,65,15,254,216 // paddd %xmm8,%xmm3 .byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2 - .byte 102,15,111,45,251,245,0,0 // movdqa 0xf5fb(%rip),%xmm5 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c> + .byte 102,15,111,45,5,246,0,0 // movdqa 0xf605(%rip),%xmm5 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258> .byte 102,15,244,221 // pmuludq %xmm5,%xmm3 .byte 102,15,244,213 // pmuludq %xmm5,%xmm2 .byte 102,15,112,234,232 // pshufd $0xe8,%xmm2,%xmm5 @@ -42246,7 +42791,7 @@ _sk_clut_4D_sse2: .byte 68,15,20,198 // unpcklps %xmm6,%xmm8 .byte 102,68,15,20,197 // unpcklpd %xmm5,%xmm8 .byte 102,15,111,234 // movdqa %xmm2,%xmm5 - .byte 102,15,250,45,164,245,0,0 // psubd 0xf5a4(%rip),%xmm5 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c> + .byte 102,15,250,45,174,245,0,0 // psubd 0xf5ae(%rip),%xmm5 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268> .byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6 .byte 102,73,15,126,240 // movq %xmm6,%r8 .byte 102,72,15,126,232 // movq %xmm5,%rax @@ -42278,7 +42823,7 @@ _sk_clut_4D_sse2: .byte 102,15,20,214 // unpcklpd %xmm6,%xmm2 .byte 102,69,15,254,205 // paddd %xmm13,%xmm9 .byte 102,65,15,112,233,245 // pshufd $0xf5,%xmm9,%xmm5 - .byte 102,15,111,29,2,245,0,0 // movdqa 0xf502(%rip),%xmm3 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c> + .byte 102,15,111,29,12,245,0,0 // movdqa 0xf50c(%rip),%xmm3 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258> .byte 102,68,15,244,203 // pmuludq %xmm3,%xmm9 .byte 102,15,244,235 // pmuludq %xmm3,%xmm5 .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5 @@ -42299,7 +42844,7 @@ _sk_clut_4D_sse2: .byte 69,15,20,233 // unpcklps %xmm9,%xmm13 .byte 102,68,15,20,237 // unpcklpd %xmm5,%xmm13 .byte 102,65,15,111,239 // movdqa %xmm15,%xmm5 - .byte 102,15,250,45,162,244,0,0 // psubd 0xf4a2(%rip),%xmm5 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c> + .byte 102,15,250,45,172,244,0,0 // psubd 0xf4ac(%rip),%xmm5 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268> .byte 102,15,112,221,78 // pshufd $0x4e,%xmm5,%xmm3 .byte 102,73,15,126,216 // movq %xmm3,%r8 .byte 102,72,15,126,232 // movq %xmm5,%rax @@ -42314,7 +42859,7 @@ _sk_clut_4D_sse2: .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5 .byte 15,20,235 // unpcklps %xmm3,%xmm5 .byte 102,15,20,245 // unpcklpd %xmm5,%xmm6 - .byte 102,68,15,111,13,12,238,0,0 // movdqa 0xee0c(%rip),%xmm9 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,68,15,111,13,22,238,0,0 // movdqa 0xee16(%rip),%xmm9 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,69,15,254,249 // paddd %xmm9,%xmm15 .byte 102,65,15,112,223,78 // pshufd $0x4e,%xmm15,%xmm3 .byte 102,73,15,126,216 // movq %xmm3,%r8 @@ -42376,7 +42921,7 @@ _sk_clut_4D_sse2: .byte 102,65,15,111,195 // movdqa %xmm11,%xmm0 .byte 102,15,254,195 // paddd %xmm3,%xmm0 .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1 - .byte 102,15,111,21,61,243,0,0 // movdqa 0xf33d(%rip),%xmm2 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c> + .byte 102,15,111,21,71,243,0,0 // movdqa 0xf347(%rip),%xmm2 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258> .byte 102,15,244,194 // pmuludq %xmm2,%xmm0 .byte 102,15,244,202 // pmuludq %xmm2,%xmm1 .byte 102,68,15,111,234 // movdqa %xmm2,%xmm13 @@ -42569,7 +43114,7 @@ _sk_clut_4D_sse2: .byte 68,15,20,238 // unpcklps %xmm6,%xmm13 .byte 102,68,15,20,234 // unpcklpd %xmm2,%xmm13 .byte 102,15,111,212 // movdqa %xmm4,%xmm2 - .byte 102,15,250,21,217,239,0,0 // psubd 0xefd9(%rip),%xmm2 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c> + .byte 102,15,250,21,227,239,0,0 // psubd 0xefe3(%rip),%xmm2 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268> .byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6 .byte 102,73,15,126,240 // movq %xmm6,%r8 .byte 102,72,15,126,208 // movq %xmm2,%rax @@ -42629,7 +43174,7 @@ _sk_clut_4D_sse2: .byte 102,68,15,111,116,36,160 // movdqa -0x60(%rsp),%xmm14 .byte 102,65,15,254,198 // paddd %xmm14,%xmm0 .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1 - .byte 102,68,15,111,5,184,238,0,0 // movdqa 0xeeb8(%rip),%xmm8 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c> + .byte 102,68,15,111,5,194,238,0,0 // movdqa 0xeec2(%rip),%xmm8 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258> .byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0 .byte 102,65,15,244,200 // pmuludq %xmm8,%xmm1 .byte 102,65,15,111,240 // movdqa %xmm8,%xmm6 @@ -42667,7 +43212,7 @@ _sk_clut_4D_sse2: .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5 .byte 15,20,235 // unpcklps %xmm3,%xmm5 .byte 102,15,20,205 // unpcklpd %xmm5,%xmm1 - .byte 102,68,15,111,5,198,231,0,0 // movdqa 0xe7c6(%rip),%xmm8 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,68,15,111,5,208,231,0,0 // movdqa 0xe7d0(%rip),%xmm8 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,65,15,254,208 // paddd %xmm8,%xmm2 .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3 .byte 102,73,15,126,216 // movq %xmm3,%r8 @@ -42750,7 +43295,7 @@ _sk_clut_4D_sse2: .byte 102,15,254,208 // paddd %xmm0,%xmm2 .byte 102,15,111,240 // movdqa %xmm0,%xmm6 .byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0 - .byte 102,15,111,37,146,236,0,0 // movdqa 0xec92(%rip),%xmm4 # 3a7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x124c> + .byte 102,15,111,37,156,236,0,0 // movdqa 0xec9c(%rip),%xmm4 # 3b1c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1258> .byte 102,15,244,212 // pmuludq %xmm4,%xmm2 .byte 102,15,244,196 // pmuludq %xmm4,%xmm0 .byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1 @@ -42771,7 +43316,7 @@ _sk_clut_4D_sse2: .byte 68,15,20,193 // unpcklps %xmm1,%xmm8 .byte 102,68,15,20,194 // unpcklpd %xmm2,%xmm8 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 - .byte 102,15,250,13,59,236,0,0 // psubd 0xec3b(%rip),%xmm1 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c> + .byte 102,15,250,13,69,236,0,0 // psubd 0xec45(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268> .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,73,15,126,208 // movq %xmm2,%r8 .byte 102,72,15,126,200 // movq %xmm1,%rax @@ -42786,7 +43331,7 @@ _sk_clut_4D_sse2: .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2 .byte 15,20,209 // unpcklps %xmm1,%xmm2 .byte 102,68,15,20,242 // unpcklpd %xmm2,%xmm14 - .byte 102,15,254,5,164,229,0,0 // paddd 0xe5a4(%rip),%xmm0 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,15,254,5,174,229,0,0 // paddd 0xe5ae(%rip),%xmm0 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,73,15,126,200 // movq %xmm1,%r8 .byte 102,72,15,126,192 // movq %xmm0,%rax @@ -42824,7 +43369,7 @@ _sk_clut_4D_sse2: .byte 15,20,198 // unpcklps %xmm6,%xmm0 .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0 .byte 102,15,111,202 // movdqa %xmm2,%xmm1 - .byte 102,15,250,13,67,235,0,0 // psubd 0xeb43(%rip),%xmm1 # 3a7b0 <_sk_srcover_bgra_8888_sse2_lowp+0x125c> + .byte 102,15,250,13,77,235,0,0 // psubd 0xeb4d(%rip),%xmm1 # 3b1d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1268> .byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6 .byte 102,73,15,126,240 // movq %xmm6,%r8 .byte 102,72,15,126,200 // movq %xmm1,%rax @@ -42839,7 +43384,7 @@ _sk_clut_4D_sse2: .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4 .byte 15,20,230 // unpcklps %xmm6,%xmm4 .byte 102,15,20,204 // unpcklpd %xmm4,%xmm1 - .byte 102,15,254,21,174,228,0,0 // paddd 0xe4ae(%rip),%xmm2 # 3a160 <_sk_srcover_bgra_8888_sse2_lowp+0xc0c> + .byte 102,15,254,21,184,228,0,0 // paddd 0xe4b8(%rip),%xmm2 # 3ab80 <_sk_srcover_bgra_8888_sse2_lowp+0xc18> .byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4 .byte 102,73,15,126,224 // movq %xmm4,%r8 .byte 102,72,15,126,208 // movq %xmm2,%rax @@ -42898,7 +43443,7 @@ _sk_clut_4D_sse2: .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 65,15,88,215 // addps %xmm15,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,154,227,0,0 // movaps 0xe39a(%rip),%xmm3 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,29,164,227,0,0 // movaps 0xe3a4(%rip),%xmm3 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,40,100,36,96 // movaps 0x60(%rsp),%xmm4 .byte 15,40,108,36,112 // movaps 0x70(%rsp),%xmm5 .byte 15,40,180,36,128,0,0,0 // movaps 0x80(%rsp),%xmm6 @@ -42911,22 +43456,20 @@ HIDDEN _sk_gauss_a_to_rgba_sse2 .globl _sk_gauss_a_to_rgba_sse2 FUNCTION(_sk_gauss_a_to_rgba_sse2) _sk_gauss_a_to_rgba_sse2: - .byte 15,40,5,255,233,0,0 // movaps 0xe9ff(%rip),%xmm0 # 3a7c0 <_sk_srcover_bgra_8888_sse2_lowp+0x126c> + .byte 15,40,5,9,234,0,0 // movaps 0xea09(%rip),%xmm0 # 3b1e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1278> .byte 15,89,195 // mulps %xmm3,%xmm0 - .byte 15,88,5,5,234,0,0 // addps 0xea05(%rip),%xmm0 # 3a7d0 <_sk_srcover_bgra_8888_sse2_lowp+0x127c> + .byte 15,88,5,15,234,0,0 // addps 0xea0f(%rip),%xmm0 # 3b1f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1288> .byte 15,89,195 // mulps %xmm3,%xmm0 - .byte 15,88,5,11,234,0,0 // addps 0xea0b(%rip),%xmm0 # 3a7e0 <_sk_srcover_bgra_8888_sse2_lowp+0x128c> + .byte 15,88,5,21,234,0,0 // addps 0xea15(%rip),%xmm0 # 3b200 <_sk_srcover_bgra_8888_sse2_lowp+0x1298> .byte 15,89,195 // mulps %xmm3,%xmm0 - .byte 15,88,5,17,234,0,0 // addps 0xea11(%rip),%xmm0 # 3a7f0 <_sk_srcover_bgra_8888_sse2_lowp+0x129c> + .byte 15,88,5,27,234,0,0 // addps 0xea1b(%rip),%xmm0 # 3b210 <_sk_srcover_bgra_8888_sse2_lowp+0x12a8> .byte 15,89,195 // mulps %xmm3,%xmm0 - .byte 15,88,5,23,234,0,0 // addps 0xea17(%rip),%xmm0 # 3a800 <_sk_srcover_bgra_8888_sse2_lowp+0x12ac> + .byte 15,88,5,33,234,0,0 // addps 0xea21(%rip),%xmm0 # 3b220 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 255,224 // jmpq *%rax - .byte 144 // nop - .byte 144 // nop HIDDEN _sk_start_pipeline_hsw_lowp .globl _sk_start_pipeline_hsw_lowp @@ -42949,13 +43492,13 @@ _sk_start_pipeline_hsw_lowp: .byte 73,137,246 // mov %rsi,%r14 .byte 72,137,77,192 // mov %rcx,-0x40(%rbp) .byte 72,57,203 // cmp %rcx,%rbx - .byte 15,131,151,0,0,0 // jae 2bec2 <_sk_start_pipeline_hsw_lowp+0xca> + .byte 15,131,151,0,0,0 // jae 2c8d6 <_sk_start_pipeline_hsw_lowp+0xca> .byte 72,139,69,208 // mov -0x30(%rbp),%rax .byte 72,141,64,16 // lea 0x10(%rax),%rax .byte 72,137,69,200 // mov %rax,-0x38(%rbp) .byte 72,139,85,208 // mov -0x30(%rbp),%rdx .byte 76,57,125,200 // cmp %r15,-0x38(%rbp) - .byte 119,67 // ja 2be84 <_sk_start_pipeline_hsw_lowp+0x8c> + .byte 119,67 // ja 2c898 <_sk_start_pipeline_hsw_lowp+0x8c> .byte 76,139,101,208 // mov -0x30(%rbp),%r12 .byte 49,255 // xor %edi,%edi .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 @@ -42974,10 +43517,10 @@ _sk_start_pipeline_hsw_lowp: .byte 73,131,196,32 // add $0x20,%r12 .byte 77,57,252 // cmp %r15,%r12 .byte 73,137,212 // mov %rdx,%r12 - .byte 118,193 // jbe 2be45 <_sk_start_pipeline_hsw_lowp+0x4d> + .byte 118,193 // jbe 2c859 <_sk_start_pipeline_hsw_lowp+0x4d> .byte 76,137,255 // mov %r15,%rdi .byte 72,41,215 // sub %rdx,%rdi - .byte 116,41 // je 2beb5 <_sk_start_pipeline_hsw_lowp+0xbd> + .byte 116,41 // je 2c8c9 <_sk_start_pipeline_hsw_lowp+0xbd> .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 @@ -42991,7 +43534,7 @@ _sk_start_pipeline_hsw_lowp: .byte 65,255,213 // callq *%r13 .byte 72,255,195 // inc %rbx .byte 72,59,93,192 // cmp -0x40(%rbp),%rbx - .byte 15,133,117,255,255,255 // jne 2be37 <_sk_start_pipeline_hsw_lowp+0x3f> + .byte 15,133,117,255,255,255 // jne 2c84b <_sk_start_pipeline_hsw_lowp+0x3f> .byte 72,131,196,24 // add $0x18,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 @@ -43021,7 +43564,7 @@ _sk_seed_shader_hsw_lowp: .byte 197,249,110,209 // vmovd %ecx,%xmm2 .byte 196,226,125,88,210 // vpbroadcastd %xmm2,%ymm2 .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2 - .byte 196,226,125,24,29,253,216,0,0 // vbroadcastss 0xd8fd(%rip),%ymm3 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,226,125,24,29,253,216,0,0 // vbroadcastss 0xd8fd(%rip),%ymm3 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,236,88,211 // vaddps %ymm3,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,252,40,218 // vmovaps %ymm2,%ymm3 @@ -43137,7 +43680,7 @@ HIDDEN _sk_black_color_hsw_lowp FUNCTION(_sk_black_color_hsw_lowp) _sk_black_color_hsw_lowp: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,121,29,216,221,0,0 // vpbroadcastw 0xddd8(%rip),%ymm3 # 39e60 <_sk_srcover_bgra_8888_sse2_lowp+0x90c> + .byte 196,226,125,121,29,228,221,0,0 // vpbroadcastw 0xdde4(%rip),%ymm3 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x918> .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 @@ -43148,7 +43691,7 @@ HIDDEN _sk_white_color_hsw_lowp FUNCTION(_sk_white_color_hsw_lowp) _sk_white_color_hsw_lowp: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,121,5,193,221,0,0 // vpbroadcastw 0xddc1(%rip),%ymm0 # 39e62 <_sk_srcover_bgra_8888_sse2_lowp+0x90e> + .byte 196,226,125,121,5,205,221,0,0 // vpbroadcastw 0xddcd(%rip),%ymm0 # 3a882 <_sk_srcover_bgra_8888_sse2_lowp+0x91a> .byte 197,253,111,200 // vmovdqa %ymm0,%ymm1 .byte 197,253,111,208 // vmovdqa %ymm0,%ymm2 .byte 197,253,111,216 // vmovdqa %ymm0,%ymm3 @@ -43159,8 +43702,8 @@ HIDDEN _sk_set_rgb_hsw_lowp FUNCTION(_sk_set_rgb_hsw_lowp) _sk_set_rgb_hsw_lowp: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 197,122,16,5,71,215,0,0 // vmovss 0xd747(%rip),%xmm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> - .byte 197,250,16,21,111,215,0,0 // vmovss 0xd76f(%rip),%xmm2 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 197,122,16,5,71,215,0,0 // vmovss 0xd747(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 197,250,16,21,111,215,0,0 // vmovss 0xd76f(%rip),%xmm2 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> .byte 197,250,16,0 // vmovss (%rax),%xmm0 .byte 196,226,57,153,194 // vfmadd132ss %xmm2,%xmm8,%xmm0 .byte 197,122,44,192 // vcvttss2si %xmm0,%r8d @@ -43203,7 +43746,7 @@ HIDDEN _sk_premul_hsw_lowp FUNCTION(_sk_premul_hsw_lowp) _sk_premul_hsw_lowp: .byte 197,229,213,192 // vpmullw %ymm0,%ymm3,%ymm0 - .byte 196,98,125,121,5,42,221,0,0 // vpbroadcastw 0xdd2a(%rip),%ymm8 # 39e64 <_sk_srcover_bgra_8888_sse2_lowp+0x910> + .byte 196,98,125,121,5,54,221,0,0 // vpbroadcastw 0xdd36(%rip),%ymm8 # 3a884 <_sk_srcover_bgra_8888_sse2_lowp+0x91c> .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,229,213,201 // vpmullw %ymm1,%ymm3,%ymm1 @@ -43220,7 +43763,7 @@ HIDDEN _sk_premul_dst_hsw_lowp FUNCTION(_sk_premul_dst_hsw_lowp) _sk_premul_dst_hsw_lowp: .byte 197,197,213,228 // vpmullw %ymm4,%ymm7,%ymm4 - .byte 196,98,125,121,5,245,220,0,0 // vpbroadcastw 0xdcf5(%rip),%ymm8 # 39e66 <_sk_srcover_bgra_8888_sse2_lowp+0x912> + .byte 196,98,125,121,5,1,221,0,0 // vpbroadcastw 0xdd01(%rip),%ymm8 # 3a886 <_sk_srcover_bgra_8888_sse2_lowp+0x91e> .byte 196,193,93,253,224 // vpaddw %ymm8,%ymm4,%ymm4 .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4 .byte 197,197,213,237 // vpmullw %ymm5,%ymm7,%ymm5 @@ -43268,7 +43811,7 @@ HIDDEN _sk_invert_hsw_lowp .globl _sk_invert_hsw_lowp FUNCTION(_sk_invert_hsw_lowp) _sk_invert_hsw_lowp: - .byte 196,98,125,121,5,140,220,0,0 // vpbroadcastw 0xdc8c(%rip),%ymm8 # 39e68 <_sk_srcover_bgra_8888_sse2_lowp+0x914> + .byte 196,98,125,121,5,152,220,0,0 // vpbroadcastw 0xdc98(%rip),%ymm8 # 3a888 <_sk_srcover_bgra_8888_sse2_lowp+0x920> .byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0 .byte 197,189,249,201 // vpsubw %ymm1,%ymm8,%ymm1 .byte 197,189,249,210 // vpsubw %ymm2,%ymm8,%ymm2 @@ -43292,7 +43835,7 @@ HIDDEN _sk_srcatop_hsw_lowp FUNCTION(_sk_srcatop_hsw_lowp) _sk_srcatop_hsw_lowp: .byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0 - .byte 196,98,125,121,5,89,220,0,0 // vpbroadcastw 0xdc59(%rip),%ymm8 # 39e6a <_sk_srcover_bgra_8888_sse2_lowp+0x916> + .byte 196,98,125,121,5,101,220,0,0 // vpbroadcastw 0xdc65(%rip),%ymm8 # 3a88a <_sk_srcover_bgra_8888_sse2_lowp+0x922> .byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3 .byte 197,101,213,204 // vpmullw %ymm4,%ymm3,%ymm9 .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0 @@ -43319,7 +43862,7 @@ HIDDEN _sk_dstatop_hsw_lowp FUNCTION(_sk_dstatop_hsw_lowp) _sk_dstatop_hsw_lowp: .byte 197,93,213,195 // vpmullw %ymm3,%ymm4,%ymm8 - .byte 196,98,125,121,13,249,219,0,0 // vpbroadcastw 0xdbf9(%rip),%ymm9 # 39e6c <_sk_srcover_bgra_8888_sse2_lowp+0x918> + .byte 196,98,125,121,13,5,220,0,0 // vpbroadcastw 0xdc05(%rip),%ymm9 # 3a88c <_sk_srcover_bgra_8888_sse2_lowp+0x924> .byte 197,53,249,215 // vpsubw %ymm7,%ymm9,%ymm10 .byte 197,173,213,192 // vpmullw %ymm0,%ymm10,%ymm0 .byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8 @@ -43346,7 +43889,7 @@ HIDDEN _sk_srcin_hsw_lowp FUNCTION(_sk_srcin_hsw_lowp) _sk_srcin_hsw_lowp: .byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0 - .byte 196,98,125,121,5,150,219,0,0 // vpbroadcastw 0xdb96(%rip),%ymm8 # 39e6e <_sk_srcover_bgra_8888_sse2_lowp+0x91a> + .byte 196,98,125,121,5,162,219,0,0 // vpbroadcastw 0xdba2(%rip),%ymm8 # 3a88e <_sk_srcover_bgra_8888_sse2_lowp+0x926> .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,197,213,201 // vpmullw %ymm1,%ymm7,%ymm1 @@ -43366,7 +43909,7 @@ HIDDEN _sk_dstin_hsw_lowp FUNCTION(_sk_dstin_hsw_lowp) _sk_dstin_hsw_lowp: .byte 197,221,213,195 // vpmullw %ymm3,%ymm4,%ymm0 - .byte 196,98,125,121,5,83,219,0,0 // vpbroadcastw 0xdb53(%rip),%ymm8 # 39e70 <_sk_srcover_bgra_8888_sse2_lowp+0x91c> + .byte 196,98,125,121,5,95,219,0,0 // vpbroadcastw 0xdb5f(%rip),%ymm8 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x928> .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,213,213,203 // vpmullw %ymm3,%ymm5,%ymm1 @@ -43385,7 +43928,7 @@ HIDDEN _sk_srcout_hsw_lowp .globl _sk_srcout_hsw_lowp FUNCTION(_sk_srcout_hsw_lowp) _sk_srcout_hsw_lowp: - .byte 196,98,125,121,5,20,219,0,0 // vpbroadcastw 0xdb14(%rip),%ymm8 # 39e72 <_sk_srcover_bgra_8888_sse2_lowp+0x91e> + .byte 196,98,125,121,5,32,219,0,0 // vpbroadcastw 0xdb20(%rip),%ymm8 # 3a892 <_sk_srcover_bgra_8888_sse2_lowp+0x92a> .byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9 .byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0 .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0 @@ -43406,7 +43949,7 @@ HIDDEN _sk_dstout_hsw_lowp .globl _sk_dstout_hsw_lowp FUNCTION(_sk_dstout_hsw_lowp) _sk_dstout_hsw_lowp: - .byte 196,98,125,121,5,205,218,0,0 // vpbroadcastw 0xdacd(%rip),%ymm8 # 39e74 <_sk_srcover_bgra_8888_sse2_lowp+0x920> + .byte 196,98,125,121,5,217,218,0,0 // vpbroadcastw 0xdad9(%rip),%ymm8 # 3a894 <_sk_srcover_bgra_8888_sse2_lowp+0x92c> .byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3 .byte 197,229,213,196 // vpmullw %ymm4,%ymm3,%ymm0 .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0 @@ -43427,7 +43970,7 @@ HIDDEN _sk_srcover_hsw_lowp .globl _sk_srcover_hsw_lowp FUNCTION(_sk_srcover_hsw_lowp) _sk_srcover_hsw_lowp: - .byte 196,98,125,121,5,134,218,0,0 // vpbroadcastw 0xda86(%rip),%ymm8 # 39e76 <_sk_srcover_bgra_8888_sse2_lowp+0x922> + .byte 196,98,125,121,5,146,218,0,0 // vpbroadcastw 0xda92(%rip),%ymm8 # 3a896 <_sk_srcover_bgra_8888_sse2_lowp+0x92e> .byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9 .byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10 .byte 196,65,45,253,208 // vpaddw %ymm8,%ymm10,%ymm10 @@ -43452,7 +43995,7 @@ HIDDEN _sk_dstover_hsw_lowp .globl _sk_dstover_hsw_lowp FUNCTION(_sk_dstover_hsw_lowp) _sk_dstover_hsw_lowp: - .byte 196,98,125,121,5,43,218,0,0 // vpbroadcastw 0xda2b(%rip),%ymm8 # 39e78 <_sk_srcover_bgra_8888_sse2_lowp+0x924> + .byte 196,98,125,121,5,55,218,0,0 // vpbroadcastw 0xda37(%rip),%ymm8 # 3a898 <_sk_srcover_bgra_8888_sse2_lowp+0x930> .byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9 .byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0 .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0 @@ -43478,7 +44021,7 @@ HIDDEN _sk_modulate_hsw_lowp FUNCTION(_sk_modulate_hsw_lowp) _sk_modulate_hsw_lowp: .byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0 - .byte 196,98,125,121,5,208,217,0,0 // vpbroadcastw 0xd9d0(%rip),%ymm8 # 39e7a <_sk_srcover_bgra_8888_sse2_lowp+0x926> + .byte 196,98,125,121,5,220,217,0,0 // vpbroadcastw 0xd9dc(%rip),%ymm8 # 3a89a <_sk_srcover_bgra_8888_sse2_lowp+0x932> .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,213,213,201 // vpmullw %ymm1,%ymm5,%ymm1 @@ -43497,7 +44040,7 @@ HIDDEN _sk_multiply_hsw_lowp .globl _sk_multiply_hsw_lowp FUNCTION(_sk_multiply_hsw_lowp) _sk_multiply_hsw_lowp: - .byte 196,98,125,121,5,145,217,0,0 // vpbroadcastw 0xd991(%rip),%ymm8 # 39e7c <_sk_srcover_bgra_8888_sse2_lowp+0x928> + .byte 196,98,125,121,5,157,217,0,0 // vpbroadcastw 0xd99d(%rip),%ymm8 # 3a89c <_sk_srcover_bgra_8888_sse2_lowp+0x934> .byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9 .byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10 .byte 196,65,93,253,216 // vpaddw %ymm8,%ymm4,%ymm11 @@ -43533,7 +44076,7 @@ HIDDEN _sk_plus__hsw_lowp FUNCTION(_sk_plus__hsw_lowp) _sk_plus__hsw_lowp: .byte 197,221,253,192 // vpaddw %ymm0,%ymm4,%ymm0 - .byte 196,98,125,121,5,7,217,0,0 // vpbroadcastw 0xd907(%rip),%ymm8 # 39e7e <_sk_srcover_bgra_8888_sse2_lowp+0x92a> + .byte 196,98,125,121,5,19,217,0,0 // vpbroadcastw 0xd913(%rip),%ymm8 # 3a89e <_sk_srcover_bgra_8888_sse2_lowp+0x936> .byte 196,194,125,58,192 // vpminuw %ymm8,%ymm0,%ymm0 .byte 197,213,253,201 // vpaddw %ymm1,%ymm5,%ymm1 .byte 196,194,117,58,200 // vpminuw %ymm8,%ymm1,%ymm1 @@ -43550,7 +44093,7 @@ FUNCTION(_sk_screen_hsw_lowp) _sk_screen_hsw_lowp: .byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8 .byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0 - .byte 196,98,125,121,13,212,216,0,0 // vpbroadcastw 0xd8d4(%rip),%ymm9 # 39e80 <_sk_srcover_bgra_8888_sse2_lowp+0x92c> + .byte 196,98,125,121,13,224,216,0,0 // vpbroadcastw 0xd8e0(%rip),%ymm9 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x938> .byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0 @@ -43576,7 +44119,7 @@ HIDDEN _sk_xor__hsw_lowp .globl _sk_xor__hsw_lowp FUNCTION(_sk_xor__hsw_lowp) _sk_xor__hsw_lowp: - .byte 196,98,125,121,5,121,216,0,0 // vpbroadcastw 0xd879(%rip),%ymm8 # 39e82 <_sk_srcover_bgra_8888_sse2_lowp+0x92e> + .byte 196,98,125,121,5,133,216,0,0 // vpbroadcastw 0xd885(%rip),%ymm8 # 3a8a2 <_sk_srcover_bgra_8888_sse2_lowp+0x93a> .byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9 .byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0 .byte 197,61,249,211 // vpsubw %ymm3,%ymm8,%ymm10 @@ -43610,7 +44153,7 @@ _sk_darken_hsw_lowp: .byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0 .byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9 .byte 196,194,125,62,193 // vpmaxuw %ymm9,%ymm0,%ymm0 - .byte 196,98,125,121,13,253,215,0,0 // vpbroadcastw 0xd7fd(%rip),%ymm9 # 39e84 <_sk_srcover_bgra_8888_sse2_lowp+0x930> + .byte 196,98,125,121,13,9,216,0,0 // vpbroadcastw 0xd809(%rip),%ymm9 # 3a8a4 <_sk_srcover_bgra_8888_sse2_lowp+0x93c> .byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0 @@ -43644,7 +44187,7 @@ _sk_lighten_hsw_lowp: .byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0 .byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9 .byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0 - .byte 196,98,125,121,13,126,215,0,0 // vpbroadcastw 0xd77e(%rip),%ymm9 # 39e86 <_sk_srcover_bgra_8888_sse2_lowp+0x932> + .byte 196,98,125,121,13,138,215,0,0 // vpbroadcastw 0xd78a(%rip),%ymm9 # 3a8a6 <_sk_srcover_bgra_8888_sse2_lowp+0x93e> .byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0 @@ -43678,10 +44221,10 @@ _sk_difference_hsw_lowp: .byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0 .byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9 .byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0 - .byte 196,98,125,121,13,255,214,0,0 // vpbroadcastw 0xd6ff(%rip),%ymm9 # 39e88 <_sk_srcover_bgra_8888_sse2_lowp+0x934> + .byte 196,98,125,121,13,11,215,0,0 // vpbroadcastw 0xd70b(%rip),%ymm9 # 3a8a8 <_sk_srcover_bgra_8888_sse2_lowp+0x940> .byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0 .byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0 - .byte 196,98,125,121,21,238,214,0,0 // vpbroadcastw 0xd6ee(%rip),%ymm10 # 39e8a <_sk_srcover_bgra_8888_sse2_lowp+0x936> + .byte 196,98,125,121,21,250,214,0,0 // vpbroadcastw 0xd6fa(%rip),%ymm10 # 3a8aa <_sk_srcover_bgra_8888_sse2_lowp+0x942> .byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0 .byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0 .byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8 @@ -43714,10 +44257,10 @@ FUNCTION(_sk_exclusion_hsw_lowp) _sk_exclusion_hsw_lowp: .byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8 .byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0 - .byte 196,98,125,121,13,115,214,0,0 // vpbroadcastw 0xd673(%rip),%ymm9 # 39e8c <_sk_srcover_bgra_8888_sse2_lowp+0x938> + .byte 196,98,125,121,13,127,214,0,0 // vpbroadcastw 0xd67f(%rip),%ymm9 # 3a8ac <_sk_srcover_bgra_8888_sse2_lowp+0x944> .byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0 .byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0 - .byte 196,98,125,121,21,98,214,0,0 // vpbroadcastw 0xd662(%rip),%ymm10 # 39e8e <_sk_srcover_bgra_8888_sse2_lowp+0x93a> + .byte 196,98,125,121,21,110,214,0,0 // vpbroadcastw 0xd66e(%rip),%ymm10 # 3a8ae <_sk_srcover_bgra_8888_sse2_lowp+0x946> .byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0 .byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0 .byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8 @@ -43745,7 +44288,7 @@ HIDDEN _sk_hardlight_hsw_lowp FUNCTION(_sk_hardlight_hsw_lowp) _sk_hardlight_hsw_lowp: .byte 197,125,253,192 // vpaddw %ymm0,%ymm0,%ymm8 - .byte 196,98,125,121,13,255,213,0,0 // vpbroadcastw 0xd5ff(%rip),%ymm9 # 39e92 <_sk_srcover_bgra_8888_sse2_lowp+0x93e> + .byte 196,98,125,121,13,11,214,0,0 // vpbroadcastw 0xd60b(%rip),%ymm9 # 3a8b2 <_sk_srcover_bgra_8888_sse2_lowp+0x94a> .byte 196,65,101,239,209 // vpxor %ymm9,%ymm3,%ymm10 .byte 196,65,61,239,217 // vpxor %ymm9,%ymm8,%ymm11 .byte 196,65,37,101,218 // vpcmpgtw %ymm10,%ymm11,%ymm11 @@ -43773,7 +44316,7 @@ _sk_hardlight_hsw_lowp: .byte 197,101,249,210 // vpsubw %ymm2,%ymm3,%ymm10 .byte 197,69,249,246 // vpsubw %ymm6,%ymm7,%ymm14 .byte 196,65,45,213,214 // vpmullw %ymm14,%ymm10,%ymm10 - .byte 196,98,125,121,53,118,213,0,0 // vpbroadcastw 0xd576(%rip),%ymm14 # 39e90 <_sk_srcover_bgra_8888_sse2_lowp+0x93c> + .byte 196,98,125,121,53,130,213,0,0 // vpbroadcastw 0xd582(%rip),%ymm14 # 3a8b0 <_sk_srcover_bgra_8888_sse2_lowp+0x948> .byte 196,65,45,253,210 // vpaddw %ymm10,%ymm10,%ymm10 .byte 196,65,61,249,194 // vpsubw %ymm10,%ymm8,%ymm8 .byte 197,13,249,215 // vpsubw %ymm7,%ymm14,%ymm10 @@ -43810,7 +44353,7 @@ HIDDEN _sk_overlay_hsw_lowp FUNCTION(_sk_overlay_hsw_lowp) _sk_overlay_hsw_lowp: .byte 197,93,253,196 // vpaddw %ymm4,%ymm4,%ymm8 - .byte 196,98,125,121,13,235,212,0,0 // vpbroadcastw 0xd4eb(%rip),%ymm9 # 39e96 <_sk_srcover_bgra_8888_sse2_lowp+0x942> + .byte 196,98,125,121,13,247,212,0,0 // vpbroadcastw 0xd4f7(%rip),%ymm9 # 3a8b6 <_sk_srcover_bgra_8888_sse2_lowp+0x94e> .byte 196,65,69,239,209 // vpxor %ymm9,%ymm7,%ymm10 .byte 196,65,61,239,193 // vpxor %ymm9,%ymm8,%ymm8 .byte 196,65,61,101,218 // vpcmpgtw %ymm10,%ymm8,%ymm11 @@ -43834,7 +44377,7 @@ _sk_overlay_hsw_lowp: .byte 196,65,21,253,237 // vpaddw %ymm13,%ymm13,%ymm13 .byte 196,65,61,249,237 // vpsubw %ymm13,%ymm8,%ymm13 .byte 196,67,13,76,229,192 // vpblendvb %ymm12,%ymm13,%ymm14,%ymm12 - .byte 196,98,125,121,45,115,212,0,0 // vpbroadcastw 0xd473(%rip),%ymm13 # 39e94 <_sk_srcover_bgra_8888_sse2_lowp+0x940> + .byte 196,98,125,121,45,127,212,0,0 // vpbroadcastw 0xd47f(%rip),%ymm13 # 3a8b4 <_sk_srcover_bgra_8888_sse2_lowp+0x94c> .byte 197,77,253,246 // vpaddw %ymm6,%ymm6,%ymm14 .byte 196,65,13,239,201 // vpxor %ymm9,%ymm14,%ymm9 .byte 196,65,53,101,202 // vpcmpgtw %ymm10,%ymm9,%ymm9 @@ -43886,10 +44429,10 @@ _sk_load_8888_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,55 // ja 2cb17 <_sk_load_8888_hsw_lowp+0x52> + .byte 119,55 // ja 2d52b <_sk_load_8888_hsw_lowp+0x52> .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,162,1,0,0 // lea 0x1a2(%rip),%r9 # 2cc90 <_sk_load_8888_hsw_lowp+0x1cb> + .byte 76,141,13,162,1,0,0 // lea 0x1a2(%rip),%r9 # 2d6a4 <_sk_load_8888_hsw_lowp+0x1cb> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1 @@ -43899,10 +44442,10 @@ _sk_load_8888_hsw_lowp: .byte 255,224 // jmpq *%rax .byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1 .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0 - .byte 233,39,1,0,0 // jmpq 2cc3e <_sk_load_8888_hsw_lowp+0x179> + .byte 233,39,1,0,0 // jmpq 2d652 <_sk_load_8888_hsw_lowp+0x179> .byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1 .byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0 - .byte 233,21,1,0,0 // jmpq 2cc3e <_sk_load_8888_hsw_lowp+0x179> + .byte 233,21,1,0,0 // jmpq 2d652 <_sk_load_8888_hsw_lowp+0x179> .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0 .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0 .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3 @@ -43911,7 +44454,7 @@ _sk_load_8888_hsw_lowp: .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1 .byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1 .byte 197,253,111,195 // vmovdqa %ymm3,%ymm0 - .byte 233,229,0,0,0 // jmpq 2cc3e <_sk_load_8888_hsw_lowp+0x179> + .byte 233,229,0,0,0 // jmpq 2d652 <_sk_load_8888_hsw_lowp+0x179> .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0 .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0 .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1 @@ -43927,7 +44470,7 @@ _sk_load_8888_hsw_lowp: .byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1 .byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1 .byte 197,125,127,192 // vmovdqa %ymm8,%ymm0 - .byte 233,138,0,0,0 // jmpq 2cc3e <_sk_load_8888_hsw_lowp+0x179> + .byte 233,138,0,0,0 // jmpq 2d652 <_sk_load_8888_hsw_lowp+0x179> .byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0 .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0 .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1 @@ -43937,7 +44480,7 @@ _sk_load_8888_hsw_lowp: .byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1 .byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0 .byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1 - .byte 235,81 // jmp 2cc3e <_sk_load_8888_hsw_lowp+0x179> + .byte 235,81 // jmp 2d652 <_sk_load_8888_hsw_lowp+0x179> .byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0 .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0 .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1 @@ -43957,7 +44500,7 @@ _sk_load_8888_hsw_lowp: .byte 196,227,101,14,200,170 // vpblendw $0xaa,%ymm0,%ymm3,%ymm1 .byte 196,227,109,14,192,170 // vpblendw $0xaa,%ymm0,%ymm2,%ymm0 .byte 196,226,125,43,201 // vpackusdw %ymm1,%ymm0,%ymm1 - .byte 197,125,111,5,57,210,0,0 // vmovdqa 0xd239(%rip),%ymm8 # 39ea0 <_sk_srcover_bgra_8888_sse2_lowp+0x94c> + .byte 197,125,111,5,69,210,0,0 // vmovdqa 0xd245(%rip),%ymm8 # 3a8c0 <_sk_srcover_bgra_8888_sse2_lowp+0x958> .byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0 .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1 .byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3 @@ -43968,7 +44511,7 @@ _sk_load_8888_hsw_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 102,144 // xchg %ax,%ax - .byte 120,254 // js 2cc90 <_sk_load_8888_hsw_lowp+0x1cb> + .byte 120,254 // js 2d6a4 <_sk_load_8888_hsw_lowp+0x1cb> .byte 255 // (bad) .byte 255,175,254,255,255,153 // ljmp *-0x66000002(%rdi) .byte 254 // (bad) @@ -44016,10 +44559,10 @@ _sk_load_8888_dst_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,55 // ja 2cd1e <_sk_load_8888_dst_hsw_lowp+0x52> + .byte 119,55 // ja 2d732 <_sk_load_8888_dst_hsw_lowp+0x52> .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2ce98 <_sk_load_8888_dst_hsw_lowp+0x1cc> + .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2d8ac <_sk_load_8888_dst_hsw_lowp+0x1cc> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -44029,10 +44572,10 @@ _sk_load_8888_dst_hsw_lowp: .byte 255,224 // jmpq *%rax .byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5 .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4 - .byte 233,39,1,0,0 // jmpq 2ce45 <_sk_load_8888_dst_hsw_lowp+0x179> + .byte 233,39,1,0,0 // jmpq 2d859 <_sk_load_8888_dst_hsw_lowp+0x179> .byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5 .byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4 - .byte 233,21,1,0,0 // jmpq 2ce45 <_sk_load_8888_dst_hsw_lowp+0x179> + .byte 233,21,1,0,0 // jmpq 2d859 <_sk_load_8888_dst_hsw_lowp+0x179> .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4 .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4 .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7 @@ -44041,7 +44584,7 @@ _sk_load_8888_dst_hsw_lowp: .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5 .byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5 .byte 197,253,111,231 // vmovdqa %ymm7,%ymm4 - .byte 233,229,0,0,0 // jmpq 2ce45 <_sk_load_8888_dst_hsw_lowp+0x179> + .byte 233,229,0,0,0 // jmpq 2d859 <_sk_load_8888_dst_hsw_lowp+0x179> .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4 .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -44057,7 +44600,7 @@ _sk_load_8888_dst_hsw_lowp: .byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5 .byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5 .byte 197,125,127,196 // vmovdqa %ymm8,%ymm4 - .byte 233,138,0,0,0 // jmpq 2ce45 <_sk_load_8888_dst_hsw_lowp+0x179> + .byte 233,138,0,0,0 // jmpq 2d859 <_sk_load_8888_dst_hsw_lowp+0x179> .byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4 .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -44067,7 +44610,7 @@ _sk_load_8888_dst_hsw_lowp: .byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5 .byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4 .byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5 - .byte 235,81 // jmp 2ce45 <_sk_load_8888_dst_hsw_lowp+0x179> + .byte 235,81 // jmp 2d859 <_sk_load_8888_dst_hsw_lowp+0x179> .byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4 .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -44087,7 +44630,7 @@ _sk_load_8888_dst_hsw_lowp: .byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5 .byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4 .byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5 - .byte 197,125,111,5,82,208,0,0 // vmovdqa 0xd052(%rip),%ymm8 # 39ec0 <_sk_srcover_bgra_8888_sse2_lowp+0x96c> + .byte 197,125,111,5,94,208,0,0 // vmovdqa 0xd05e(%rip),%ymm8 # 3a8e0 <_sk_srcover_bgra_8888_sse2_lowp+0x978> .byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4 .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5 .byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7 @@ -44098,7 +44641,7 @@ _sk_load_8888_dst_hsw_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 15,31,0 // nopl (%rax) - .byte 119,254 // ja 2ce98 <_sk_load_8888_dst_hsw_lowp+0x1cc> + .byte 119,254 // ja 2d8ac <_sk_load_8888_dst_hsw_lowp+0x1cc> .byte 255 // (bad) .byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi) .byte 254 // (bad) @@ -44159,20 +44702,20 @@ _sk_store_8888_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,30 // ja 2cf55 <_sk_store_8888_hsw_lowp+0x81> + .byte 119,30 // ja 2d969 <_sk_store_8888_hsw_lowp+0x81> .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2d004 <_sk_store_8888_hsw_lowp+0x130> + .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2da18 <_sk_store_8888_hsw_lowp+0x130> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4) - .byte 233,171,0,0,0 // jmpq 2d000 <_sk_store_8888_hsw_lowp+0x12c> + .byte 233,171,0,0,0 // jmpq 2da14 <_sk_store_8888_hsw_lowp+0x12c> .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4) .byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4) - .byte 233,153,0,0,0 // jmpq 2d000 <_sk_store_8888_hsw_lowp+0x12c> + .byte 233,153,0,0,0 // jmpq 2da14 <_sk_store_8888_hsw_lowp+0x12c> .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4) .byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4) - .byte 233,134,0,0,0 // jmpq 2d000 <_sk_store_8888_hsw_lowp+0x12c> + .byte 233,134,0,0,0 // jmpq 2da14 <_sk_store_8888_hsw_lowp+0x12c> .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4) .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 @@ -44180,12 +44723,12 @@ _sk_store_8888_hsw_lowp: .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4) .byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4) - .byte 235,85 // jmp 2d000 <_sk_store_8888_hsw_lowp+0x12c> + .byte 235,85 // jmp 2da14 <_sk_store_8888_hsw_lowp+0x12c> .byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4) .byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4) .byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4) .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4) - .byte 235,54 // jmp 2d000 <_sk_store_8888_hsw_lowp+0x12c> + .byte 235,54 // jmp 2da14 <_sk_store_8888_hsw_lowp+0x12c> .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10 .byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4) .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10 @@ -44242,10 +44785,10 @@ _sk_load_bgra_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,55 // ja 2d092 <_sk_load_bgra_hsw_lowp+0x52> + .byte 119,55 // ja 2daa6 <_sk_load_bgra_hsw_lowp+0x52> .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2d20c <_sk_load_bgra_hsw_lowp+0x1cc> + .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2dc20 <_sk_load_bgra_hsw_lowp+0x1cc> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1 @@ -44255,10 +44798,10 @@ _sk_load_bgra_hsw_lowp: .byte 255,224 // jmpq *%rax .byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1 .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0 - .byte 233,39,1,0,0 // jmpq 2d1b9 <_sk_load_bgra_hsw_lowp+0x179> + .byte 233,39,1,0,0 // jmpq 2dbcd <_sk_load_bgra_hsw_lowp+0x179> .byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1 .byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0 - .byte 233,21,1,0,0 // jmpq 2d1b9 <_sk_load_bgra_hsw_lowp+0x179> + .byte 233,21,1,0,0 // jmpq 2dbcd <_sk_load_bgra_hsw_lowp+0x179> .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0 .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0 .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3 @@ -44267,7 +44810,7 @@ _sk_load_bgra_hsw_lowp: .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1 .byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1 .byte 197,253,111,195 // vmovdqa %ymm3,%ymm0 - .byte 233,229,0,0,0 // jmpq 2d1b9 <_sk_load_bgra_hsw_lowp+0x179> + .byte 233,229,0,0,0 // jmpq 2dbcd <_sk_load_bgra_hsw_lowp+0x179> .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0 .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0 .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1 @@ -44283,7 +44826,7 @@ _sk_load_bgra_hsw_lowp: .byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1 .byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1 .byte 197,125,127,192 // vmovdqa %ymm8,%ymm0 - .byte 233,138,0,0,0 // jmpq 2d1b9 <_sk_load_bgra_hsw_lowp+0x179> + .byte 233,138,0,0,0 // jmpq 2dbcd <_sk_load_bgra_hsw_lowp+0x179> .byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0 .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0 .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1 @@ -44293,7 +44836,7 @@ _sk_load_bgra_hsw_lowp: .byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1 .byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0 .byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1 - .byte 235,81 // jmp 2d1b9 <_sk_load_bgra_hsw_lowp+0x179> + .byte 235,81 // jmp 2dbcd <_sk_load_bgra_hsw_lowp+0x179> .byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0 .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0 .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1 @@ -44313,7 +44856,7 @@ _sk_load_bgra_hsw_lowp: .byte 196,227,125,14,209,170 // vpblendw $0xaa,%ymm1,%ymm0,%ymm2 .byte 196,227,101,14,201,170 // vpblendw $0xaa,%ymm1,%ymm3,%ymm1 .byte 196,226,117,43,202 // vpackusdw %ymm2,%ymm1,%ymm1 - .byte 197,125,111,5,254,204,0,0 // vmovdqa 0xccfe(%rip),%ymm8 # 39ee0 <_sk_srcover_bgra_8888_sse2_lowp+0x98c> + .byte 197,125,111,5,10,205,0,0 // vmovdqa 0xcd0a(%rip),%ymm8 # 3a900 <_sk_srcover_bgra_8888_sse2_lowp+0x998> .byte 196,193,117,219,208 // vpand %ymm8,%ymm1,%ymm2 .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1 .byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0 @@ -44324,7 +44867,7 @@ _sk_load_bgra_hsw_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 15,31,0 // nopl (%rax) - .byte 119,254 // ja 2d20c <_sk_load_bgra_hsw_lowp+0x1cc> + .byte 119,254 // ja 2dc20 <_sk_load_bgra_hsw_lowp+0x1cc> .byte 255 // (bad) .byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi) .byte 254 // (bad) @@ -44371,10 +44914,10 @@ _sk_load_bgra_dst_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,55 // ja 2d29a <_sk_load_bgra_dst_hsw_lowp+0x52> + .byte 119,55 // ja 2dcae <_sk_load_bgra_dst_hsw_lowp+0x52> .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2d414 <_sk_load_bgra_dst_hsw_lowp+0x1cc> + .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2de28 <_sk_load_bgra_dst_hsw_lowp+0x1cc> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -44384,10 +44927,10 @@ _sk_load_bgra_dst_hsw_lowp: .byte 255,224 // jmpq *%rax .byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5 .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4 - .byte 233,39,1,0,0 // jmpq 2d3c1 <_sk_load_bgra_dst_hsw_lowp+0x179> + .byte 233,39,1,0,0 // jmpq 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179> .byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5 .byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4 - .byte 233,21,1,0,0 // jmpq 2d3c1 <_sk_load_bgra_dst_hsw_lowp+0x179> + .byte 233,21,1,0,0 // jmpq 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179> .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4 .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4 .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7 @@ -44396,7 +44939,7 @@ _sk_load_bgra_dst_hsw_lowp: .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5 .byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5 .byte 197,253,111,231 // vmovdqa %ymm7,%ymm4 - .byte 233,229,0,0,0 // jmpq 2d3c1 <_sk_load_bgra_dst_hsw_lowp+0x179> + .byte 233,229,0,0,0 // jmpq 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179> .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4 .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -44412,7 +44955,7 @@ _sk_load_bgra_dst_hsw_lowp: .byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5 .byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5 .byte 197,125,127,196 // vmovdqa %ymm8,%ymm4 - .byte 233,138,0,0,0 // jmpq 2d3c1 <_sk_load_bgra_dst_hsw_lowp+0x179> + .byte 233,138,0,0,0 // jmpq 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179> .byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4 .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -44422,7 +44965,7 @@ _sk_load_bgra_dst_hsw_lowp: .byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5 .byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4 .byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5 - .byte 235,81 // jmp 2d3c1 <_sk_load_bgra_dst_hsw_lowp+0x179> + .byte 235,81 // jmp 2ddd5 <_sk_load_bgra_dst_hsw_lowp+0x179> .byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4 .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -44442,7 +44985,7 @@ _sk_load_bgra_dst_hsw_lowp: .byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6 .byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5 .byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5 - .byte 197,125,111,5,22,203,0,0 // vmovdqa 0xcb16(%rip),%ymm8 # 39f00 <_sk_srcover_bgra_8888_sse2_lowp+0x9ac> + .byte 197,125,111,5,34,203,0,0 // vmovdqa 0xcb22(%rip),%ymm8 # 3a920 <_sk_srcover_bgra_8888_sse2_lowp+0x9b8> .byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6 .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5 .byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4 @@ -44453,7 +44996,7 @@ _sk_load_bgra_dst_hsw_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 15,31,0 // nopl (%rax) - .byte 119,254 // ja 2d414 <_sk_load_bgra_dst_hsw_lowp+0x1cc> + .byte 119,254 // ja 2de28 <_sk_load_bgra_dst_hsw_lowp+0x1cc> .byte 255 // (bad) .byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi) .byte 254 // (bad) @@ -44514,20 +45057,20 @@ _sk_store_bgra_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,30 // ja 2d4d1 <_sk_store_bgra_hsw_lowp+0x81> + .byte 119,30 // ja 2dee5 <_sk_store_bgra_hsw_lowp+0x81> .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2d580 <_sk_store_bgra_hsw_lowp+0x130> + .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2df94 <_sk_store_bgra_hsw_lowp+0x130> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4) - .byte 233,171,0,0,0 // jmpq 2d57c <_sk_store_bgra_hsw_lowp+0x12c> + .byte 233,171,0,0,0 // jmpq 2df90 <_sk_store_bgra_hsw_lowp+0x12c> .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4) .byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4) - .byte 233,153,0,0,0 // jmpq 2d57c <_sk_store_bgra_hsw_lowp+0x12c> + .byte 233,153,0,0,0 // jmpq 2df90 <_sk_store_bgra_hsw_lowp+0x12c> .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4) .byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4) - .byte 233,134,0,0,0 // jmpq 2d57c <_sk_store_bgra_hsw_lowp+0x12c> + .byte 233,134,0,0,0 // jmpq 2df90 <_sk_store_bgra_hsw_lowp+0x12c> .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4) .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 @@ -44535,12 +45078,12 @@ _sk_store_bgra_hsw_lowp: .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4) .byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4) - .byte 235,85 // jmp 2d57c <_sk_store_bgra_hsw_lowp+0x12c> + .byte 235,85 // jmp 2df90 <_sk_store_bgra_hsw_lowp+0x12c> .byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4) .byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4) .byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4) .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4) - .byte 235,54 // jmp 2d57c <_sk_store_bgra_hsw_lowp+0x12c> + .byte 235,54 // jmp 2df90 <_sk_store_bgra_hsw_lowp+0x12c> .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10 .byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4) .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10 @@ -44623,7 +45166,7 @@ _sk_gather_8888_hsw_lowp: .byte 196,195,101,14,194,170 // vpblendw $0xaa,%ymm10,%ymm3,%ymm0 .byte 196,195,109,14,202,170 // vpblendw $0xaa,%ymm10,%ymm2,%ymm1 .byte 196,226,117,43,200 // vpackusdw %ymm0,%ymm1,%ymm1 - .byte 197,125,111,5,178,200,0,0 // vmovdqa 0xc8b2(%rip),%ymm8 # 39f20 <_sk_srcover_bgra_8888_sse2_lowp+0x9cc> + .byte 197,125,111,5,190,200,0,0 // vmovdqa 0xc8be(%rip),%ymm8 # 3a940 <_sk_srcover_bgra_8888_sse2_lowp+0x9d8> .byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0 .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1 .byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3 @@ -44673,7 +45216,7 @@ _sk_gather_bgra_hsw_lowp: .byte 196,195,125,14,202,170 // vpblendw $0xaa,%ymm10,%ymm0,%ymm1 .byte 196,195,61,14,210,170 // vpblendw $0xaa,%ymm10,%ymm8,%ymm2 .byte 196,226,109,43,201 // vpackusdw %ymm1,%ymm2,%ymm1 - .byte 197,253,111,29,249,199,0,0 // vmovdqa 0xc7f9(%rip),%ymm3 # 39f40 <_sk_srcover_bgra_8888_sse2_lowp+0x9ec> + .byte 197,253,111,29,5,200,0,0 // vmovdqa 0xc805(%rip),%ymm3 # 3a960 <_sk_srcover_bgra_8888_sse2_lowp+0x9f8> .byte 197,245,219,211 // vpand %ymm3,%ymm1,%ymm2 .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1 .byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0 @@ -44697,24 +45240,24 @@ _sk_load_565_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,37 // ja 2d7ad <_sk_load_565_hsw_lowp+0x3f> + .byte 119,37 // ja 2e1c1 <_sk_load_565_hsw_lowp+0x3f> .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,130,1,0,0 // lea 0x182(%rip),%r9 # 2d918 <_sk_load_565_hsw_lowp+0x1aa> + .byte 76,141,13,130,1,0,0 // lea 0x182(%rip),%r9 # 2e32c <_sk_load_565_hsw_lowp+0x1aa> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 233,8,1,0,0 // jmpq 2d8b5 <_sk_load_565_hsw_lowp+0x147> + .byte 233,8,1,0,0 // jmpq 2e2c9 <_sk_load_565_hsw_lowp+0x147> .byte 196,193,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm0 - .byte 233,253,0,0,0 // jmpq 2d8b5 <_sk_load_565_hsw_lowp+0x147> + .byte 233,253,0,0,0 // jmpq 2e2c9 <_sk_load_565_hsw_lowp+0x147> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,193,121,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1 .byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0 .byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1 .byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0 - .byte 233,218,0,0,0 // jmpq 2d8b5 <_sk_load_565_hsw_lowp+0x147> + .byte 233,218,0,0,0 // jmpq 2e2c9 <_sk_load_565_hsw_lowp+0x147> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,193,121,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1 .byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0 @@ -44724,7 +45267,7 @@ _sk_load_565_hsw_lowp: .byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0 .byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1 .byte 196,227,125,2,193,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm0 - .byte 233,155,0,0,0 // jmpq 2d8b5 <_sk_load_565_hsw_lowp+0x147> + .byte 233,155,0,0,0 // jmpq 2e2c9 <_sk_load_565_hsw_lowp+0x147> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,193,121,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1 .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0 @@ -44736,7 +45279,7 @@ _sk_load_565_hsw_lowp: .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0 .byte 196,193,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm1 .byte 196,227,117,2,192,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm0 - .byte 235,83 // jmp 2d8b5 <_sk_load_565_hsw_lowp+0x147> + .byte 235,83 // jmp 2e2c9 <_sk_load_565_hsw_lowp+0x147> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,193,121,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1 .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0 @@ -44750,13 +45293,13 @@ _sk_load_565_hsw_lowp: .byte 196,193,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm2 .byte 196,227,109,56,201,1 // vinserti128 $0x1,%xmm1,%ymm2,%ymm1 .byte 196,227,117,2,192,192 // vpblendd $0xc0,%ymm0,%ymm1,%ymm0 - .byte 196,226,125,121,13,162,198,0,0 // vpbroadcastw 0xc6a2(%rip),%ymm1 # 39f60 <_sk_srcover_bgra_8888_sse2_lowp+0xa0c> + .byte 196,226,125,121,13,174,198,0,0 // vpbroadcastw 0xc6ae(%rip),%ymm1 # 3a980 <_sk_srcover_bgra_8888_sse2_lowp+0xa18> .byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2 .byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1 .byte 197,237,113,208,5 // vpsrlw $0x5,%ymm0,%ymm2 - .byte 196,226,125,121,29,141,198,0,0 // vpbroadcastw 0xc68d(%rip),%ymm3 # 39f62 <_sk_srcover_bgra_8888_sse2_lowp+0xa0e> + .byte 196,226,125,121,29,153,198,0,0 // vpbroadcastw 0xc699(%rip),%ymm3 # 3a982 <_sk_srcover_bgra_8888_sse2_lowp+0xa1a> .byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2 - .byte 196,226,125,121,29,130,198,0,0 // vpbroadcastw 0xc682(%rip),%ymm3 # 39f64 <_sk_srcover_bgra_8888_sse2_lowp+0xa10> + .byte 196,226,125,121,29,142,198,0,0 // vpbroadcastw 0xc68e(%rip),%ymm3 # 3a984 <_sk_srcover_bgra_8888_sse2_lowp+0xa1c> .byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3 .byte 197,253,113,208,13 // vpsrlw $0xd,%ymm0,%ymm0 .byte 197,245,235,192 // vpor %ymm0,%ymm1,%ymm0 @@ -44767,7 +45310,7 @@ _sk_load_565_hsw_lowp: .byte 197,229,113,211,2 // vpsrlw $0x2,%ymm3,%ymm3 .byte 197,237,235,211 // vpor %ymm3,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,121,29,80,198,0,0 // vpbroadcastw 0xc650(%rip),%ymm3 # 39f66 <_sk_srcover_bgra_8888_sse2_lowp+0xa12> + .byte 196,226,125,121,29,92,198,0,0 // vpbroadcastw 0xc65c(%rip),%ymm3 # 3a986 <_sk_srcover_bgra_8888_sse2_lowp+0xa1e> .byte 255,224 // jmpq *%rax .byte 135,254 // xchg %edi,%esi .byte 255 // (bad) @@ -44817,24 +45360,24 @@ _sk_load_565_dst_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,37 // ja 2d993 <_sk_load_565_dst_hsw_lowp+0x3f> + .byte 119,37 // ja 2e3a7 <_sk_load_565_dst_hsw_lowp+0x3f> .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2db00 <_sk_load_565_dst_hsw_lowp+0x1ac> + .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2e514 <_sk_load_565_dst_hsw_lowp+0x1ac> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 - .byte 233,8,1,0,0 // jmpq 2da9b <_sk_load_565_dst_hsw_lowp+0x147> + .byte 233,8,1,0,0 // jmpq 2e4af <_sk_load_565_dst_hsw_lowp+0x147> .byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4 - .byte 233,253,0,0,0 // jmpq 2da9b <_sk_load_565_dst_hsw_lowp+0x147> + .byte 233,253,0,0,0 // jmpq 2e4af <_sk_load_565_dst_hsw_lowp+0x147> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5 .byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4 .byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5 .byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4 - .byte 233,218,0,0,0 // jmpq 2da9b <_sk_load_565_dst_hsw_lowp+0x147> + .byte 233,218,0,0,0 // jmpq 2e4af <_sk_load_565_dst_hsw_lowp+0x147> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5 .byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4 @@ -44844,7 +45387,7 @@ _sk_load_565_dst_hsw_lowp: .byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4 .byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5 .byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4 - .byte 233,155,0,0,0 // jmpq 2da9b <_sk_load_565_dst_hsw_lowp+0x147> + .byte 233,155,0,0,0 // jmpq 2e4af <_sk_load_565_dst_hsw_lowp+0x147> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5 .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4 @@ -44856,7 +45399,7 @@ _sk_load_565_dst_hsw_lowp: .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4 .byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5 .byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4 - .byte 235,83 // jmp 2da9b <_sk_load_565_dst_hsw_lowp+0x147> + .byte 235,83 // jmp 2e4af <_sk_load_565_dst_hsw_lowp+0x147> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5 .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4 @@ -44870,13 +45413,13 @@ _sk_load_565_dst_hsw_lowp: .byte 196,193,122,111,52,80 // vmovdqu (%r8,%rdx,2),%xmm6 .byte 196,227,77,56,237,1 // vinserti128 $0x1,%xmm5,%ymm6,%ymm5 .byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4 - .byte 196,226,125,121,45,196,196,0,0 // vpbroadcastw 0xc4c4(%rip),%ymm5 # 39f68 <_sk_srcover_bgra_8888_sse2_lowp+0xa14> + .byte 196,226,125,121,45,208,196,0,0 // vpbroadcastw 0xc4d0(%rip),%ymm5 # 3a988 <_sk_srcover_bgra_8888_sse2_lowp+0xa20> .byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6 .byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5 .byte 197,205,113,212,5 // vpsrlw $0x5,%ymm4,%ymm6 - .byte 196,226,125,121,61,175,196,0,0 // vpbroadcastw 0xc4af(%rip),%ymm7 # 39f6a <_sk_srcover_bgra_8888_sse2_lowp+0xa16> + .byte 196,226,125,121,61,187,196,0,0 // vpbroadcastw 0xc4bb(%rip),%ymm7 # 3a98a <_sk_srcover_bgra_8888_sse2_lowp+0xa22> .byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6 - .byte 196,226,125,121,61,164,196,0,0 // vpbroadcastw 0xc4a4(%rip),%ymm7 # 39f6c <_sk_srcover_bgra_8888_sse2_lowp+0xa18> + .byte 196,226,125,121,61,176,196,0,0 // vpbroadcastw 0xc4b0(%rip),%ymm7 # 3a98c <_sk_srcover_bgra_8888_sse2_lowp+0xa24> .byte 197,221,219,255 // vpand %ymm7,%ymm4,%ymm7 .byte 197,221,113,212,13 // vpsrlw $0xd,%ymm4,%ymm4 .byte 197,213,235,228 // vpor %ymm4,%ymm5,%ymm4 @@ -44887,7 +45430,7 @@ _sk_load_565_dst_hsw_lowp: .byte 197,197,113,215,2 // vpsrlw $0x2,%ymm7,%ymm7 .byte 197,205,235,247 // vpor %ymm7,%ymm6,%ymm6 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,121,61,114,196,0,0 // vpbroadcastw 0xc472(%rip),%ymm7 # 39f6e <_sk_srcover_bgra_8888_sse2_lowp+0xa1a> + .byte 196,226,125,121,61,126,196,0,0 // vpbroadcastw 0xc47e(%rip),%ymm7 # 3a98e <_sk_srcover_bgra_8888_sse2_lowp+0xa26> .byte 255,224 // jmpq *%rax .byte 102,144 // xchg %ax,%ax .byte 133,254 // test %edi,%esi @@ -44938,10 +45481,10 @@ _sk_store_565_hsw_lowp: .byte 76,15,175,193 // imul %rcx,%r8 .byte 77,1,192 // add %r8,%r8 .byte 76,3,0 // add (%rax),%r8 - .byte 196,98,125,121,5,27,196,0,0 // vpbroadcastw 0xc41b(%rip),%ymm8 # 39f70 <_sk_srcover_bgra_8888_sse2_lowp+0xa1c> + .byte 196,98,125,121,5,39,196,0,0 // vpbroadcastw 0xc427(%rip),%ymm8 # 3a990 <_sk_srcover_bgra_8888_sse2_lowp+0xa28> .byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9 .byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8 - .byte 196,98,125,121,13,10,196,0,0 // vpbroadcastw 0xc40a(%rip),%ymm9 # 39f72 <_sk_srcover_bgra_8888_sse2_lowp+0xa1e> + .byte 196,98,125,121,13,22,196,0,0 // vpbroadcastw 0xc416(%rip),%ymm9 # 3a992 <_sk_srcover_bgra_8888_sse2_lowp+0xa2a> .byte 197,173,113,241,3 // vpsllw $0x3,%ymm1,%ymm10 .byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 @@ -44951,31 +45494,31 @@ _sk_store_565_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,31 // ja 2dbaa <_sk_store_565_hsw_lowp+0x6e> + .byte 119,31 // ja 2e5be <_sk_store_565_hsw_lowp+0x6e> .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2dc58 <_sk_store_565_hsw_lowp+0x11c> + .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2e66c <_sk_store_565_hsw_lowp+0x11c> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2) - .byte 233,167,0,0,0 // jmpq 2dc51 <_sk_store_565_hsw_lowp+0x115> + .byte 233,167,0,0,0 // jmpq 2e665 <_sk_store_565_hsw_lowp+0x115> .byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2) - .byte 233,156,0,0,0 // jmpq 2dc51 <_sk_store_565_hsw_lowp+0x115> + .byte 233,156,0,0,0 // jmpq 2e665 <_sk_store_565_hsw_lowp+0x115> .byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2) .byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2) - .byte 233,137,0,0,0 // jmpq 2dc51 <_sk_store_565_hsw_lowp+0x115> + .byte 233,137,0,0,0 // jmpq 2e665 <_sk_store_565_hsw_lowp+0x115> .byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2) .byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2) .byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2) .byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2) - .byte 235,105 // jmp 2dc51 <_sk_store_565_hsw_lowp+0x115> + .byte 235,105 // jmp 2e665 <_sk_store_565_hsw_lowp+0x115> .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2) .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2) .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2) - .byte 235,55 // jmp 2dc4b <_sk_store_565_hsw_lowp+0x10f> + .byte 235,55 // jmp 2e65f <_sk_store_565_hsw_lowp+0x10f> .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2) .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 @@ -44998,7 +45541,7 @@ _sk_store_565_hsw_lowp: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 120,255 // js 2dc6d <_sk_store_565_hsw_lowp+0x131> + .byte 120,255 // js 2e681 <_sk_store_565_hsw_lowp+0x131> .byte 255 // (bad) .byte 255,112,255 // pushq -0x1(%rax) .byte 255 // (bad) @@ -45110,13 +45653,13 @@ _sk_gather_565_hsw_lowp: .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax .byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0 .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0 - .byte 196,226,125,121,13,78,193,0,0 // vpbroadcastw 0xc14e(%rip),%ymm1 # 39f74 <_sk_srcover_bgra_8888_sse2_lowp+0xa20> + .byte 196,226,125,121,13,90,193,0,0 // vpbroadcastw 0xc15a(%rip),%ymm1 # 3a994 <_sk_srcover_bgra_8888_sse2_lowp+0xa2c> .byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2 .byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1 .byte 197,237,113,208,5 // vpsrlw $0x5,%ymm0,%ymm2 - .byte 196,226,125,121,29,57,193,0,0 // vpbroadcastw 0xc139(%rip),%ymm3 # 39f76 <_sk_srcover_bgra_8888_sse2_lowp+0xa22> + .byte 196,226,125,121,29,69,193,0,0 // vpbroadcastw 0xc145(%rip),%ymm3 # 3a996 <_sk_srcover_bgra_8888_sse2_lowp+0xa2e> .byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2 - .byte 196,226,125,121,29,46,193,0,0 // vpbroadcastw 0xc12e(%rip),%ymm3 # 39f78 <_sk_srcover_bgra_8888_sse2_lowp+0xa24> + .byte 196,226,125,121,29,58,193,0,0 // vpbroadcastw 0xc13a(%rip),%ymm3 # 3a998 <_sk_srcover_bgra_8888_sse2_lowp+0xa30> .byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3 .byte 197,253,113,208,13 // vpsrlw $0xd,%ymm0,%ymm0 .byte 197,245,235,192 // vpor %ymm0,%ymm1,%ymm0 @@ -45127,7 +45670,7 @@ _sk_gather_565_hsw_lowp: .byte 197,229,113,211,2 // vpsrlw $0x2,%ymm3,%ymm3 .byte 197,237,235,211 // vpor %ymm3,%ymm2,%ymm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,121,29,252,192,0,0 // vpbroadcastw 0xc0fc(%rip),%ymm3 # 39f7a <_sk_srcover_bgra_8888_sse2_lowp+0xa26> + .byte 196,226,125,121,29,8,193,0,0 // vpbroadcastw 0xc108(%rip),%ymm3 # 3a99a <_sk_srcover_bgra_8888_sse2_lowp+0xa32> .byte 255,224 // jmpq *%rax HIDDEN _sk_load_4444_hsw_lowp @@ -45143,24 +45686,24 @@ _sk_load_4444_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,37 // ja 2debf <_sk_load_4444_hsw_lowp+0x3f> + .byte 119,37 // ja 2e8d3 <_sk_load_4444_hsw_lowp+0x3f> .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2e018 <_sk_load_4444_hsw_lowp+0x198> + .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2ea2c <_sk_load_4444_hsw_lowp+0x198> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 233,8,1,0,0 // jmpq 2dfc7 <_sk_load_4444_hsw_lowp+0x147> + .byte 233,8,1,0,0 // jmpq 2e9db <_sk_load_4444_hsw_lowp+0x147> .byte 196,193,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm0 - .byte 233,253,0,0,0 // jmpq 2dfc7 <_sk_load_4444_hsw_lowp+0x147> + .byte 233,253,0,0,0 // jmpq 2e9db <_sk_load_4444_hsw_lowp+0x147> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,193,121,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1 .byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0 .byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1 .byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0 - .byte 233,218,0,0,0 // jmpq 2dfc7 <_sk_load_4444_hsw_lowp+0x147> + .byte 233,218,0,0,0 // jmpq 2e9db <_sk_load_4444_hsw_lowp+0x147> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,193,121,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1 .byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0 @@ -45170,7 +45713,7 @@ _sk_load_4444_hsw_lowp: .byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0 .byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1 .byte 196,227,125,2,193,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm0 - .byte 233,155,0,0,0 // jmpq 2dfc7 <_sk_load_4444_hsw_lowp+0x147> + .byte 233,155,0,0,0 // jmpq 2e9db <_sk_load_4444_hsw_lowp+0x147> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,193,121,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1 .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0 @@ -45182,7 +45725,7 @@ _sk_load_4444_hsw_lowp: .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0 .byte 196,193,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm1 .byte 196,227,117,2,192,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm0 - .byte 235,83 // jmp 2dfc7 <_sk_load_4444_hsw_lowp+0x147> + .byte 235,83 // jmp 2e9db <_sk_load_4444_hsw_lowp+0x147> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,193,121,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1 .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0 @@ -45198,7 +45741,7 @@ _sk_load_4444_hsw_lowp: .byte 196,227,117,2,192,192 // vpblendd $0xc0,%ymm0,%ymm1,%ymm0 .byte 197,245,113,208,12 // vpsrlw $0xc,%ymm0,%ymm1 .byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2 - .byte 196,226,125,121,29,162,191,0,0 // vpbroadcastw 0xbfa2(%rip),%ymm3 # 39f7c <_sk_srcover_bgra_8888_sse2_lowp+0xa28> + .byte 196,226,125,121,29,174,191,0,0 // vpbroadcastw 0xbfae(%rip),%ymm3 # 3a99c <_sk_srcover_bgra_8888_sse2_lowp+0xa34> .byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2 .byte 197,189,113,208,4 // vpsrlw $0x4,%ymm0,%ymm8 .byte 197,61,219,195 // vpand %ymm3,%ymm8,%ymm8 @@ -45263,24 +45806,24 @@ _sk_load_4444_dst_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,37 // ja 2e093 <_sk_load_4444_dst_hsw_lowp+0x3f> + .byte 119,37 // ja 2eaa7 <_sk_load_4444_dst_hsw_lowp+0x3f> .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2e1ec <_sk_load_4444_dst_hsw_lowp+0x198> + .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 2ec00 <_sk_load_4444_dst_hsw_lowp+0x198> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 - .byte 233,8,1,0,0 // jmpq 2e19b <_sk_load_4444_dst_hsw_lowp+0x147> + .byte 233,8,1,0,0 // jmpq 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147> .byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4 - .byte 233,253,0,0,0 // jmpq 2e19b <_sk_load_4444_dst_hsw_lowp+0x147> + .byte 233,253,0,0,0 // jmpq 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5 .byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4 .byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5 .byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4 - .byte 233,218,0,0,0 // jmpq 2e19b <_sk_load_4444_dst_hsw_lowp+0x147> + .byte 233,218,0,0,0 // jmpq 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5 .byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4 @@ -45290,7 +45833,7 @@ _sk_load_4444_dst_hsw_lowp: .byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4 .byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5 .byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4 - .byte 233,155,0,0,0 // jmpq 2e19b <_sk_load_4444_dst_hsw_lowp+0x147> + .byte 233,155,0,0,0 // jmpq 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5 .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4 @@ -45302,7 +45845,7 @@ _sk_load_4444_dst_hsw_lowp: .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4 .byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5 .byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4 - .byte 235,83 // jmp 2e19b <_sk_load_4444_dst_hsw_lowp+0x147> + .byte 235,83 // jmp 2ebaf <_sk_load_4444_dst_hsw_lowp+0x147> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5 .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4 @@ -45318,7 +45861,7 @@ _sk_load_4444_dst_hsw_lowp: .byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4 .byte 197,213,113,212,12 // vpsrlw $0xc,%ymm4,%ymm5 .byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6 - .byte 196,226,125,121,61,208,189,0,0 // vpbroadcastw 0xbdd0(%rip),%ymm7 # 39f7e <_sk_srcover_bgra_8888_sse2_lowp+0xa2a> + .byte 196,226,125,121,61,220,189,0,0 // vpbroadcastw 0xbddc(%rip),%ymm7 # 3a99e <_sk_srcover_bgra_8888_sse2_lowp+0xa36> .byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6 .byte 197,189,113,212,4 // vpsrlw $0x4,%ymm4,%ymm8 .byte 197,61,219,199 // vpand %ymm7,%ymm8,%ymm8 @@ -45379,13 +45922,13 @@ _sk_store_4444_hsw_lowp: .byte 76,15,175,193 // imul %rcx,%r8 .byte 77,1,192 // add %r8,%r8 .byte 76,3,0 // add (%rax),%r8 - .byte 196,98,125,121,5,63,189,0,0 // vpbroadcastw 0xbd3f(%rip),%ymm8 # 39f80 <_sk_srcover_bgra_8888_sse2_lowp+0xa2c> + .byte 196,98,125,121,5,75,189,0,0 // vpbroadcastw 0xbd4b(%rip),%ymm8 # 3a9a0 <_sk_srcover_bgra_8888_sse2_lowp+0xa38> .byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9 .byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8 .byte 197,181,113,241,4 // vpsllw $0x4,%ymm1,%ymm9 - .byte 197,53,219,13,72,189,0,0 // vpand 0xbd48(%rip),%ymm9,%ymm9 # 39fa0 <_sk_srcover_bgra_8888_sse2_lowp+0xa4c> + .byte 197,53,219,13,84,189,0,0 // vpand 0xbd54(%rip),%ymm9,%ymm9 # 3a9c0 <_sk_srcover_bgra_8888_sse2_lowp+0xa58> .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 - .byte 196,98,125,121,13,90,189,0,0 // vpbroadcastw 0xbd5a(%rip),%ymm9 # 39fc0 <_sk_srcover_bgra_8888_sse2_lowp+0xa6c> + .byte 196,98,125,121,13,102,189,0,0 // vpbroadcastw 0xbd66(%rip),%ymm9 # 3a9e0 <_sk_srcover_bgra_8888_sse2_lowp+0xa78> .byte 196,65,109,219,201 // vpand %ymm9,%ymm2,%ymm9 .byte 197,173,113,211,4 // vpsrlw $0x4,%ymm3,%ymm10 .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9 @@ -45394,31 +45937,31 @@ _sk_store_4444_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,31 // ja 2e2a3 <_sk_store_4444_hsw_lowp+0x7b> + .byte 119,31 // ja 2ecb7 <_sk_store_4444_hsw_lowp+0x7b> .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,194,0,0,0 // lea 0xc2(%rip),%r9 # 2e350 <_sk_store_4444_hsw_lowp+0x128> + .byte 76,141,13,194,0,0,0 // lea 0xc2(%rip),%r9 # 2ed64 <_sk_store_4444_hsw_lowp+0x128> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2) - .byte 233,167,0,0,0 // jmpq 2e34a <_sk_store_4444_hsw_lowp+0x122> + .byte 233,167,0,0,0 // jmpq 2ed5e <_sk_store_4444_hsw_lowp+0x122> .byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2) - .byte 233,156,0,0,0 // jmpq 2e34a <_sk_store_4444_hsw_lowp+0x122> + .byte 233,156,0,0,0 // jmpq 2ed5e <_sk_store_4444_hsw_lowp+0x122> .byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2) .byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2) - .byte 233,137,0,0,0 // jmpq 2e34a <_sk_store_4444_hsw_lowp+0x122> + .byte 233,137,0,0,0 // jmpq 2ed5e <_sk_store_4444_hsw_lowp+0x122> .byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2) .byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2) .byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2) .byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2) - .byte 235,105 // jmp 2e34a <_sk_store_4444_hsw_lowp+0x122> + .byte 235,105 // jmp 2ed5e <_sk_store_4444_hsw_lowp+0x122> .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2) .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2) .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2) - .byte 235,55 // jmp 2e344 <_sk_store_4444_hsw_lowp+0x11c> + .byte 235,55 // jmp 2ed58 <_sk_store_4444_hsw_lowp+0x11c> .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2) .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 @@ -45441,7 +45984,7 @@ _sk_store_4444_hsw_lowp: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 121,255 // jns 2e365 <_sk_store_4444_hsw_lowp+0x13d> + .byte 121,255 // jns 2ed79 <_sk_store_4444_hsw_lowp+0x13d> .byte 255 // (bad) .byte 255,113,255 // pushq -0x1(%rcx) .byte 255 // (bad) @@ -45556,7 +46099,7 @@ _sk_gather_4444_hsw_lowp: .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0 .byte 197,245,113,208,12 // vpsrlw $0xc,%ymm0,%ymm1 .byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2 - .byte 196,226,125,121,29,154,186,0,0 // vpbroadcastw 0xba9a(%rip),%ymm3 # 39fc2 <_sk_srcover_bgra_8888_sse2_lowp+0xa6e> + .byte 196,226,125,121,29,166,186,0,0 // vpbroadcastw 0xbaa6(%rip),%ymm3 # 3a9e2 <_sk_srcover_bgra_8888_sse2_lowp+0xa7a> .byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2 .byte 197,189,113,208,4 // vpsrlw $0x4,%ymm0,%ymm8 .byte 197,61,219,195 // vpand %ymm3,%ymm8,%ymm8 @@ -45584,38 +46127,38 @@ _sk_load_a8_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,37 // ja 2e59f <_sk_load_a8_hsw_lowp+0x3c> + .byte 119,37 // ja 2efb3 <_sk_load_a8_hsw_lowp+0x3c> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,220,0,0,0 // lea 0xdc(%rip),%r9 # 2e664 <_sk_load_a8_hsw_lowp+0x101> + .byte 76,141,13,220,0,0,0 // lea 0xdc(%rip),%r9 # 2f078 <_sk_load_a8_hsw_lowp+0x101> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 233,175,0,0,0 // jmpq 2e64e <_sk_load_a8_hsw_lowp+0xeb> + .byte 233,175,0,0,0 // jmpq 2f062 <_sk_load_a8_hsw_lowp+0xeb> .byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0 - .byte 233,164,0,0,0 // jmpq 2e64e <_sk_load_a8_hsw_lowp+0xeb> + .byte 233,164,0,0,0 // jmpq 2f062 <_sk_load_a8_hsw_lowp+0xeb> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0 .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax .byte 197,249,110,200 // vmovd %eax,%xmm1 .byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0 - .byte 233,132,0,0,0 // jmpq 2e64e <_sk_load_a8_hsw_lowp+0xeb> + .byte 233,132,0,0,0 // jmpq 2f062 <_sk_load_a8_hsw_lowp+0xeb> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0 .byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0 .byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0 .byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1 .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0 - .byte 235,90 // jmp 2e64e <_sk_load_a8_hsw_lowp+0xeb> + .byte 235,90 // jmp 2f062 <_sk_load_a8_hsw_lowp+0xeb> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0 .byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0 .byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0 .byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1 .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0 - .byte 235,48 // jmp 2e64e <_sk_load_a8_hsw_lowp+0xeb> + .byte 235,48 // jmp 2f062 <_sk_load_a8_hsw_lowp+0xeb> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0 .byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0 @@ -45673,38 +46216,38 @@ _sk_load_a8_dst_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,37 // ja 2e6dc <_sk_load_a8_dst_hsw_lowp+0x3c> + .byte 119,37 // ja 2f0f0 <_sk_load_a8_dst_hsw_lowp+0x3c> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2e7a0 <_sk_load_a8_dst_hsw_lowp+0x100> + .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2f1b4 <_sk_load_a8_dst_hsw_lowp+0x100> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 - .byte 233,175,0,0,0 // jmpq 2e78b <_sk_load_a8_dst_hsw_lowp+0xeb> + .byte 233,175,0,0,0 // jmpq 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb> .byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4 - .byte 233,164,0,0,0 // jmpq 2e78b <_sk_load_a8_dst_hsw_lowp+0xeb> + .byte 233,164,0,0,0 // jmpq 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4 .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax .byte 197,249,110,232 // vmovd %eax,%xmm5 .byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4 - .byte 233,132,0,0,0 // jmpq 2e78b <_sk_load_a8_dst_hsw_lowp+0xeb> + .byte 233,132,0,0,0 // jmpq 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4 .byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4 .byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4 .byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5 .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4 - .byte 235,90 // jmp 2e78b <_sk_load_a8_dst_hsw_lowp+0xeb> + .byte 235,90 // jmp 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4 .byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4 .byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4 .byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5 .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4 - .byte 235,48 // jmp 2e78b <_sk_load_a8_dst_hsw_lowp+0xeb> + .byte 235,48 // jmp 2f19f <_sk_load_a8_dst_hsw_lowp+0xeb> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4 .byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4 @@ -45761,7 +46304,7 @@ _sk_store_a8_hsw_lowp: .byte 76,15,175,193 // imul %rcx,%r8 .byte 76,3,0 // add (%rax),%r8 .byte 196,195,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm8 - .byte 197,121,111,13,41,192,0,0 // vmovdqa 0xc029(%rip),%xmm9 # 3a820 <_sk_srcover_bgra_8888_sse2_lowp+0x12cc> + .byte 197,121,111,13,53,192,0,0 // vmovdqa 0xc035(%rip),%xmm9 # 3b240 <_sk_srcover_bgra_8888_sse2_lowp+0x12d8> .byte 196,66,57,0,193 // vpshufb %xmm9,%xmm8,%xmm8 .byte 196,66,97,0,201 // vpshufb %xmm9,%xmm3,%xmm9 .byte 196,65,49,108,192 // vpunpcklqdq %xmm8,%xmm9,%xmm8 @@ -45769,28 +46312,28 @@ _sk_store_a8_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,28 // ja 2e82c <_sk_store_a8_hsw_lowp+0x50> + .byte 119,28 // ja 2f240 <_sk_store_a8_hsw_lowp+0x50> .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 2e8ac <_sk_store_a8_hsw_lowp+0xd0> + .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 2f2c0 <_sk_store_a8_hsw_lowp+0xd0> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 196,67,121,20,4,16,0 // vpextrb $0x0,%xmm8,(%r8,%rdx,1) - .byte 235,121 // jmp 2e8a5 <_sk_store_a8_hsw_lowp+0xc9> + .byte 235,121 // jmp 2f2b9 <_sk_store_a8_hsw_lowp+0xc9> .byte 196,65,122,127,4,16 // vmovdqu %xmm8,(%r8,%rdx,1) - .byte 235,113 // jmp 2e8a5 <_sk_store_a8_hsw_lowp+0xc9> + .byte 235,113 // jmp 2f2b9 <_sk_store_a8_hsw_lowp+0xc9> .byte 196,67,121,20,68,16,2,2 // vpextrb $0x2,%xmm8,0x2(%r8,%rdx,1) .byte 196,67,121,21,4,16,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,1) - .byte 235,96 // jmp 2e8a5 <_sk_store_a8_hsw_lowp+0xc9> + .byte 235,96 // jmp 2f2b9 <_sk_store_a8_hsw_lowp+0xc9> .byte 196,67,121,20,68,16,6,6 // vpextrb $0x6,%xmm8,0x6(%r8,%rdx,1) .byte 196,67,121,20,68,16,5,5 // vpextrb $0x5,%xmm8,0x5(%r8,%rdx,1) .byte 196,67,121,20,68,16,4,4 // vpextrb $0x4,%xmm8,0x4(%r8,%rdx,1) .byte 196,65,121,126,4,16 // vmovd %xmm8,(%r8,%rdx,1) - .byte 235,64 // jmp 2e8a5 <_sk_store_a8_hsw_lowp+0xc9> + .byte 235,64 // jmp 2f2b9 <_sk_store_a8_hsw_lowp+0xc9> .byte 196,67,121,20,68,16,10,10 // vpextrb $0xa,%xmm8,0xa(%r8,%rdx,1) .byte 196,67,121,20,68,16,9,9 // vpextrb $0x9,%xmm8,0x9(%r8,%rdx,1) .byte 196,67,121,20,68,16,8,8 // vpextrb $0x8,%xmm8,0x8(%r8,%rdx,1) - .byte 235,32 // jmp 2e89f <_sk_store_a8_hsw_lowp+0xc3> + .byte 235,32 // jmp 2f2b3 <_sk_store_a8_hsw_lowp+0xc3> .byte 196,67,121,20,68,16,14,14 // vpextrb $0xe,%xmm8,0xe(%r8,%rdx,1) .byte 196,67,121,20,68,16,13,13 // vpextrb $0xd,%xmm8,0xd(%r8,%rdx,1) .byte 196,67,121,20,68,16,12,12 // vpextrb $0xc,%xmm8,0xc(%r8,%rdx,1) @@ -45799,7 +46342,7 @@ _sk_store_a8_hsw_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 15,31,0 // nopl (%rax) - .byte 119,255 // ja 2e8ad <_sk_store_a8_hsw_lowp+0xd1> + .byte 119,255 // ja 2f2c1 <_sk_store_a8_hsw_lowp+0xd1> .byte 255 // (bad) .byte 255,144,255,255,255,136 // callq *-0x77000001(%rax) .byte 255 // (bad) @@ -45940,38 +46483,38 @@ _sk_load_g8_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,37 // ja 2eacb <_sk_load_g8_hsw_lowp+0x3c> + .byte 119,37 // ja 2f4df <_sk_load_g8_hsw_lowp+0x3c> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,224,0,0,0 // lea 0xe0(%rip),%r9 # 2eb94 <_sk_load_g8_hsw_lowp+0x105> + .byte 76,141,13,224,0,0,0 // lea 0xe0(%rip),%r9 # 2f5a8 <_sk_load_g8_hsw_lowp+0x105> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax .byte 197,249,110,192 // vmovd %eax,%xmm0 - .byte 233,175,0,0,0 // jmpq 2eb7a <_sk_load_g8_hsw_lowp+0xeb> + .byte 233,175,0,0,0 // jmpq 2f58e <_sk_load_g8_hsw_lowp+0xeb> .byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0 - .byte 233,164,0,0,0 // jmpq 2eb7a <_sk_load_g8_hsw_lowp+0xeb> + .byte 233,164,0,0,0 // jmpq 2f58e <_sk_load_g8_hsw_lowp+0xeb> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0 .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax .byte 197,249,110,200 // vmovd %eax,%xmm1 .byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0 - .byte 233,132,0,0,0 // jmpq 2eb7a <_sk_load_g8_hsw_lowp+0xeb> + .byte 233,132,0,0,0 // jmpq 2f58e <_sk_load_g8_hsw_lowp+0xeb> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0 .byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0 .byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0 .byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1 .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0 - .byte 235,90 // jmp 2eb7a <_sk_load_g8_hsw_lowp+0xeb> + .byte 235,90 // jmp 2f58e <_sk_load_g8_hsw_lowp+0xeb> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0 .byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0 .byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0 .byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1 .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0 - .byte 235,48 // jmp 2eb7a <_sk_load_g8_hsw_lowp+0xeb> + .byte 235,48 // jmp 2f58e <_sk_load_g8_hsw_lowp+0xeb> .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0 .byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0 .byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0 @@ -45981,7 +46524,7 @@ _sk_load_g8_hsw_lowp: .byte 196,227,113,2,192,8 // vpblendd $0x8,%xmm0,%xmm1,%xmm0 .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,121,29,58,180,0,0 // vpbroadcastw 0xb43a(%rip),%ymm3 # 39fc4 <_sk_srcover_bgra_8888_sse2_lowp+0xa70> + .byte 196,226,125,121,29,70,180,0,0 // vpbroadcastw 0xb446(%rip),%ymm3 # 3a9e4 <_sk_srcover_bgra_8888_sse2_lowp+0xa7c> .byte 197,253,111,200 // vmovdqa %ymm0,%ymm1 .byte 197,253,111,208 // vmovdqa %ymm0,%ymm2 .byte 255,224 // jmpq *%rax @@ -45992,7 +46535,7 @@ _sk_load_g8_hsw_lowp: .byte 255,66,255 // incl -0x1(%rdx) .byte 255 // (bad) .byte 255 // (bad) - .byte 126,255 // jle 2eba1 <_sk_load_g8_hsw_lowp+0x112> + .byte 126,255 // jle 2f5b5 <_sk_load_g8_hsw_lowp+0x112> .byte 255 // (bad) .byte 255,118,255 // pushq -0x1(%rsi) .byte 255 // (bad) @@ -46032,38 +46575,38 @@ _sk_load_g8_dst_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,37 // ja 2ec0c <_sk_load_g8_dst_hsw_lowp+0x3c> + .byte 119,37 // ja 2f620 <_sk_load_g8_dst_hsw_lowp+0x3c> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2ecd8 <_sk_load_g8_dst_hsw_lowp+0x108> + .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2f6ec <_sk_load_g8_dst_hsw_lowp+0x108> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax .byte 197,249,110,224 // vmovd %eax,%xmm4 - .byte 233,175,0,0,0 // jmpq 2ecbb <_sk_load_g8_dst_hsw_lowp+0xeb> + .byte 233,175,0,0,0 // jmpq 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb> .byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4 - .byte 233,164,0,0,0 // jmpq 2ecbb <_sk_load_g8_dst_hsw_lowp+0xeb> + .byte 233,164,0,0,0 // jmpq 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4 .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax .byte 197,249,110,232 // vmovd %eax,%xmm5 .byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4 - .byte 233,132,0,0,0 // jmpq 2ecbb <_sk_load_g8_dst_hsw_lowp+0xeb> + .byte 233,132,0,0,0 // jmpq 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4 .byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4 .byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4 .byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5 .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4 - .byte 235,90 // jmp 2ecbb <_sk_load_g8_dst_hsw_lowp+0xeb> + .byte 235,90 // jmp 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4 .byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4 .byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4 .byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5 .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4 - .byte 235,48 // jmp 2ecbb <_sk_load_g8_dst_hsw_lowp+0xeb> + .byte 235,48 // jmp 2f6cf <_sk_load_g8_dst_hsw_lowp+0xeb> .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4 .byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4 .byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4 @@ -46073,7 +46616,7 @@ _sk_load_g8_dst_hsw_lowp: .byte 196,227,81,2,228,8 // vpblendd $0x8,%xmm4,%xmm5,%xmm4 .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,121,61,251,178,0,0 // vpbroadcastw 0xb2fb(%rip),%ymm7 # 39fc6 <_sk_srcover_bgra_8888_sse2_lowp+0xa72> + .byte 196,226,125,121,61,7,179,0,0 // vpbroadcastw 0xb307(%rip),%ymm7 # 3a9e6 <_sk_srcover_bgra_8888_sse2_lowp+0xa7e> .byte 197,253,111,236 // vmovdqa %ymm4,%ymm5 .byte 197,253,111,244 // vmovdqa %ymm4,%ymm6 .byte 255,224 // jmpq *%rax @@ -46087,7 +46630,7 @@ _sk_load_g8_dst_hsw_lowp: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 123,255 // jnp 2ece5 <_sk_load_g8_dst_hsw_lowp+0x115> + .byte 123,255 // jnp 2f6f9 <_sk_load_g8_dst_hsw_lowp+0x115> .byte 255 // (bad) .byte 255,115,255 // pushq -0x1(%rbx) .byte 255 // (bad) @@ -46117,12 +46660,12 @@ HIDDEN _sk_luminance_to_alpha_hsw_lowp .globl _sk_luminance_to_alpha_hsw_lowp FUNCTION(_sk_luminance_to_alpha_hsw_lowp) _sk_luminance_to_alpha_hsw_lowp: - .byte 196,226,125,121,29,171,178,0,0 // vpbroadcastw 0xb2ab(%rip),%ymm3 # 39fc8 <_sk_srcover_bgra_8888_sse2_lowp+0xa74> + .byte 196,226,125,121,29,183,178,0,0 // vpbroadcastw 0xb2b7(%rip),%ymm3 # 3a9e8 <_sk_srcover_bgra_8888_sse2_lowp+0xa80> .byte 197,253,213,195 // vpmullw %ymm3,%ymm0,%ymm0 - .byte 196,226,125,121,29,160,178,0,0 // vpbroadcastw 0xb2a0(%rip),%ymm3 # 39fca <_sk_srcover_bgra_8888_sse2_lowp+0xa76> + .byte 196,226,125,121,29,172,178,0,0 // vpbroadcastw 0xb2ac(%rip),%ymm3 # 3a9ea <_sk_srcover_bgra_8888_sse2_lowp+0xa82> .byte 197,245,213,203 // vpmullw %ymm3,%ymm1,%ymm1 .byte 197,245,253,192 // vpaddw %ymm0,%ymm1,%ymm0 - .byte 196,226,125,121,13,145,178,0,0 // vpbroadcastw 0xb291(%rip),%ymm1 # 39fcc <_sk_srcover_bgra_8888_sse2_lowp+0xa78> + .byte 196,226,125,121,13,157,178,0,0 // vpbroadcastw 0xb29d(%rip),%ymm1 # 3a9ec <_sk_srcover_bgra_8888_sse2_lowp+0xa84> .byte 197,237,213,201 // vpmullw %ymm1,%ymm2,%ymm1 .byte 197,253,253,193 // vpaddw %ymm1,%ymm0,%ymm0 .byte 197,229,113,208,8 // vpsrlw $0x8,%ymm0,%ymm3 @@ -46221,7 +46764,7 @@ _sk_gather_g8_hsw_lowp: .byte 196,227,121,32,192,15 // vpinsrb $0xf,%eax,%xmm0,%xmm0 .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,121,29,212,176,0,0 // vpbroadcastw 0xb0d4(%rip),%ymm3 # 39fce <_sk_srcover_bgra_8888_sse2_lowp+0xa7a> + .byte 196,226,125,121,29,224,176,0,0 // vpbroadcastw 0xb0e0(%rip),%ymm3 # 3a9ee <_sk_srcover_bgra_8888_sse2_lowp+0xa86> .byte 197,253,111,200 // vmovdqa %ymm0,%ymm1 .byte 197,253,111,208 // vmovdqa %ymm0,%ymm2 .byte 255,224 // jmpq *%rax @@ -46232,13 +46775,13 @@ FUNCTION(_sk_scale_1_float_hsw_lowp) _sk_scale_1_float_hsw_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,122,16,0 // vmovss (%rax),%xmm8 - .byte 197,122,16,13,30,169,0,0 // vmovss 0xa91e(%rip),%xmm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,98,57,169,13,229,168,0,0 // vfmadd213ss 0xa8e5(%rip),%xmm8,%xmm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 197,122,16,13,30,169,0,0 // vmovss 0xa91e(%rip),%xmm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,98,57,169,13,229,168,0,0 // vfmadd213ss 0xa8e5(%rip),%xmm8,%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8 .byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0 - .byte 196,98,125,121,13,154,176,0,0 // vpbroadcastw 0xb09a(%rip),%ymm9 # 39fd0 <_sk_srcover_bgra_8888_sse2_lowp+0xa7c> + .byte 196,98,125,121,13,166,176,0,0 // vpbroadcastw 0xb0a6(%rip),%ymm9 # 3a9f0 <_sk_srcover_bgra_8888_sse2_lowp+0xa88> .byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1 @@ -46259,12 +46802,12 @@ FUNCTION(_sk_lerp_1_float_hsw_lowp) _sk_lerp_1_float_hsw_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 197,122,16,0 // vmovss (%rax),%xmm8 - .byte 197,122,16,13,180,168,0,0 // vmovss 0xa8b4(%rip),%xmm9 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,98,57,169,13,123,168,0,0 // vfmadd213ss 0xa87b(%rip),%xmm8,%xmm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 197,122,16,13,180,168,0,0 // vmovss 0xa8b4(%rip),%xmm9 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,98,57,169,13,123,168,0,0 // vfmadd213ss 0xa87b(%rip),%xmm8,%xmm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 .byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8 - .byte 196,98,125,121,13,54,176,0,0 // vpbroadcastw 0xb036(%rip),%ymm9 # 39fd2 <_sk_srcover_bgra_8888_sse2_lowp+0xa7e> + .byte 196,98,125,121,13,66,176,0,0 // vpbroadcastw 0xb042(%rip),%ymm9 # 3a9f2 <_sk_srcover_bgra_8888_sse2_lowp+0xa8a> .byte 196,65,53,249,208 // vpsubw %ymm8,%ymm9,%ymm10 .byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11 .byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0 @@ -46301,38 +46844,38 @@ _sk_scale_u8_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,38 // ja 2f03a <_sk_scale_u8_hsw_lowp+0x3d> + .byte 119,38 // ja 2fa4e <_sk_scale_u8_hsw_lowp+0x3d> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 2f138 <_sk_scale_u8_hsw_lowp+0x13b> + .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 2fb4c <_sk_scale_u8_hsw_lowp+0x13b> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 - .byte 233,179,0,0,0 // jmpq 2f0ed <_sk_scale_u8_hsw_lowp+0xf0> + .byte 233,179,0,0,0 // jmpq 2fb01 <_sk_scale_u8_hsw_lowp+0xf0> .byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8 - .byte 233,168,0,0,0 // jmpq 2f0ed <_sk_scale_u8_hsw_lowp+0xf0> + .byte 233,168,0,0,0 // jmpq 2fb01 <_sk_scale_u8_hsw_lowp+0xf0> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8 .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax .byte 197,121,110,200 // vmovd %eax,%xmm9 .byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8 - .byte 233,135,0,0,0 // jmpq 2f0ed <_sk_scale_u8_hsw_lowp+0xf0> + .byte 233,135,0,0,0 // jmpq 2fb01 <_sk_scale_u8_hsw_lowp+0xf0> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8 .byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8 .byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8 .byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9 .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8 - .byte 235,92 // jmp 2f0ed <_sk_scale_u8_hsw_lowp+0xf0> + .byte 235,92 // jmp 2fb01 <_sk_scale_u8_hsw_lowp+0xf0> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8 .byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8 .byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8 .byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9 .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8 - .byte 235,49 // jmp 2f0ed <_sk_scale_u8_hsw_lowp+0xf0> + .byte 235,49 // jmp 2fb01 <_sk_scale_u8_hsw_lowp+0xf0> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8 .byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8 @@ -46342,7 +46885,7 @@ _sk_scale_u8_hsw_lowp: .byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8 .byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8 .byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0 - .byte 196,98,125,121,13,213,174,0,0 // vpbroadcastw 0xaed5(%rip),%ymm9 # 39fd4 <_sk_srcover_bgra_8888_sse2_lowp+0xa80> + .byte 196,98,125,121,13,225,174,0,0 // vpbroadcastw 0xaee1(%rip),%ymm9 # 3a9f4 <_sk_srcover_bgra_8888_sse2_lowp+0xa8c> .byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1 @@ -46363,7 +46906,7 @@ _sk_scale_u8_hsw_lowp: .byte 255,26 // lcall *(%rdx) .byte 255 // (bad) .byte 255 // (bad) - .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c02f144 <_sk_srcover_bgra_8888_sse2_lowp+0x4bff5bf0> + .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c02fb58 <_sk_srcover_bgra_8888_sse2_lowp+0x4bff5bf0> .byte 255 // (bad) .byte 255 // (bad) .byte 255,67,255 // incl -0x1(%rbx) @@ -46402,38 +46945,38 @@ _sk_lerp_u8_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,38 // ja 2f1b1 <_sk_lerp_u8_hsw_lowp+0x3d> + .byte 119,38 // ja 2fbc5 <_sk_lerp_u8_hsw_lowp+0x3d> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 2f2d4 <_sk_lerp_u8_hsw_lowp+0x160> + .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 2fce8 <_sk_lerp_u8_hsw_lowp+0x160> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 - .byte 233,179,0,0,0 // jmpq 2f264 <_sk_lerp_u8_hsw_lowp+0xf0> + .byte 233,179,0,0,0 // jmpq 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0> .byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8 - .byte 233,168,0,0,0 // jmpq 2f264 <_sk_lerp_u8_hsw_lowp+0xf0> + .byte 233,168,0,0,0 // jmpq 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8 .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax .byte 197,121,110,200 // vmovd %eax,%xmm9 .byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8 - .byte 233,135,0,0,0 // jmpq 2f264 <_sk_lerp_u8_hsw_lowp+0xf0> + .byte 233,135,0,0,0 // jmpq 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8 .byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8 .byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8 .byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9 .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8 - .byte 235,92 // jmp 2f264 <_sk_lerp_u8_hsw_lowp+0xf0> + .byte 235,92 // jmp 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8 .byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8 .byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8 .byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9 .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8 - .byte 235,49 // jmp 2f264 <_sk_lerp_u8_hsw_lowp+0xf0> + .byte 235,49 // jmp 2fc78 <_sk_lerp_u8_hsw_lowp+0xf0> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8 .byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8 @@ -46442,7 +46985,7 @@ _sk_lerp_u8_hsw_lowp: .byte 196,67,49,34,76,16,8,2 // vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm9,%xmm9 .byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8 .byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8 - .byte 196,98,125,121,13,100,173,0,0 // vpbroadcastw 0xad64(%rip),%ymm9 # 39fd6 <_sk_srcover_bgra_8888_sse2_lowp+0xa82> + .byte 196,98,125,121,13,112,173,0,0 // vpbroadcastw 0xad70(%rip),%ymm9 # 3a9f6 <_sk_srcover_bgra_8888_sse2_lowp+0xa8e> .byte 196,65,61,239,209 // vpxor %ymm9,%ymm8,%ymm10 .byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11 .byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0 @@ -46474,7 +47017,7 @@ _sk_lerp_u8_hsw_lowp: .byte 254 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 232,254,255,255,38 // callq 2702f2df <_sk_srcover_bgra_8888_sse2_lowp+0x26ff5d8b> + .byte 232,254,255,255,38 // callq 2702fcf3 <_sk_srcover_bgra_8888_sse2_lowp+0x26ff5d8b> .byte 255 // (bad) .byte 255 // (bad) .byte 255,30 // lcall *(%rsi) @@ -46495,7 +47038,7 @@ _sk_lerp_u8_hsw_lowp: .byte 255,52,255 // pushq (%rdi,%rdi,8) .byte 255 // (bad) .byte 255 // (bad) - .byte 124,255 // jl 2f301 <_sk_lerp_u8_hsw_lowp+0x18d> + .byte 124,255 // jl 2fd15 <_sk_lerp_u8_hsw_lowp+0x18d> .byte 255 // (bad) .byte 255,116,255,255 // pushq -0x1(%rdi,%rdi,8) .byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8) @@ -46516,24 +47059,24 @@ _sk_scale_565_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,38 // ja 2f350 <_sk_scale_565_hsw_lowp+0x40> + .byte 119,38 // ja 2fd64 <_sk_scale_565_hsw_lowp+0x40> .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 2f538 <_sk_scale_565_hsw_lowp+0x228> + .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 2ff4c <_sk_scale_565_hsw_lowp+0x228> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 - .byte 233,12,1,0,0 // jmpq 2f45c <_sk_scale_565_hsw_lowp+0x14c> + .byte 233,12,1,0,0 // jmpq 2fe70 <_sk_scale_565_hsw_lowp+0x14c> .byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8 - .byte 233,1,1,0,0 // jmpq 2f45c <_sk_scale_565_hsw_lowp+0x14c> + .byte 233,1,1,0,0 // jmpq 2fe70 <_sk_scale_565_hsw_lowp+0x14c> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9 .byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8 .byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9 .byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8 - .byte 233,221,0,0,0 // jmpq 2f45c <_sk_scale_565_hsw_lowp+0x14c> + .byte 233,221,0,0,0 // jmpq 2fe70 <_sk_scale_565_hsw_lowp+0x14c> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9 .byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8 @@ -46543,7 +47086,7 @@ _sk_scale_565_hsw_lowp: .byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8 .byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9 .byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8 - .byte 233,157,0,0,0 // jmpq 2f45c <_sk_scale_565_hsw_lowp+0x14c> + .byte 233,157,0,0,0 // jmpq 2fe70 <_sk_scale_565_hsw_lowp+0x14c> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9 .byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8 @@ -46555,7 +47098,7 @@ _sk_scale_565_hsw_lowp: .byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8 .byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9 .byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8 - .byte 235,84 // jmp 2f45c <_sk_scale_565_hsw_lowp+0x14c> + .byte 235,84 // jmp 2fe70 <_sk_scale_565_hsw_lowp+0x14c> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9 .byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8 @@ -46569,13 +47112,13 @@ _sk_scale_565_hsw_lowp: .byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10 .byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9 .byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8 - .byte 196,98,125,121,13,115,171,0,0 // vpbroadcastw 0xab73(%rip),%ymm9 # 39fd8 <_sk_srcover_bgra_8888_sse2_lowp+0xa84> + .byte 196,98,125,121,13,127,171,0,0 // vpbroadcastw 0xab7f(%rip),%ymm9 # 3a9f8 <_sk_srcover_bgra_8888_sse2_lowp+0xa90> .byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10 .byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9 .byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10 - .byte 196,98,125,121,29,91,171,0,0 // vpbroadcastw 0xab5b(%rip),%ymm11 # 39fda <_sk_srcover_bgra_8888_sse2_lowp+0xa86> + .byte 196,98,125,121,29,103,171,0,0 // vpbroadcastw 0xab67(%rip),%ymm11 # 3a9fa <_sk_srcover_bgra_8888_sse2_lowp+0xa92> .byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10 - .byte 196,98,125,121,29,79,171,0,0 // vpbroadcastw 0xab4f(%rip),%ymm11 # 39fdc <_sk_srcover_bgra_8888_sse2_lowp+0xa88> + .byte 196,98,125,121,29,91,171,0,0 // vpbroadcastw 0xab5b(%rip),%ymm11 # 3a9fc <_sk_srcover_bgra_8888_sse2_lowp+0xa94> .byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11 .byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 @@ -46585,7 +47128,7 @@ _sk_scale_565_hsw_lowp: .byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10 .byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11 .byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10 - .byte 196,98,125,121,29,22,171,0,0 // vpbroadcastw 0xab16(%rip),%ymm11 # 39fde <_sk_srcover_bgra_8888_sse2_lowp+0xa8a> + .byte 196,98,125,121,29,34,171,0,0 // vpbroadcastw 0xab22(%rip),%ymm11 # 3a9fe <_sk_srcover_bgra_8888_sse2_lowp+0xa96> .byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12 .byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11 .byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11 @@ -46595,7 +47138,7 @@ _sk_scale_565_hsw_lowp: .byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13 .byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11 .byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0 - .byte 196,98,125,121,5,226,170,0,0 // vpbroadcastw 0xaae2(%rip),%ymm8 # 39fe0 <_sk_srcover_bgra_8888_sse2_lowp+0xa8c> + .byte 196,98,125,121,5,238,170,0,0 // vpbroadcastw 0xaaee(%rip),%ymm8 # 3aa00 <_sk_srcover_bgra_8888_sse2_lowp+0xa98> .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0 .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0 .byte 197,181,213,201 // vpmullw %ymm1,%ymm9,%ymm1 @@ -46659,24 +47202,24 @@ _sk_lerp_565_hsw_lowp: .byte 36,15 // and $0xf,%al .byte 254,200 // dec %al .byte 60,14 // cmp $0xe,%al - .byte 119,38 // ja 2f5b4 <_sk_lerp_565_hsw_lowp+0x40> + .byte 119,38 // ja 2ffc8 <_sk_lerp_565_hsw_lowp+0x40> .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 2f7d0 <_sk_lerp_565_hsw_lowp+0x25c> + .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 301e4 <_sk_lerp_565_hsw_lowp+0x25c> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax .byte 197,121,110,192 // vmovd %eax,%xmm8 - .byte 233,12,1,0,0 // jmpq 2f6c0 <_sk_lerp_565_hsw_lowp+0x14c> + .byte 233,12,1,0,0 // jmpq 300d4 <_sk_lerp_565_hsw_lowp+0x14c> .byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8 - .byte 233,1,1,0,0 // jmpq 2f6c0 <_sk_lerp_565_hsw_lowp+0x14c> + .byte 233,1,1,0,0 // jmpq 300d4 <_sk_lerp_565_hsw_lowp+0x14c> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9 .byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8 .byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9 .byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8 - .byte 233,221,0,0,0 // jmpq 2f6c0 <_sk_lerp_565_hsw_lowp+0x14c> + .byte 233,221,0,0,0 // jmpq 300d4 <_sk_lerp_565_hsw_lowp+0x14c> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9 .byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8 @@ -46686,7 +47229,7 @@ _sk_lerp_565_hsw_lowp: .byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8 .byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9 .byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8 - .byte 233,157,0,0,0 // jmpq 2f6c0 <_sk_lerp_565_hsw_lowp+0x14c> + .byte 233,157,0,0,0 // jmpq 300d4 <_sk_lerp_565_hsw_lowp+0x14c> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9 .byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8 @@ -46698,7 +47241,7 @@ _sk_lerp_565_hsw_lowp: .byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8 .byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9 .byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8 - .byte 235,84 // jmp 2f6c0 <_sk_lerp_565_hsw_lowp+0x14c> + .byte 235,84 // jmp 300d4 <_sk_lerp_565_hsw_lowp+0x14c> .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8 .byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9 .byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8 @@ -46712,13 +47255,13 @@ _sk_lerp_565_hsw_lowp: .byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10 .byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9 .byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8 - .byte 196,98,125,121,13,25,169,0,0 // vpbroadcastw 0xa919(%rip),%ymm9 # 39fe2 <_sk_srcover_bgra_8888_sse2_lowp+0xa8e> + .byte 196,98,125,121,13,37,169,0,0 // vpbroadcastw 0xa925(%rip),%ymm9 # 3aa02 <_sk_srcover_bgra_8888_sse2_lowp+0xa9a> .byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10 .byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9 .byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10 - .byte 196,98,125,121,29,1,169,0,0 // vpbroadcastw 0xa901(%rip),%ymm11 # 39fe4 <_sk_srcover_bgra_8888_sse2_lowp+0xa90> + .byte 196,98,125,121,29,13,169,0,0 // vpbroadcastw 0xa90d(%rip),%ymm11 # 3aa04 <_sk_srcover_bgra_8888_sse2_lowp+0xa9c> .byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10 - .byte 196,98,125,121,29,245,168,0,0 // vpbroadcastw 0xa8f5(%rip),%ymm11 # 39fe6 <_sk_srcover_bgra_8888_sse2_lowp+0xa92> + .byte 196,98,125,121,29,1,169,0,0 // vpbroadcastw 0xa901(%rip),%ymm11 # 3aa06 <_sk_srcover_bgra_8888_sse2_lowp+0xa9e> .byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11 .byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8 .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8 @@ -46728,7 +47271,7 @@ _sk_lerp_565_hsw_lowp: .byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10 .byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11 .byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10 - .byte 196,98,125,121,29,188,168,0,0 // vpbroadcastw 0xa8bc(%rip),%ymm11 # 39fe8 <_sk_srcover_bgra_8888_sse2_lowp+0xa94> + .byte 196,98,125,121,29,200,168,0,0 // vpbroadcastw 0xa8c8(%rip),%ymm11 # 3aa08 <_sk_srcover_bgra_8888_sse2_lowp+0xaa0> .byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12 .byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11 .byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11 @@ -46737,7 +47280,7 @@ _sk_lerp_565_hsw_lowp: .byte 196,66,53,62,234 // vpmaxuw %ymm10,%ymm9,%ymm13 .byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13 .byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11 - .byte 196,98,125,121,37,140,168,0,0 // vpbroadcastw 0xa88c(%rip),%ymm12 # 39fea <_sk_srcover_bgra_8888_sse2_lowp+0xa96> + .byte 196,98,125,121,37,152,168,0,0 // vpbroadcastw 0xa898(%rip),%ymm12 # 3aa0a <_sk_srcover_bgra_8888_sse2_lowp+0xaa2> .byte 196,65,61,239,236 // vpxor %ymm12,%ymm8,%ymm13 .byte 197,21,213,236 // vpmullw %ymm4,%ymm13,%ymm13 .byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0 @@ -46810,7 +47353,7 @@ _sk_clamp_x_1_hsw_lowp: .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1 .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0 - .byte 196,98,125,24,5,224,159,0,0 // vbroadcastss 0x9fe0(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,224,159,0,0 // vbroadcastss 0x9fe0(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax @@ -46827,7 +47370,7 @@ _sk_repeat_x_1_hsw_lowp: .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1 .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0 - .byte 196,98,125,24,5,164,159,0,0 // vbroadcastss 0x9fa4(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,164,159,0,0 // vbroadcastss 0x9fa4(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax @@ -46837,10 +47380,10 @@ HIDDEN _sk_mirror_x_1_hsw_lowp .globl _sk_mirror_x_1_hsw_lowp FUNCTION(_sk_mirror_x_1_hsw_lowp) _sk_mirror_x_1_hsw_lowp: - .byte 196,98,125,24,5,165,159,0,0 // vbroadcastss 0x9fa5(%rip),%ymm8 # 3981c <_sk_srcover_bgra_8888_sse2_lowp+0x2c8> + .byte 196,98,125,24,5,165,159,0,0 // vbroadcastss 0x9fa5(%rip),%ymm8 # 3a230 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8> .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0 .byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1 - .byte 196,98,125,24,13,118,159,0,0 // vbroadcastss 0x9f76(%rip),%ymm9 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,13,118,159,0,0 // vbroadcastss 0x9f76(%rip),%ymm9 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,65,116,89,209 // vmulps %ymm9,%ymm1,%ymm10 .byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9 .byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9 @@ -46851,13 +47394,13 @@ _sk_mirror_x_1_hsw_lowp: .byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1 .byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1 .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0 - .byte 196,98,125,24,5,205,160,0,0 // vbroadcastss 0xa0cd(%rip),%ymm8 # 39994 <_sk_srcover_bgra_8888_sse2_lowp+0x440> + .byte 196,98,125,24,5,205,160,0,0 // vbroadcastss 0xa0cd(%rip),%ymm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x440> .byte 196,193,124,84,192 // vandps %ymm8,%ymm0,%ymm0 .byte 196,193,116,84,200 // vandps %ymm8,%ymm1,%ymm1 .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8 .byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1 .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0 - .byte 196,98,125,24,5,27,159,0,0 // vbroadcastss 0x9f1b(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,27,159,0,0 // vbroadcastss 0x9f1b(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0 .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1 .byte 72,173 // lods %ds:(%rsi),%rax @@ -46877,7 +47420,7 @@ _sk_gradient_hsw_lowp: .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 .byte 73,131,248,2 // cmp $0x2,%r8 - .byte 114,60 // jb 2f964 <_sk_gradient_hsw_lowp+0x6d> + .byte 114,60 // jb 30378 <_sk_gradient_hsw_lowp+0x6d> .byte 76,139,72,72 // mov 0x48(%rax),%r9 .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7 .byte 65,186,1,0,0,0 // mov $0x1,%r10d @@ -46889,9 +47432,9 @@ _sk_gradient_hsw_lowp: .byte 197,213,250,234 // vpsubd %ymm2,%ymm5,%ymm5 .byte 73,255,194 // inc %r10 .byte 77,57,208 // cmp %r10,%r8 - .byte 117,224 // jne 2f93a <_sk_gradient_hsw_lowp+0x43> + .byte 117,224 // jne 3034e <_sk_gradient_hsw_lowp+0x43> .byte 73,131,248,8 // cmp $0x8,%r8 - .byte 15,135,180,0,0,0 // ja 2fa18 <_sk_gradient_hsw_lowp+0x121> + .byte 15,135,180,0,0,0 // ja 3042c <_sk_gradient_hsw_lowp+0x121> .byte 76,139,64,8 // mov 0x8(%rax),%r8 .byte 76,139,72,16 // mov 0x10(%rax),%r9 .byte 196,193,124,16,24 // vmovups (%r8),%ymm3 @@ -46928,7 +47471,7 @@ _sk_gradient_hsw_lowp: .byte 197,124,16,56 // vmovups (%rax),%ymm15 .byte 196,66,69,22,231 // vpermps %ymm15,%ymm7,%ymm12 .byte 196,194,85,22,255 // vpermps %ymm15,%ymm5,%ymm7 - .byte 233,34,1,0,0 // jmpq 2fb3a <_sk_gradient_hsw_lowp+0x243> + .byte 233,34,1,0,0 // jmpq 3054e <_sk_gradient_hsw_lowp+0x243> .byte 76,139,64,8 // mov 0x8(%rax),%r8 .byte 76,139,72,16 // mov 0x10(%rax),%r9 .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3 @@ -46997,8 +47540,8 @@ _sk_gradient_hsw_lowp: .byte 196,98,117,168,76,36,128 // vfmadd213ps -0x80(%rsp),%ymm1,%ymm9 .byte 196,98,117,168,222 // vfmadd213ps %ymm6,%ymm1,%ymm11 .byte 196,226,117,184,124,36,160 // vfmadd231ps -0x60(%rsp),%ymm1,%ymm7 - .byte 196,226,125,24,5,189,156,0,0 // vbroadcastss 0x9cbd(%rip),%ymm0 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,226,125,24,13,132,156,0,0 // vbroadcastss 0x9c84(%rip),%ymm1 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,226,125,24,5,189,156,0,0 // vbroadcastss 0x9cbd(%rip),%ymm0 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,226,125,24,13,132,156,0,0 // vbroadcastss 0x9c84(%rip),%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,226,125,168,217 // vfmadd213ps %ymm1,%ymm0,%ymm3 .byte 196,226,125,168,209 // vfmadd213ps %ymm1,%ymm0,%ymm2 .byte 196,98,125,168,201 // vfmadd213ps %ymm1,%ymm0,%ymm9 @@ -47008,7 +47551,7 @@ _sk_gradient_hsw_lowp: .byte 196,226,125,168,249 // vfmadd213ps %ymm1,%ymm0,%ymm7 .byte 196,98,125,168,225 // vfmadd213ps %ymm1,%ymm0,%ymm12 .byte 197,254,91,194 // vcvttps2dq %ymm2,%ymm0 - .byte 197,253,111,37,80,164,0,0 // vmovdqa 0xa450(%rip),%ymm4 # 3a000 <_sk_srcover_bgra_8888_sse2_lowp+0xaac> + .byte 197,253,111,37,92,164,0,0 // vmovdqa 0xa45c(%rip),%ymm4 # 3aa20 <_sk_srcover_bgra_8888_sse2_lowp+0xab8> .byte 196,226,125,0,196 // vpshufb %ymm4,%ymm0,%ymm0 .byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0 .byte 197,254,91,203 // vcvttps2dq %ymm3,%ymm1 @@ -47057,9 +47600,9 @@ _sk_evenly_spaced_gradient_hsw_lowp: .byte 76,139,0 // mov (%rax),%r8 .byte 77,137,193 // mov %r8,%r9 .byte 73,255,201 // dec %r9 - .byte 120,7 // js 2fc95 <_sk_evenly_spaced_gradient_hsw_lowp+0x32> + .byte 120,7 // js 306a9 <_sk_evenly_spaced_gradient_hsw_lowp+0x32> .byte 196,193,234,42,209 // vcvtsi2ss %r9,%xmm2,%xmm2 - .byte 235,22 // jmp 2fcab <_sk_evenly_spaced_gradient_hsw_lowp+0x48> + .byte 235,22 // jmp 306bf <_sk_evenly_spaced_gradient_hsw_lowp+0x48> .byte 77,137,202 // mov %r9,%r10 .byte 73,209,234 // shr %r10 .byte 65,131,225,1 // and $0x1,%r9d @@ -47072,7 +47615,7 @@ _sk_evenly_spaced_gradient_hsw_lowp: .byte 197,126,91,242 // vcvttps2dq %ymm2,%ymm14 .byte 197,254,91,251 // vcvttps2dq %ymm3,%ymm7 .byte 73,131,248,8 // cmp $0x8,%r8 - .byte 15,135,180,0,0,0 // ja 2fd7e <_sk_evenly_spaced_gradient_hsw_lowp+0x11b> + .byte 15,135,180,0,0,0 // ja 30792 <_sk_evenly_spaced_gradient_hsw_lowp+0x11b> .byte 76,139,64,8 // mov 0x8(%rax),%r8 .byte 76,139,72,16 // mov 0x10(%rax),%r9 .byte 196,193,124,16,24 // vmovups (%r8),%ymm3 @@ -47109,7 +47652,7 @@ _sk_evenly_spaced_gradient_hsw_lowp: .byte 197,124,16,56 // vmovups (%rax),%ymm15 .byte 196,66,69,22,231 // vpermps %ymm15,%ymm7,%ymm12 .byte 196,194,13,22,255 // vpermps %ymm15,%ymm14,%ymm7 - .byte 233,33,1,0,0 // jmpq 2fe9f <_sk_evenly_spaced_gradient_hsw_lowp+0x23c> + .byte 233,33,1,0,0 // jmpq 308b3 <_sk_evenly_spaced_gradient_hsw_lowp+0x23c> .byte 76,139,64,8 // mov 0x8(%rax),%r8 .byte 76,139,72,16 // mov 0x10(%rax),%r9 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 @@ -47178,8 +47721,8 @@ _sk_evenly_spaced_gradient_hsw_lowp: .byte 196,98,117,168,76,36,128 // vfmadd213ps -0x80(%rsp),%ymm1,%ymm9 .byte 196,98,117,168,222 // vfmadd213ps %ymm6,%ymm1,%ymm11 .byte 196,226,117,184,124,36,160 // vfmadd231ps -0x60(%rsp),%ymm1,%ymm7 - .byte 196,226,125,24,5,88,153,0,0 // vbroadcastss 0x9958(%rip),%ymm0 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,226,125,24,13,31,153,0,0 // vbroadcastss 0x991f(%rip),%ymm1 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,226,125,24,5,88,153,0,0 // vbroadcastss 0x9958(%rip),%ymm0 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,226,125,24,13,31,153,0,0 // vbroadcastss 0x991f(%rip),%ymm1 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,226,125,168,217 // vfmadd213ps %ymm1,%ymm0,%ymm3 .byte 196,226,125,168,209 // vfmadd213ps %ymm1,%ymm0,%ymm2 .byte 196,98,125,168,201 // vfmadd213ps %ymm1,%ymm0,%ymm9 @@ -47189,7 +47732,7 @@ _sk_evenly_spaced_gradient_hsw_lowp: .byte 196,226,125,168,249 // vfmadd213ps %ymm1,%ymm0,%ymm7 .byte 196,98,125,168,225 // vfmadd213ps %ymm1,%ymm0,%ymm12 .byte 197,254,91,194 // vcvttps2dq %ymm2,%ymm0 - .byte 197,253,111,37,11,161,0,0 // vmovdqa 0xa10b(%rip),%ymm4 # 3a020 <_sk_srcover_bgra_8888_sse2_lowp+0xacc> + .byte 197,253,111,37,23,161,0,0 // vmovdqa 0xa117(%rip),%ymm4 # 3aa40 <_sk_srcover_bgra_8888_sse2_lowp+0xad8> .byte 196,226,125,0,196 // vpshufb %ymm4,%ymm0,%ymm0 .byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0 .byte 197,254,91,203 // vcvttps2dq %ymm3,%ymm1 @@ -47235,12 +47778,12 @@ _sk_evenly_spaced_2_stop_gradient_hsw_lowp: .byte 197,124,40,194 // vmovaps %ymm2,%ymm8 .byte 196,98,125,168,195 // vfmadd213ps %ymm3,%ymm0,%ymm8 .byte 196,226,117,168,211 // vfmadd213ps %ymm3,%ymm1,%ymm2 - .byte 196,226,125,24,29,68,152,0,0 // vbroadcastss 0x9844(%rip),%ymm3 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 196,98,125,24,29,11,152,0,0 // vbroadcastss 0x980b(%rip),%ymm11 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,226,125,24,29,68,152,0,0 // vbroadcastss 0x9844(%rip),%ymm3 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 196,98,125,24,29,11,152,0,0 // vbroadcastss 0x980b(%rip),%ymm11 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 196,194,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm2 .byte 196,66,101,168,195 // vfmadd213ps %ymm11,%ymm3,%ymm8 .byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8 - .byte 197,125,111,21,52,160,0,0 // vmovdqa 0xa034(%rip),%ymm10 # 3a040 <_sk_srcover_bgra_8888_sse2_lowp+0xaec> + .byte 197,125,111,21,64,160,0,0 // vmovdqa 0xa040(%rip),%ymm10 # 3aa60 <_sk_srcover_bgra_8888_sse2_lowp+0xaf8> .byte 196,66,61,0,194 // vpshufb %ymm10,%ymm8,%ymm8 .byte 196,67,253,0,192,232 // vpermq $0xe8,%ymm8,%ymm8 .byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2 @@ -47304,7 +47847,7 @@ _sk_xy_to_unit_angle_hsw_lowp: .byte 197,252,40,227 // vmovaps %ymm3,%ymm4 .byte 197,252,40,217 // vmovaps %ymm1,%ymm3 .byte 197,252,40,200 // vmovaps %ymm0,%ymm1 - .byte 196,98,125,24,5,94,152,0,0 // vbroadcastss 0x985e(%rip),%ymm8 # 39994 <_sk_srcover_bgra_8888_sse2_lowp+0x440> + .byte 196,98,125,24,5,94,152,0,0 // vbroadcastss 0x985e(%rip),%ymm8 # 3a3a8 <_sk_srcover_bgra_8888_sse2_lowp+0x440> .byte 196,65,116,84,200 // vandps %ymm8,%ymm1,%ymm9 .byte 196,65,100,84,208 // vandps %ymm8,%ymm3,%ymm10 .byte 196,65,108,84,216 // vandps %ymm8,%ymm2,%ymm11 @@ -47318,20 +47861,20 @@ _sk_xy_to_unit_angle_hsw_lowp: .byte 196,67,45,74,192,192 // vblendvps %ymm12,%ymm8,%ymm10,%ymm8 .byte 196,65,4,94,192 // vdivps %ymm8,%ymm15,%ymm8 .byte 196,65,60,89,208 // vmulps %ymm8,%ymm8,%ymm10 - .byte 196,98,125,24,29,170,151,0,0 // vbroadcastss 0x97aa(%rip),%ymm11 # 39930 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc> - .byte 196,98,125,24,53,165,151,0,0 // vbroadcastss 0x97a5(%rip),%ymm14 # 39934 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0> + .byte 196,98,125,24,29,170,151,0,0 // vbroadcastss 0x97aa(%rip),%ymm11 # 3a344 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc> + .byte 196,98,125,24,53,165,151,0,0 // vbroadcastss 0x97a5(%rip),%ymm14 # 3a348 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0> .byte 196,65,124,40,251 // vmovaps %ymm11,%ymm15 .byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15 .byte 196,193,52,89,193 // vmulps %ymm9,%ymm9,%ymm0 .byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11 - .byte 196,98,125,24,53,140,151,0,0 // vbroadcastss 0x978c(%rip),%ymm14 # 39938 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4> + .byte 196,98,125,24,53,140,151,0,0 // vbroadcastss 0x978c(%rip),%ymm14 # 3a34c <_sk_srcover_bgra_8888_sse2_lowp+0x3e4> .byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11 .byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15 - .byte 196,98,125,24,53,125,151,0,0 // vbroadcastss 0x977d(%rip),%ymm14 # 3993c <_sk_srcover_bgra_8888_sse2_lowp+0x3e8> + .byte 196,98,125,24,53,125,151,0,0 // vbroadcastss 0x977d(%rip),%ymm14 # 3a350 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8> .byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15 .byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11 .byte 196,193,52,89,195 // vmulps %ymm11,%ymm9,%ymm0 - .byte 196,98,125,24,13,105,151,0,0 // vbroadcastss 0x9769(%rip),%ymm9 # 39940 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec> + .byte 196,98,125,24,13,105,151,0,0 // vbroadcastss 0x9769(%rip),%ymm9 # 3a354 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec> .byte 197,52,92,208 // vsubps %ymm0,%ymm9,%ymm10 .byte 196,195,125,74,194,208 // vblendvps %ymm13,%ymm10,%ymm0,%ymm0 .byte 196,65,60,89,199 // vmulps %ymm15,%ymm8,%ymm8 @@ -47339,14 +47882,14 @@ _sk_xy_to_unit_angle_hsw_lowp: .byte 196,67,61,74,193,192 // vblendvps %ymm12,%ymm9,%ymm8,%ymm8 .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9 .byte 196,193,116,194,201,1 // vcmpltps %ymm9,%ymm1,%ymm1 - .byte 196,98,125,24,21,251,149,0,0 // vbroadcastss 0x95fb(%rip),%ymm10 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 196,98,125,24,21,251,149,0,0 // vbroadcastss 0x95fb(%rip),%ymm10 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 197,44,92,216 // vsubps %ymm0,%ymm10,%ymm11 .byte 196,195,125,74,195,16 // vblendvps %ymm1,%ymm11,%ymm0,%ymm0 .byte 196,193,100,194,201,1 // vcmpltps %ymm9,%ymm3,%ymm1 .byte 196,193,44,92,216 // vsubps %ymm8,%ymm10,%ymm3 .byte 196,227,61,74,203,16 // vblendvps %ymm1,%ymm3,%ymm8,%ymm1 .byte 196,193,108,194,217,1 // vcmpltps %ymm9,%ymm2,%ymm3 - .byte 196,98,125,24,5,213,149,0,0 // vbroadcastss 0x95d5(%rip),%ymm8 # 39804 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> + .byte 196,98,125,24,5,213,149,0,0 // vbroadcastss 0x95d5(%rip),%ymm8 # 3a218 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0> .byte 197,60,92,208 // vsubps %ymm0,%ymm8,%ymm10 .byte 196,195,125,74,194,48 // vblendvps %ymm3,%ymm10,%ymm0,%ymm0 .byte 196,193,92,194,217,1 // vcmpltps %ymm9,%ymm4,%ymm3 @@ -47392,9 +47935,9 @@ _sk_srcover_rgba_8888_hsw_lowp: .byte 65,254,202 // dec %r10b .byte 69,15,182,194 // movzbl %r10b,%r8d .byte 65,128,248,14 // cmp $0xe,%r8b - .byte 119,51 // ja 302f3 <_sk_srcover_rgba_8888_hsw_lowp+0x5c> + .byte 119,51 // ja 30d07 <_sk_srcover_rgba_8888_hsw_lowp+0x5c> .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4 - .byte 76,141,29,237,2,0,0 // lea 0x2ed(%rip),%r11 # 305b8 <_sk_srcover_rgba_8888_hsw_lowp+0x321> + .byte 76,141,29,237,2,0,0 // lea 0x2ed(%rip),%r11 # 30fcc <_sk_srcover_rgba_8888_hsw_lowp+0x321> .byte 75,99,4,131 // movslq (%r11,%r8,4),%rax .byte 76,1,216 // add %r11,%rax .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -47404,10 +47947,10 @@ _sk_srcover_rgba_8888_hsw_lowp: .byte 255,224 // jmpq *%rax .byte 196,193,121,110,41 // vmovd (%r9),%xmm5 .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4 - .byte 233,22,1,0,0 // jmpq 30409 <_sk_srcover_rgba_8888_hsw_lowp+0x172> + .byte 233,22,1,0,0 // jmpq 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172> .byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5 .byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4 - .byte 233,6,1,0,0 // jmpq 30409 <_sk_srcover_rgba_8888_hsw_lowp+0x172> + .byte 233,6,1,0,0 // jmpq 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172> .byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4 .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4 .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7 @@ -47416,7 +47959,7 @@ _sk_srcover_rgba_8888_hsw_lowp: .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5 .byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5 .byte 197,253,111,231 // vmovdqa %ymm7,%ymm4 - .byte 233,216,0,0,0 // jmpq 30409 <_sk_srcover_rgba_8888_hsw_lowp+0x172> + .byte 233,216,0,0,0 // jmpq 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172> .byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4 .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -47432,7 +47975,7 @@ _sk_srcover_rgba_8888_hsw_lowp: .byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5 .byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5 .byte 197,125,127,196 // vmovdqa %ymm8,%ymm4 - .byte 233,129,0,0,0 // jmpq 30409 <_sk_srcover_rgba_8888_hsw_lowp+0x172> + .byte 233,129,0,0,0 // jmpq 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172> .byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4 .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -47442,7 +47985,7 @@ _sk_srcover_rgba_8888_hsw_lowp: .byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5 .byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4 .byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5 - .byte 235,76 // jmp 30409 <_sk_srcover_rgba_8888_hsw_lowp+0x172> + .byte 235,76 // jmp 30e1d <_sk_srcover_rgba_8888_hsw_lowp+0x172> .byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4 .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -47462,9 +48005,9 @@ _sk_srcover_rgba_8888_hsw_lowp: .byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5 .byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4 .byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5 - .byte 197,125,111,5,46,156,0,0 // vmovdqa 0x9c2e(%rip),%ymm8 # 3a060 <_sk_srcover_bgra_8888_sse2_lowp+0xb0c> + .byte 197,125,111,5,58,156,0,0 // vmovdqa 0x9c3a(%rip),%ymm8 # 3aa80 <_sk_srcover_bgra_8888_sse2_lowp+0xb18> .byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4 - .byte 196,98,125,121,13,64,156,0,0 // vpbroadcastw 0x9c40(%rip),%ymm9 # 3a080 <_sk_srcover_bgra_8888_sse2_lowp+0xb2c> + .byte 196,98,125,121,13,76,156,0,0 // vpbroadcastw 0x9c4c(%rip),%ymm9 # 3aaa0 <_sk_srcover_bgra_8888_sse2_lowp+0xb38> .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5 .byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7 .byte 197,205,114,214,16 // vpsrld $0x10,%ymm6,%ymm6 @@ -47503,19 +48046,19 @@ _sk_srcover_rgba_8888_hsw_lowp: .byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9 .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9 .byte 65,128,250,14 // cmp $0xe,%r10b - .byte 119,26 // ja 3051a <_sk_srcover_rgba_8888_hsw_lowp+0x283> - .byte 76,141,21,237,0,0,0 // lea 0xed(%rip),%r10 # 305f4 <_sk_srcover_rgba_8888_hsw_lowp+0x35d> + .byte 119,26 // ja 30f2e <_sk_srcover_rgba_8888_hsw_lowp+0x283> + .byte 76,141,21,237,0,0,0 // lea 0xed(%rip),%r10 # 31008 <_sk_srcover_rgba_8888_hsw_lowp+0x35d> .byte 75,99,4,130 // movslq (%r10,%r8,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,65,121,126,1 // vmovd %xmm8,(%r9) - .byte 233,151,0,0,0 // jmpq 305b1 <_sk_srcover_rgba_8888_hsw_lowp+0x31a> + .byte 233,151,0,0,0 // jmpq 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a> .byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9) .byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9) - .byte 233,135,0,0,0 // jmpq 305b1 <_sk_srcover_rgba_8888_hsw_lowp+0x31a> + .byte 233,135,0,0,0 // jmpq 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a> .byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9) .byte 196,65,121,214,1 // vmovq %xmm8,(%r9) - .byte 235,121 // jmp 305b1 <_sk_srcover_rgba_8888_hsw_lowp+0x31a> + .byte 235,121 // jmp 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a> .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9) .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 @@ -47523,12 +48066,12 @@ _sk_srcover_rgba_8888_hsw_lowp: .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9) .byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9) - .byte 235,76 // jmp 305b1 <_sk_srcover_rgba_8888_hsw_lowp+0x31a> + .byte 235,76 // jmp 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a> .byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9) .byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9) .byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9) .byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9) - .byte 235,49 // jmp 305b1 <_sk_srcover_rgba_8888_hsw_lowp+0x31a> + .byte 235,49 // jmp 30fc5 <_sk_srcover_rgba_8888_hsw_lowp+0x31a> .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10 .byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9) .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10 @@ -47567,10 +48110,10 @@ _sk_srcover_rgba_8888_hsw_lowp: .byte 255 // (bad) .byte 255,64,254 // incl -0x2(%rax) .byte 255 // (bad) - .byte 255,45,254,255,255,26 // ljmp *0x1afffffe(%rip) # 1b0305eb <_sk_srcover_bgra_8888_sse2_lowp+0x1aff7097> + .byte 255,45,254,255,255,26 // ljmp *0x1afffffe(%rip) # 1b030fff <_sk_srcover_bgra_8888_sse2_lowp+0x1aff7097> .byte 254 // (bad) .byte 255 // (bad) - .byte 255,5,254,255,255,28 // incl 0x1cfffffe(%rip) # 1d0305f3 <_sk_srcover_bgra_8888_sse2_lowp+0x1cff709f> + .byte 255,5,254,255,255,28 // incl 0x1cfffffe(%rip) # 1d031007 <_sk_srcover_bgra_8888_sse2_lowp+0x1cff709f> .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) @@ -47588,7 +48131,7 @@ _sk_srcover_rgba_8888_hsw_lowp: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 120,255 // js 30619 <_sk_srcover_rgba_8888_hsw_lowp+0x382> + .byte 120,255 // js 3102d <_sk_srcover_rgba_8888_hsw_lowp+0x382> .byte 255 // (bad) .byte 255,113,255 // pushq -0x1(%rcx) .byte 255 // (bad) @@ -47615,9 +48158,9 @@ _sk_srcover_bgra_8888_hsw_lowp: .byte 65,254,202 // dec %r10b .byte 69,15,182,194 // movzbl %r10b,%r8d .byte 65,128,248,14 // cmp $0xe,%r8b - .byte 119,51 // ja 3068c <_sk_srcover_bgra_8888_hsw_lowp+0x5c> + .byte 119,51 // ja 310a0 <_sk_srcover_bgra_8888_hsw_lowp+0x5c> .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4 - .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 30950 <_sk_srcover_bgra_8888_hsw_lowp+0x320> + .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 31364 <_sk_srcover_bgra_8888_hsw_lowp+0x320> .byte 75,99,4,131 // movslq (%r11,%r8,4),%rax .byte 76,1,216 // add %r11,%rax .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -47627,10 +48170,10 @@ _sk_srcover_bgra_8888_hsw_lowp: .byte 255,224 // jmpq *%rax .byte 196,193,121,110,41 // vmovd (%r9),%xmm5 .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4 - .byte 233,22,1,0,0 // jmpq 307a2 <_sk_srcover_bgra_8888_hsw_lowp+0x172> + .byte 233,22,1,0,0 // jmpq 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172> .byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5 .byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4 - .byte 233,6,1,0,0 // jmpq 307a2 <_sk_srcover_bgra_8888_hsw_lowp+0x172> + .byte 233,6,1,0,0 // jmpq 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172> .byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4 .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4 .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7 @@ -47639,7 +48182,7 @@ _sk_srcover_bgra_8888_hsw_lowp: .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5 .byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5 .byte 197,253,111,231 // vmovdqa %ymm7,%ymm4 - .byte 233,216,0,0,0 // jmpq 307a2 <_sk_srcover_bgra_8888_hsw_lowp+0x172> + .byte 233,216,0,0,0 // jmpq 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172> .byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4 .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -47655,7 +48198,7 @@ _sk_srcover_bgra_8888_hsw_lowp: .byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5 .byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5 .byte 197,125,127,196 // vmovdqa %ymm8,%ymm4 - .byte 233,129,0,0,0 // jmpq 307a2 <_sk_srcover_bgra_8888_hsw_lowp+0x172> + .byte 233,129,0,0,0 // jmpq 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172> .byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4 .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -47665,7 +48208,7 @@ _sk_srcover_bgra_8888_hsw_lowp: .byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5 .byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4 .byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5 - .byte 235,76 // jmp 307a2 <_sk_srcover_bgra_8888_hsw_lowp+0x172> + .byte 235,76 // jmp 311b6 <_sk_srcover_bgra_8888_hsw_lowp+0x172> .byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4 .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4 .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5 @@ -47685,9 +48228,9 @@ _sk_srcover_bgra_8888_hsw_lowp: .byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6 .byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5 .byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5 - .byte 197,125,111,5,213,152,0,0 // vmovdqa 0x98d5(%rip),%ymm8 # 3a0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xb4c> + .byte 197,125,111,5,225,152,0,0 // vmovdqa 0x98e1(%rip),%ymm8 # 3aac0 <_sk_srcover_bgra_8888_sse2_lowp+0xb58> .byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6 - .byte 196,98,125,121,13,231,152,0,0 // vpbroadcastw 0x98e7(%rip),%ymm9 # 3a0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xb6c> + .byte 196,98,125,121,13,243,152,0,0 // vpbroadcastw 0x98f3(%rip),%ymm9 # 3aae0 <_sk_srcover_bgra_8888_sse2_lowp+0xb78> .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5 .byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4 .byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7 @@ -47726,19 +48269,19 @@ _sk_srcover_bgra_8888_hsw_lowp: .byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9 .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9 .byte 65,128,250,14 // cmp $0xe,%r10b - .byte 119,26 // ja 308b3 <_sk_srcover_bgra_8888_hsw_lowp+0x283> - .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 3098c <_sk_srcover_bgra_8888_hsw_lowp+0x35c> + .byte 119,26 // ja 312c7 <_sk_srcover_bgra_8888_hsw_lowp+0x283> + .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 313a0 <_sk_srcover_bgra_8888_hsw_lowp+0x35c> .byte 75,99,4,130 // movslq (%r10,%r8,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,65,121,126,1 // vmovd %xmm8,(%r9) - .byte 233,151,0,0,0 // jmpq 3094a <_sk_srcover_bgra_8888_hsw_lowp+0x31a> + .byte 233,151,0,0,0 // jmpq 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a> .byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9) .byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9) - .byte 233,135,0,0,0 // jmpq 3094a <_sk_srcover_bgra_8888_hsw_lowp+0x31a> + .byte 233,135,0,0,0 // jmpq 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a> .byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9) .byte 196,65,121,214,1 // vmovq %xmm8,(%r9) - .byte 235,121 // jmp 3094a <_sk_srcover_bgra_8888_hsw_lowp+0x31a> + .byte 235,121 // jmp 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a> .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9) .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 @@ -47746,12 +48289,12 @@ _sk_srcover_bgra_8888_hsw_lowp: .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9 .byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9) .byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9) - .byte 235,76 // jmp 3094a <_sk_srcover_bgra_8888_hsw_lowp+0x31a> + .byte 235,76 // jmp 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a> .byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9) .byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9) .byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9) .byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9) - .byte 235,49 // jmp 3094a <_sk_srcover_bgra_8888_hsw_lowp+0x31a> + .byte 235,49 // jmp 3135e <_sk_srcover_bgra_8888_hsw_lowp+0x31a> .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10 .byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9) .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10 @@ -47799,7 +48342,7 @@ _sk_srcover_bgra_8888_hsw_lowp: .byte 255,6 // incl (%rsi) .byte 254 // (bad) .byte 255 // (bad) - .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f030990 <_sk_srcover_bgra_8888_sse2_lowp+0x3eff743c> + .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f0313a4 <_sk_srcover_bgra_8888_sse2_lowp+0x3eff743c> .byte 255 // (bad) .byte 255 // (bad) .byte 255,55 // pushq (%rdi) @@ -47817,7 +48360,7 @@ _sk_srcover_bgra_8888_hsw_lowp: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 121,255 // jns 309b1 <_sk_srcover_bgra_8888_hsw_lowp+0x381> + .byte 121,255 // jns 313c5 <_sk_srcover_bgra_8888_hsw_lowp+0x381> .byte 255 // (bad) .byte 255,114,255 // pushq -0x1(%rdx) .byte 255 // (bad) @@ -47850,13 +48393,13 @@ _sk_start_pipeline_sse41_lowp: .byte 73,137,246 // mov %rsi,%r14 .byte 72,137,77,192 // mov %rcx,-0x40(%rbp) .byte 72,57,203 // cmp %rcx,%rbx - .byte 15,131,131,0,0,0 // jae 30a7e <_sk_start_pipeline_sse41_lowp+0xb6> + .byte 15,131,131,0,0,0 // jae 31492 <_sk_start_pipeline_sse41_lowp+0xb6> .byte 72,139,69,208 // mov -0x30(%rbp),%rax .byte 72,141,64,8 // lea 0x8(%rax),%rax .byte 72,137,69,200 // mov %rax,-0x38(%rbp) .byte 76,57,125,200 // cmp %r15,-0x38(%rbp) .byte 72,139,85,208 // mov -0x30(%rbp),%rdx - .byte 119,59 // ja 30a4c <_sk_start_pipeline_sse41_lowp+0x84> + .byte 119,59 // ja 31460 <_sk_start_pipeline_sse41_lowp+0x84> .byte 76,139,101,208 // mov -0x30(%rbp),%r12 .byte 49,255 // xor %edi,%edi .byte 15,87,192 // xorps %xmm0,%xmm0 @@ -47875,10 +48418,10 @@ _sk_start_pipeline_sse41_lowp: .byte 73,131,196,16 // add $0x10,%r12 .byte 77,57,252 // cmp %r15,%r12 .byte 73,137,212 // mov %rdx,%r12 - .byte 118,201 // jbe 30a15 <_sk_start_pipeline_sse41_lowp+0x4d> + .byte 118,201 // jbe 31429 <_sk_start_pipeline_sse41_lowp+0x4d> .byte 76,137,255 // mov %r15,%rdi .byte 72,41,215 // sub %rdx,%rdi - .byte 116,33 // je 30a75 <_sk_start_pipeline_sse41_lowp+0xad> + .byte 116,33 // je 31489 <_sk_start_pipeline_sse41_lowp+0xad> .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 @@ -47892,7 +48435,7 @@ _sk_start_pipeline_sse41_lowp: .byte 65,255,213 // callq *%r13 .byte 72,255,195 // inc %rbx .byte 72,59,93,192 // cmp -0x40(%rbp),%rbx - .byte 117,137 // jne 30a07 <_sk_start_pipeline_sse41_lowp+0x3f> + .byte 117,137 // jne 3141b <_sk_start_pipeline_sse41_lowp+0x3f> .byte 72,131,196,24 // add $0x18,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 @@ -47923,7 +48466,7 @@ _sk_seed_shader_sse41_lowp: .byte 102,15,110,209 // movd %ecx,%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 - .byte 15,88,21,100,150,0,0 // addps 0x9664(%rip),%xmm2 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,88,21,112,150,0,0 // addps 0x9670(%rip),%xmm2 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 255,224 // jmpq *%rax @@ -48100,7 +48643,7 @@ HIDDEN _sk_black_color_sse41_lowp FUNCTION(_sk_black_color_sse41_lowp) _sk_black_color_sse41_lowp: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,169,147,0,0 // movaps 0x93a9(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 15,40,29,181,147,0,0 // movaps 0x93b5(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 @@ -48111,7 +48654,7 @@ HIDDEN _sk_white_color_sse41_lowp FUNCTION(_sk_white_color_sse41_lowp) _sk_white_color_sse41_lowp: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,5,149,147,0,0 // movaps 0x9395(%rip),%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 15,40,5,161,147,0,0 // movaps 0x93a1(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,40,216 // movaps %xmm0,%xmm3 @@ -48122,10 +48665,10 @@ HIDDEN _sk_set_rgb_sse41_lowp FUNCTION(_sk_set_rgb_sse41_lowp) _sk_set_rgb_sse41_lowp: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 243,15,16,21,224,138,0,0 // movss 0x8ae0(%rip),%xmm2 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 243,15,16,21,224,138,0,0 // movss 0x8ae0(%rip),%xmm2 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> .byte 243,15,16,0 // movss (%rax),%xmm0 .byte 243,15,89,194 // mulss %xmm2,%xmm0 - .byte 243,68,15,16,5,159,138,0,0 // movss 0x8a9f(%rip),%xmm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 243,68,15,16,5,159,138,0,0 // movss 0x8a9f(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 243,65,15,88,192 // addss %xmm8,%xmm0 .byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d .byte 102,65,15,110,192 // movd %r8d,%xmm0 @@ -48172,7 +48715,7 @@ HIDDEN _sk_premul_sse41_lowp FUNCTION(_sk_premul_sse41_lowp) _sk_premul_sse41_lowp: .byte 102,15,213,195 // pmullw %xmm3,%xmm0 - .byte 102,68,15,111,5,225,146,0,0 // movdqa 0x92e1(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,237,146,0,0 // movdqa 0x92ed(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,192 // paddw %xmm8,%xmm0 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,213,203 // pmullw %xmm3,%xmm1 @@ -48189,7 +48732,7 @@ HIDDEN _sk_premul_dst_sse41_lowp FUNCTION(_sk_premul_dst_sse41_lowp) _sk_premul_dst_sse41_lowp: .byte 102,15,213,231 // pmullw %xmm7,%xmm4 - .byte 102,68,15,111,5,170,146,0,0 // movdqa 0x92aa(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,182,146,0,0 // movdqa 0x92b6(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,224 // paddw %xmm8,%xmm4 .byte 102,15,113,212,8 // psrlw $0x8,%xmm4 .byte 102,15,213,239 // pmullw %xmm7,%xmm5 @@ -48237,7 +48780,7 @@ HIDDEN _sk_invert_sse41_lowp .globl _sk_invert_sse41_lowp FUNCTION(_sk_invert_sse41_lowp) _sk_invert_sse41_lowp: - .byte 102,68,15,111,5,72,146,0,0 // movdqa 0x9248(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,84,146,0,0 // movdqa 0x9254(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 .byte 102,68,15,249,200 // psubw %xmm0,%xmm9 .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10 @@ -48269,7 +48812,7 @@ FUNCTION(_sk_srcatop_sse41_lowp) _sk_srcatop_sse41_lowp: .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8 .byte 102,15,213,199 // pmullw %xmm7,%xmm0 - .byte 102,15,111,29,236,145,0,0 // movdqa 0x91ec(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,15,111,29,248,145,0,0 // movdqa 0x91f8(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,68,15,111,203 // movdqa %xmm3,%xmm9 .byte 102,69,15,249,200 // psubw %xmm8,%xmm9 .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8 @@ -48301,7 +48844,7 @@ FUNCTION(_sk_dstatop_sse41_lowp) _sk_dstatop_sse41_lowp: .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8 .byte 102,68,15,213,195 // pmullw %xmm3,%xmm8 - .byte 102,68,15,111,13,108,145,0,0 // movdqa 0x916c(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,120,145,0,0 // movdqa 0x9178(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,69,15,253,193 // paddw %xmm9,%xmm8 .byte 102,68,15,111,213 // movdqa %xmm5,%xmm10 .byte 102,68,15,213,211 // pmullw %xmm3,%xmm10 @@ -48330,7 +48873,7 @@ HIDDEN _sk_srcin_sse41_lowp FUNCTION(_sk_srcin_sse41_lowp) _sk_srcin_sse41_lowp: .byte 102,15,213,199 // pmullw %xmm7,%xmm0 - .byte 102,68,15,111,5,247,144,0,0 // movdqa 0x90f7(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,3,145,0,0 // movdqa 0x9103(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,192 // paddw %xmm8,%xmm0 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,213,207 // pmullw %xmm7,%xmm1 @@ -48351,7 +48894,7 @@ FUNCTION(_sk_dstin_sse41_lowp) _sk_dstin_sse41_lowp: .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 102,15,213,195 // pmullw %xmm3,%xmm0 - .byte 102,68,15,111,5,174,144,0,0 // movdqa 0x90ae(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,186,144,0,0 // movdqa 0x90ba(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,192 // paddw %xmm8,%xmm0 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,111,205 // movdqa %xmm5,%xmm1 @@ -48372,7 +48915,7 @@ HIDDEN _sk_srcout_sse41_lowp .globl _sk_srcout_sse41_lowp FUNCTION(_sk_srcout_sse41_lowp) _sk_srcout_sse41_lowp: - .byte 102,68,15,111,5,101,144,0,0 // movdqa 0x9065(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,113,144,0,0 // movdqa 0x9071(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 .byte 102,68,15,249,207 // psubw %xmm7,%xmm9 .byte 102,65,15,213,193 // pmullw %xmm9,%xmm0 @@ -48395,7 +48938,7 @@ HIDDEN _sk_dstout_sse41_lowp FUNCTION(_sk_dstout_sse41_lowp) _sk_dstout_sse41_lowp: .byte 102,15,111,195 // movdqa %xmm3,%xmm0 - .byte 102,68,15,111,5,14,144,0,0 // movdqa 0x900e(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,26,144,0,0 // movdqa 0x901a(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3 .byte 102,15,249,216 // psubw %xmm0,%xmm3 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 @@ -48420,7 +48963,7 @@ HIDDEN _sk_srcover_sse41_lowp .globl _sk_srcover_sse41_lowp FUNCTION(_sk_srcover_sse41_lowp) _sk_srcover_sse41_lowp: - .byte 102,68,15,111,13,180,143,0,0 // movdqa 0x8fb4(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,192,143,0,0 // movdqa 0x8fc0(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8 .byte 102,68,15,249,195 // psubw %xmm3,%xmm8 .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10 @@ -48449,7 +48992,7 @@ HIDDEN _sk_dstover_sse41_lowp .globl _sk_dstover_sse41_lowp FUNCTION(_sk_dstover_sse41_lowp) _sk_dstover_sse41_lowp: - .byte 102,68,15,111,5,58,143,0,0 // movdqa 0x8f3a(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,70,143,0,0 // movdqa 0x8f46(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 .byte 102,68,15,249,207 // psubw %xmm7,%xmm9 .byte 102,65,15,213,193 // pmullw %xmm9,%xmm0 @@ -48476,7 +49019,7 @@ HIDDEN _sk_modulate_sse41_lowp FUNCTION(_sk_modulate_sse41_lowp) _sk_modulate_sse41_lowp: .byte 102,15,213,196 // pmullw %xmm4,%xmm0 - .byte 102,68,15,111,5,211,142,0,0 // movdqa 0x8ed3(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,223,142,0,0 // movdqa 0x8edf(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,192 // paddw %xmm8,%xmm0 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,213,205 // pmullw %xmm5,%xmm1 @@ -48495,7 +49038,7 @@ HIDDEN _sk_multiply_sse41_lowp .globl _sk_multiply_sse41_lowp FUNCTION(_sk_multiply_sse41_lowp) _sk_multiply_sse41_lowp: - .byte 102,68,15,111,13,146,142,0,0 // movdqa 0x8e92(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,158,142,0,0 // movdqa 0x8e9e(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8 .byte 102,68,15,249,195 // psubw %xmm3,%xmm8 .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10 @@ -48538,7 +49081,7 @@ HIDDEN _sk_plus__sse41_lowp FUNCTION(_sk_plus__sse41_lowp) _sk_plus__sse41_lowp: .byte 102,15,253,196 // paddw %xmm4,%xmm0 - .byte 102,68,15,111,5,215,141,0,0 // movdqa 0x8dd7(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,227,141,0,0 // movdqa 0x8de3(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,56,58,192 // pminuw %xmm8,%xmm0 .byte 102,15,253,205 // paddw %xmm5,%xmm1 .byte 102,65,15,56,58,200 // pminuw %xmm8,%xmm1 @@ -48558,7 +49101,7 @@ _sk_screen_sse41_lowp: .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 102,15,253,193 // paddw %xmm1,%xmm0 .byte 102,15,213,204 // pmullw %xmm4,%xmm1 - .byte 102,68,15,111,21,145,141,0,0 // movdqa 0x8d91(%rip),%xmm10 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,21,157,141,0,0 // movdqa 0x8d9d(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,202 // paddw %xmm10,%xmm1 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 .byte 102,15,249,193 // psubw %xmm1,%xmm0 @@ -48590,7 +49133,7 @@ HIDDEN _sk_xor__sse41_lowp FUNCTION(_sk_xor__sse41_lowp) _sk_xor__sse41_lowp: .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8 - .byte 102,68,15,111,13,15,141,0,0 // movdqa 0x8d0f(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,27,141,0,0 // movdqa 0x8d1b(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,69,15,111,209 // movdqa %xmm9,%xmm10 .byte 102,68,15,249,215 // psubw %xmm7,%xmm10 .byte 102,65,15,213,194 // pmullw %xmm10,%xmm0 @@ -48633,7 +49176,7 @@ _sk_darken_sse41_lowp: .byte 102,68,15,213,207 // pmullw %xmm7,%xmm9 .byte 102,15,213,203 // pmullw %xmm3,%xmm1 .byte 102,65,15,56,62,201 // pmaxuw %xmm9,%xmm1 - .byte 102,68,15,111,13,86,140,0,0 // movdqa 0x8c56(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,98,140,0,0 // movdqa 0x8c62(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,201 // paddw %xmm9,%xmm1 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 .byte 102,15,249,193 // psubw %xmm1,%xmm0 @@ -48677,7 +49220,7 @@ _sk_lighten_sse41_lowp: .byte 102,68,15,213,207 // pmullw %xmm7,%xmm9 .byte 102,15,213,203 // pmullw %xmm3,%xmm1 .byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1 - .byte 102,68,15,111,13,153,139,0,0 // movdqa 0x8b99(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,165,139,0,0 // movdqa 0x8ba5(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,201 // paddw %xmm9,%xmm1 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 .byte 102,15,249,193 // psubw %xmm1,%xmm0 @@ -48721,10 +49264,10 @@ _sk_difference_sse41_lowp: .byte 102,68,15,213,207 // pmullw %xmm7,%xmm9 .byte 102,15,213,203 // pmullw %xmm3,%xmm1 .byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1 - .byte 102,68,15,111,13,220,138,0,0 // movdqa 0x8adc(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,232,138,0,0 // movdqa 0x8ae8(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,201 // paddw %xmm9,%xmm1 .byte 102,15,113,209,7 // psrlw $0x7,%xmm1 - .byte 102,68,15,111,21,41,146,0,0 // movdqa 0x9229(%rip),%xmm10 # 3a830 <_sk_srcover_bgra_8888_sse2_lowp+0x12dc> + .byte 102,68,15,111,21,53,146,0,0 // movdqa 0x9235(%rip),%xmm10 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8> .byte 102,65,15,219,202 // pand %xmm10,%xmm1 .byte 102,15,249,193 // psubw %xmm1,%xmm0 .byte 102,68,15,111,221 // movdqa %xmm5,%xmm11 @@ -48766,10 +49309,10 @@ _sk_exclusion_sse41_lowp: .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 102,15,253,193 // paddw %xmm1,%xmm0 .byte 102,15,213,204 // pmullw %xmm4,%xmm1 - .byte 102,68,15,111,13,24,138,0,0 // movdqa 0x8a18(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,36,138,0,0 // movdqa 0x8a24(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,201 // paddw %xmm9,%xmm1 .byte 102,15,113,209,7 // psrlw $0x7,%xmm1 - .byte 102,68,15,111,21,101,145,0,0 // movdqa 0x9165(%rip),%xmm10 # 3a830 <_sk_srcover_bgra_8888_sse2_lowp+0x12dc> + .byte 102,68,15,111,21,113,145,0,0 // movdqa 0x9171(%rip),%xmm10 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8> .byte 102,65,15,219,202 // pand %xmm10,%xmm1 .byte 102,15,249,193 // psubw %xmm1,%xmm0 .byte 102,15,111,205 // movdqa %xmm5,%xmm1 @@ -48805,14 +49348,14 @@ _sk_hardlight_sse41_lowp: .byte 102,15,111,245 // movdqa %xmm5,%xmm6 .byte 102,15,111,236 // movdqa %xmm4,%xmm5 .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8 - .byte 102,68,15,111,29,115,137,0,0 // movdqa 0x8973(%rip),%xmm11 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,29,127,137,0,0 // movdqa 0x897f(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,69,15,249,220 // psubw %xmm12,%xmm11 .byte 102,65,15,111,227 // movdqa %xmm11,%xmm4 .byte 102,65,15,213,224 // pmullw %xmm8,%xmm4 .byte 102,68,15,111,251 // movdqa %xmm3,%xmm15 .byte 102,69,15,249,248 // psubw %xmm8,%xmm15 .byte 102,69,15,253,192 // paddw %xmm8,%xmm8 - .byte 102,68,15,111,13,188,144,0,0 // movdqa 0x90bc(%rip),%xmm9 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec> + .byte 102,68,15,111,13,200,144,0,0 // movdqa 0x90c8(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8> .byte 102,68,15,111,243 // movdqa %xmm3,%xmm14 .byte 102,69,15,239,241 // pxor %xmm9,%xmm14 .byte 102,65,15,111,196 // movdqa %xmm12,%xmm0 @@ -48859,7 +49402,7 @@ _sk_hardlight_sse41_lowp: .byte 102,68,15,111,232 // movdqa %xmm0,%xmm13 .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0 .byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2 - .byte 102,68,15,111,13,100,136,0,0 // movdqa 0x8864(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,112,136,0,0 // movdqa 0x8870(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0 .byte 102,15,249,195 // psubw %xmm3,%xmm0 .byte 102,15,111,248 // movdqa %xmm0,%xmm7 @@ -48898,7 +49441,7 @@ FUNCTION(_sk_overlay_sse41_lowp) _sk_overlay_sse41_lowp: .byte 102,68,15,111,231 // movdqa %xmm7,%xmm12 .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8 - .byte 102,68,15,111,29,199,135,0,0 // movdqa 0x87c7(%rip),%xmm11 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,29,211,135,0,0 // movdqa 0x87d3(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,69,15,249,220 // psubw %xmm12,%xmm11 .byte 102,65,15,111,195 // movdqa %xmm11,%xmm0 .byte 102,65,15,213,192 // pmullw %xmm8,%xmm0 @@ -48910,7 +49453,7 @@ _sk_overlay_sse41_lowp: .byte 102,68,15,249,252 // psubw %xmm4,%xmm15 .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 102,15,253,192 // paddw %xmm0,%xmm0 - .byte 102,68,15,111,13,248,142,0,0 // movdqa 0x8ef8(%rip),%xmm9 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec> + .byte 102,68,15,111,13,4,143,0,0 // movdqa 0x8f04(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8> .byte 102,69,15,111,212 // movdqa %xmm12,%xmm10 .byte 102,68,15,213,211 // pmullw %xmm3,%xmm10 .byte 102,69,15,213,254 // pmullw %xmm14,%xmm15 @@ -48956,7 +49499,7 @@ _sk_overlay_sse41_lowp: .byte 102,15,253,210 // paddw %xmm2,%xmm2 .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0 .byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2 - .byte 102,68,15,111,13,170,134,0,0 // movdqa 0x86aa(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,182,134,0,0 // movdqa 0x86b6(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0 .byte 102,15,249,195 // psubw %xmm3,%xmm0 .byte 102,15,111,248 // movdqa %xmm0,%xmm7 @@ -48999,49 +49542,49 @@ _sk_load_8888_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,41 // ja 31ae8 <_sk_load_8888_sse41_lowp+0x44> + .byte 119,41 // ja 324fc <_sk_load_8888_sse41_lowp+0x44> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 31bc0 <_sk_load_8888_sse41_lowp+0x11c> + .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 325d4 <_sk_load_8888_sse41_lowp+0x11c> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 255,224 // jmpq *%rax .byte 102,65,15,110,20,144 // movd (%r8,%rdx,4),%xmm2 .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 - .byte 235,89 // jmp 31b41 <_sk_load_8888_sse41_lowp+0x9d> + .byte 235,89 // jmp 32555 <_sk_load_8888_sse41_lowp+0x9d> .byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2 .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8 - .byte 235,74 // jmp 31b41 <_sk_load_8888_sse41_lowp+0x9d> + .byte 235,74 // jmp 32555 <_sk_load_8888_sse41_lowp+0x9d> .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0 .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 243,65,15,126,20,144 // movq (%r8,%rdx,4),%xmm2 .byte 102,65,15,58,14,208,240 // pblendw $0xf0,%xmm8,%xmm2 .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8 - .byte 235,37 // jmp 31b41 <_sk_load_8888_sse41_lowp+0x9d> + .byte 235,37 // jmp 32555 <_sk_load_8888_sse41_lowp+0x9d> .byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0 .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8 .byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8 .byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8 .byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2 - .byte 102,15,111,5,7,141,0,0 // movdqa 0x8d07(%rip),%xmm0 # 3a850 <_sk_srcover_bgra_8888_sse2_lowp+0x12fc> + .byte 102,15,111,5,19,141,0,0 // movdqa 0x8d13(%rip),%xmm0 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308> .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,15,56,0,200 // pshufb %xmm0,%xmm1 .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3 .byte 102,15,56,0,216 // pshufb %xmm0,%xmm3 .byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1 - .byte 102,68,15,111,13,103,133,0,0 // movdqa 0x8567(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,115,133,0,0 // movdqa 0x8573(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,65,15,219,193 // pand %xmm9,%xmm0 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 - .byte 102,68,15,111,21,224,140,0,0 // movdqa 0x8ce0(%rip),%xmm10 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x130c> + .byte 102,68,15,111,21,236,140,0,0 // movdqa 0x8cec(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318> .byte 102,15,111,218 // movdqa %xmm2,%xmm3 .byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3 .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11 .byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11 .byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3 - .byte 102,68,15,111,21,205,140,0,0 // movdqa 0x8ccd(%rip),%xmm10 # 3a870 <_sk_srcover_bgra_8888_sse2_lowp+0x131c> + .byte 102,68,15,111,21,217,140,0,0 // movdqa 0x8cd9(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328> .byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2 .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8 .byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2 @@ -49057,7 +49600,7 @@ _sk_load_8888_sse41_lowp: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 123,255 // jnp 31bcd <_sk_load_8888_sse41_lowp+0x129> + .byte 123,255 // jnp 325e1 <_sk_load_8888_sse41_lowp+0x129> .byte 255 // (bad) .byte 255,114,255 // pushq -0x1(%rdx) .byte 255 // (bad) @@ -49079,49 +49622,49 @@ _sk_load_8888_dst_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,41 // ja 31c20 <_sk_load_8888_dst_sse41_lowp+0x44> + .byte 119,41 // ja 32634 <_sk_load_8888_dst_sse41_lowp+0x44> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 31cf8 <_sk_load_8888_dst_sse41_lowp+0x11c> + .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 3270c <_sk_load_8888_dst_sse41_lowp+0x11c> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 255,224 // jmpq *%rax .byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6 .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 - .byte 235,89 // jmp 31c79 <_sk_load_8888_dst_sse41_lowp+0x9d> + .byte 235,89 // jmp 3268d <_sk_load_8888_dst_sse41_lowp+0x9d> .byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6 .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8 - .byte 235,74 // jmp 31c79 <_sk_load_8888_dst_sse41_lowp+0x9d> + .byte 235,74 // jmp 3268d <_sk_load_8888_dst_sse41_lowp+0x9d> .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6 .byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6 .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8 - .byte 235,37 // jmp 31c79 <_sk_load_8888_dst_sse41_lowp+0x9d> + .byte 235,37 // jmp 3268d <_sk_load_8888_dst_sse41_lowp+0x9d> .byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8 .byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8 .byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6 - .byte 102,15,111,37,207,139,0,0 // movdqa 0x8bcf(%rip),%xmm4 # 3a850 <_sk_srcover_bgra_8888_sse2_lowp+0x12fc> + .byte 102,15,111,37,219,139,0,0 // movdqa 0x8bdb(%rip),%xmm4 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308> .byte 102,15,111,238 // movdqa %xmm6,%xmm5 .byte 102,15,56,0,236 // pshufb %xmm4,%xmm5 .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7 .byte 102,15,56,0,252 // pshufb %xmm4,%xmm7 .byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5 - .byte 102,68,15,111,13,47,132,0,0 // movdqa 0x842f(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,59,132,0,0 // movdqa 0x843b(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,229 // movdqa %xmm5,%xmm4 .byte 102,65,15,219,225 // pand %xmm9,%xmm4 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 - .byte 102,68,15,111,21,168,139,0,0 // movdqa 0x8ba8(%rip),%xmm10 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x130c> + .byte 102,68,15,111,21,180,139,0,0 // movdqa 0x8bb4(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318> .byte 102,15,111,254 // movdqa %xmm6,%xmm7 .byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7 .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11 .byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11 .byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7 - .byte 102,68,15,111,21,149,139,0,0 // movdqa 0x8b95(%rip),%xmm10 # 3a870 <_sk_srcover_bgra_8888_sse2_lowp+0x131c> + .byte 102,68,15,111,21,161,139,0,0 // movdqa 0x8ba1(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328> .byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6 .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8 .byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6 @@ -49137,7 +49680,7 @@ _sk_load_8888_dst_sse41_lowp: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 123,255 // jnp 31d05 <_sk_load_8888_dst_sse41_lowp+0x129> + .byte 123,255 // jnp 32719 <_sk_load_8888_dst_sse41_lowp+0x129> .byte 255 // (bad) .byte 255,114,255 // pushq -0x1(%rdx) .byte 255 // (bad) @@ -49174,20 +49717,20 @@ _sk_store_8888_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,27 // ja 31d9a <_sk_store_8888_sse41_lowp+0x86> + .byte 119,27 // ja 327ae <_sk_store_8888_sse41_lowp+0x86> .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 31de0 <_sk_store_8888_sse41_lowp+0xcc> + .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 327f4 <_sk_store_8888_sse41_lowp+0xcc> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4) - .byte 235,63 // jmp 31dd9 <_sk_store_8888_sse41_lowp+0xc5> + .byte 235,63 // jmp 327ed <_sk_store_8888_sse41_lowp+0xc5> .byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4) .byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4) - .byte 235,48 // jmp 31dd9 <_sk_store_8888_sse41_lowp+0xc5> + .byte 235,48 // jmp 327ed <_sk_store_8888_sse41_lowp+0xc5> .byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4) .byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4) - .byte 235,31 // jmp 31dd9 <_sk_store_8888_sse41_lowp+0xc5> + .byte 235,31 // jmp 327ed <_sk_store_8888_sse41_lowp+0xc5> .byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4) .byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4) .byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4) @@ -49231,49 +49774,49 @@ _sk_load_bgra_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,41 // ja 31e40 <_sk_load_bgra_sse41_lowp+0x44> + .byte 119,41 // ja 32854 <_sk_load_bgra_sse41_lowp+0x44> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 31f18 <_sk_load_bgra_sse41_lowp+0x11c> + .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 3292c <_sk_load_bgra_sse41_lowp+0x11c> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 255,224 // jmpq *%rax .byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0 .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 - .byte 235,89 // jmp 31e99 <_sk_load_bgra_sse41_lowp+0x9d> + .byte 235,89 // jmp 328ad <_sk_load_bgra_sse41_lowp+0x9d> .byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0 .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8 - .byte 235,74 // jmp 31e99 <_sk_load_bgra_sse41_lowp+0x9d> + .byte 235,74 // jmp 328ad <_sk_load_bgra_sse41_lowp+0x9d> .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0 .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0 .byte 102,65,15,58,14,192,240 // pblendw $0xf0,%xmm8,%xmm0 .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8 - .byte 235,37 // jmp 31e99 <_sk_load_bgra_sse41_lowp+0x9d> + .byte 235,37 // jmp 328ad <_sk_load_bgra_sse41_lowp+0x9d> .byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0 .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8 .byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8 .byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8 .byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0 - .byte 102,15,111,21,175,137,0,0 // movdqa 0x89af(%rip),%xmm2 # 3a850 <_sk_srcover_bgra_8888_sse2_lowp+0x12fc> + .byte 102,15,111,21,187,137,0,0 // movdqa 0x89bb(%rip),%xmm2 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308> .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,56,0,202 // pshufb %xmm2,%xmm1 .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3 .byte 102,15,56,0,218 // pshufb %xmm2,%xmm3 .byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1 - .byte 102,68,15,111,13,15,130,0,0 // movdqa 0x820f(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,27,130,0,0 // movdqa 0x821b(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,65,15,219,209 // pand %xmm9,%xmm2 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 - .byte 102,68,15,111,21,136,137,0,0 // movdqa 0x8988(%rip),%xmm10 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x130c> + .byte 102,68,15,111,21,148,137,0,0 // movdqa 0x8994(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318> .byte 102,15,111,216 // movdqa %xmm0,%xmm3 .byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3 .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11 .byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11 .byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3 - .byte 102,68,15,111,21,117,137,0,0 // movdqa 0x8975(%rip),%xmm10 # 3a870 <_sk_srcover_bgra_8888_sse2_lowp+0x131c> + .byte 102,68,15,111,21,129,137,0,0 // movdqa 0x8981(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328> .byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0 .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8 .byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0 @@ -49289,7 +49832,7 @@ _sk_load_bgra_sse41_lowp: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 123,255 // jnp 31f25 <_sk_load_bgra_sse41_lowp+0x129> + .byte 123,255 // jnp 32939 <_sk_load_bgra_sse41_lowp+0x129> .byte 255 // (bad) .byte 255,114,255 // pushq -0x1(%rdx) .byte 255 // (bad) @@ -49311,49 +49854,49 @@ _sk_load_bgra_dst_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,41 // ja 31f78 <_sk_load_bgra_dst_sse41_lowp+0x44> + .byte 119,41 // ja 3298c <_sk_load_bgra_dst_sse41_lowp+0x44> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 32050 <_sk_load_bgra_dst_sse41_lowp+0x11c> + .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 32a64 <_sk_load_bgra_dst_sse41_lowp+0x11c> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 102,15,239,237 // pxor %xmm5,%xmm5 .byte 255,224 // jmpq *%rax .byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4 .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 - .byte 235,89 // jmp 31fd1 <_sk_load_bgra_dst_sse41_lowp+0x9d> + .byte 235,89 // jmp 329e5 <_sk_load_bgra_dst_sse41_lowp+0x9d> .byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4 .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8 - .byte 235,74 // jmp 31fd1 <_sk_load_bgra_dst_sse41_lowp+0x9d> + .byte 235,74 // jmp 329e5 <_sk_load_bgra_dst_sse41_lowp+0x9d> .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 102,15,239,237 // pxor %xmm5,%xmm5 .byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4 .byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4 .byte 102,68,15,111,197 // movdqa %xmm5,%xmm8 - .byte 235,37 // jmp 31fd1 <_sk_load_bgra_dst_sse41_lowp+0x9d> + .byte 235,37 // jmp 329e5 <_sk_load_bgra_dst_sse41_lowp+0x9d> .byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8 .byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8 .byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4 - .byte 102,15,111,53,119,136,0,0 // movdqa 0x8877(%rip),%xmm6 # 3a850 <_sk_srcover_bgra_8888_sse2_lowp+0x12fc> + .byte 102,15,111,53,131,136,0,0 // movdqa 0x8883(%rip),%xmm6 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308> .byte 102,15,111,236 // movdqa %xmm4,%xmm5 .byte 102,15,56,0,238 // pshufb %xmm6,%xmm5 .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7 .byte 102,15,56,0,254 // pshufb %xmm6,%xmm7 .byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5 - .byte 102,68,15,111,13,215,128,0,0 // movdqa 0x80d7(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,227,128,0,0 // movdqa 0x80e3(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,245 // movdqa %xmm5,%xmm6 .byte 102,65,15,219,241 // pand %xmm9,%xmm6 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 - .byte 102,68,15,111,21,80,136,0,0 // movdqa 0x8850(%rip),%xmm10 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x130c> + .byte 102,68,15,111,21,92,136,0,0 // movdqa 0x885c(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318> .byte 102,15,111,252 // movdqa %xmm4,%xmm7 .byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7 .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11 .byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11 .byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7 - .byte 102,68,15,111,21,61,136,0,0 // movdqa 0x883d(%rip),%xmm10 # 3a870 <_sk_srcover_bgra_8888_sse2_lowp+0x131c> + .byte 102,68,15,111,21,73,136,0,0 // movdqa 0x8849(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328> .byte 102,65,15,56,0,226 // pshufb %xmm10,%xmm4 .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8 .byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4 @@ -49369,7 +49912,7 @@ _sk_load_bgra_dst_sse41_lowp: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 123,255 // jnp 3205d <_sk_load_bgra_dst_sse41_lowp+0x129> + .byte 123,255 // jnp 32a71 <_sk_load_bgra_dst_sse41_lowp+0x129> .byte 255 // (bad) .byte 255,114,255 // pushq -0x1(%rdx) .byte 255 // (bad) @@ -49406,20 +49949,20 @@ _sk_store_bgra_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,27 // ja 320f2 <_sk_store_bgra_sse41_lowp+0x86> + .byte 119,27 // ja 32b06 <_sk_store_bgra_sse41_lowp+0x86> .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 32138 <_sk_store_bgra_sse41_lowp+0xcc> + .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 32b4c <_sk_store_bgra_sse41_lowp+0xcc> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4) - .byte 235,63 // jmp 32131 <_sk_store_bgra_sse41_lowp+0xc5> + .byte 235,63 // jmp 32b45 <_sk_store_bgra_sse41_lowp+0xc5> .byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4) .byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4) - .byte 235,48 // jmp 32131 <_sk_store_bgra_sse41_lowp+0xc5> + .byte 235,48 // jmp 32b45 <_sk_store_bgra_sse41_lowp+0xc5> .byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4) .byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4) - .byte 235,31 // jmp 32131 <_sk_store_bgra_sse41_lowp+0xc5> + .byte 235,31 // jmp 32b45 <_sk_store_bgra_sse41_lowp+0xc5> .byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4) .byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4) .byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4) @@ -49522,17 +50065,17 @@ _sk_gather_8888_sse41_lowp: .byte 102,65,15,196,202,5 // pinsrw $0x5,%r10d,%xmm1 .byte 102,65,15,196,201,6 // pinsrw $0x6,%r9d,%xmm1 .byte 102,15,196,200,7 // pinsrw $0x7,%eax,%xmm1 - .byte 102,68,15,111,13,64,126,0,0 // movdqa 0x7e40(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,76,126,0,0 // movdqa 0x7e4c(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,65,15,219,193 // pand %xmm9,%xmm0 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 - .byte 102,68,15,111,21,185,133,0,0 // movdqa 0x85b9(%rip),%xmm10 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x130c> + .byte 102,68,15,111,21,197,133,0,0 // movdqa 0x85c5(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318> .byte 102,15,111,218 // movdqa %xmm2,%xmm3 .byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3 .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11 .byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11 .byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3 - .byte 102,68,15,111,21,166,133,0,0 // movdqa 0x85a6(%rip),%xmm10 # 3a870 <_sk_srcover_bgra_8888_sse2_lowp+0x131c> + .byte 102,68,15,111,21,178,133,0,0 // movdqa 0x85b2(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328> .byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2 .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8 .byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2 @@ -49617,17 +50160,17 @@ _sk_gather_bgra_sse41_lowp: .byte 102,65,15,196,202,5 // pinsrw $0x5,%r10d,%xmm1 .byte 102,65,15,196,201,6 // pinsrw $0x6,%r9d,%xmm1 .byte 102,15,196,200,7 // pinsrw $0x7,%eax,%xmm1 - .byte 102,68,15,111,13,168,124,0,0 // movdqa 0x7ca8(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,180,124,0,0 // movdqa 0x7cb4(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,65,15,219,209 // pand %xmm9,%xmm2 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 - .byte 102,68,15,111,21,33,132,0,0 // movdqa 0x8421(%rip),%xmm10 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x130c> + .byte 102,68,15,111,21,45,132,0,0 // movdqa 0x842d(%rip),%xmm10 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318> .byte 102,15,111,216 // movdqa %xmm0,%xmm3 .byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3 .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11 .byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11 .byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3 - .byte 102,68,15,111,21,14,132,0,0 // movdqa 0x840e(%rip),%xmm10 # 3a870 <_sk_srcover_bgra_8888_sse2_lowp+0x131c> + .byte 102,68,15,111,21,26,132,0,0 // movdqa 0x841a(%rip),%xmm10 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328> .byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0 .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8 .byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0 @@ -49653,23 +50196,23 @@ _sk_load_565_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,34 // ja 324c0 <_sk_load_565_sse41_lowp+0x3c> + .byte 119,34 // ja 32ed4 <_sk_load_565_sse41_lowp+0x3c> .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 32570 <_sk_load_565_sse41_lowp+0xec> + .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 32f84 <_sk_load_565_sse41_lowp+0xec> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax .byte 102,15,110,192 // movd %eax,%xmm0 - .byte 235,74 // jmp 3250a <_sk_load_565_sse41_lowp+0x86> + .byte 235,74 // jmp 32f1e <_sk_load_565_sse41_lowp+0x86> .byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0 - .byte 235,66 // jmp 3250a <_sk_load_565_sse41_lowp+0x86> + .byte 235,66 // jmp 32f1e <_sk_load_565_sse41_lowp+0x86> .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,65,15,196,76,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm1 .byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0 .byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0 - .byte 235,40 // jmp 3250a <_sk_load_565_sse41_lowp+0x86> + .byte 235,40 // jmp 32f1e <_sk_load_565_sse41_lowp+0x86> .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,65,15,196,76,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm1 .byte 102,65,15,196,76,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm1 @@ -49678,11 +50221,11 @@ _sk_load_565_sse41_lowp: .byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0 .byte 102,15,111,216 // movdqa %xmm0,%xmm3 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 - .byte 102,15,219,29,101,131,0,0 // pand 0x8365(%rip),%xmm3 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c> + .byte 102,15,219,29,113,131,0,0 // pand 0x8371(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338> .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,113,209,5 // psrlw $0x5,%xmm1 - .byte 102,15,219,13,100,131,0,0 // pand 0x8364(%rip),%xmm1 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c> - .byte 102,15,111,21,108,131,0,0 // movdqa 0x836c(%rip),%xmm2 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c> + .byte 102,15,219,13,112,131,0,0 // pand 0x8370(%rip),%xmm1 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348> + .byte 102,15,111,21,120,131,0,0 // movdqa 0x8378(%rip),%xmm2 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358> .byte 102,15,219,208 // pand %xmm0,%xmm2 .byte 102,15,113,208,13 // psrlw $0xd,%xmm0 .byte 102,15,235,195 // por %xmm3,%xmm0 @@ -49695,7 +50238,7 @@ _sk_load_565_sse41_lowp: .byte 102,15,113,210,2 // psrlw $0x2,%xmm2 .byte 102,15,235,211 // por %xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,98,123,0,0 // movaps 0x7b62(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 15,40,29,110,123,0,0 // movaps 0x7b6e(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 255,224 // jmpq *%rax .byte 69,255 // rex.RB (bad) .byte 255 // (bad) @@ -49706,7 +50249,7 @@ _sk_load_565_sse41_lowp: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 126,255 // jle 32585 <_sk_load_565_sse41_lowp+0x101> + .byte 126,255 // jle 32f99 <_sk_load_565_sse41_lowp+0x101> .byte 255 // (bad) .byte 255,114,255 // pushq -0x1(%rdx) .byte 255 // (bad) @@ -49725,23 +50268,23 @@ _sk_load_565_dst_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,34 // ja 325c8 <_sk_load_565_dst_sse41_lowp+0x3c> + .byte 119,34 // ja 32fdc <_sk_load_565_dst_sse41_lowp+0x3c> .byte 102,15,239,237 // pxor %xmm5,%xmm5 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 32678 <_sk_load_565_dst_sse41_lowp+0xec> + .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 3308c <_sk_load_565_dst_sse41_lowp+0xec> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax .byte 102,15,110,224 // movd %eax,%xmm4 - .byte 235,74 // jmp 32612 <_sk_load_565_dst_sse41_lowp+0x86> + .byte 235,74 // jmp 33026 <_sk_load_565_dst_sse41_lowp+0x86> .byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4 - .byte 235,66 // jmp 32612 <_sk_load_565_dst_sse41_lowp+0x86> + .byte 235,66 // jmp 33026 <_sk_load_565_dst_sse41_lowp+0x86> .byte 102,15,239,237 // pxor %xmm5,%xmm5 .byte 102,65,15,196,108,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm5 .byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4 .byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4 - .byte 235,40 // jmp 32612 <_sk_load_565_dst_sse41_lowp+0x86> + .byte 235,40 // jmp 33026 <_sk_load_565_dst_sse41_lowp+0x86> .byte 102,15,239,237 // pxor %xmm5,%xmm5 .byte 102,65,15,196,108,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm5 .byte 102,65,15,196,108,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm5 @@ -49750,11 +50293,11 @@ _sk_load_565_dst_sse41_lowp: .byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4 .byte 102,15,111,252 // movdqa %xmm4,%xmm7 .byte 102,15,113,215,8 // psrlw $0x8,%xmm7 - .byte 102,15,219,61,93,130,0,0 // pand 0x825d(%rip),%xmm7 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c> + .byte 102,15,219,61,105,130,0,0 // pand 0x8269(%rip),%xmm7 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338> .byte 102,15,111,236 // movdqa %xmm4,%xmm5 .byte 102,15,113,213,5 // psrlw $0x5,%xmm5 - .byte 102,15,219,45,92,130,0,0 // pand 0x825c(%rip),%xmm5 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c> - .byte 102,15,111,53,100,130,0,0 // movdqa 0x8264(%rip),%xmm6 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c> + .byte 102,15,219,45,104,130,0,0 // pand 0x8268(%rip),%xmm5 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348> + .byte 102,15,111,53,112,130,0,0 // movdqa 0x8270(%rip),%xmm6 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358> .byte 102,15,219,244 // pand %xmm4,%xmm6 .byte 102,15,113,212,13 // psrlw $0xd,%xmm4 .byte 102,15,235,231 // por %xmm7,%xmm4 @@ -49767,7 +50310,7 @@ _sk_load_565_dst_sse41_lowp: .byte 102,15,113,214,2 // psrlw $0x2,%xmm6 .byte 102,15,235,247 // por %xmm7,%xmm6 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,61,90,122,0,0 // movaps 0x7a5a(%rip),%xmm7 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 15,40,61,102,122,0,0 // movaps 0x7a66(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 255,224 // jmpq *%rax .byte 69,255 // rex.RB (bad) .byte 255 // (bad) @@ -49778,7 +50321,7 @@ _sk_load_565_dst_sse41_lowp: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 126,255 // jle 3268d <_sk_load_565_dst_sse41_lowp+0x101> + .byte 126,255 // jle 330a1 <_sk_load_565_dst_sse41_lowp+0x101> .byte 255 // (bad) .byte 255,114,255 // pushq -0x1(%rdx) .byte 255 // (bad) @@ -49795,10 +50338,10 @@ _sk_store_565_sse41_lowp: .byte 76,3,0 // add (%rax),%r8 .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8 .byte 102,65,15,113,240,8 // psllw $0x8,%xmm8 - .byte 102,68,15,219,5,248,129,0,0 // pand 0x81f8(%rip),%xmm8 # 3a8b0 <_sk_srcover_bgra_8888_sse2_lowp+0x135c> + .byte 102,68,15,219,5,4,130,0,0 // pand 0x8204(%rip),%xmm8 # 3b2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1368> .byte 102,68,15,111,201 // movdqa %xmm1,%xmm9 .byte 102,65,15,113,241,3 // psllw $0x3,%xmm9 - .byte 102,68,15,219,13,244,129,0,0 // pand 0x81f4(%rip),%xmm9 # 3a8c0 <_sk_srcover_bgra_8888_sse2_lowp+0x136c> + .byte 102,68,15,219,13,0,130,0,0 // pand 0x8200(%rip),%xmm9 # 3b2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1378> .byte 102,69,15,235,200 // por %xmm8,%xmm9 .byte 102,68,15,111,194 // movdqa %xmm2,%xmm8 .byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8 @@ -49807,19 +50350,19 @@ _sk_store_565_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,29 // ja 32708 <_sk_store_565_sse41_lowp+0x74> + .byte 119,29 // ja 3311c <_sk_store_565_sse41_lowp+0x74> .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 32748 <_sk_store_565_sse41_lowp+0xb4> + .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 3315c <_sk_store_565_sse41_lowp+0xb4> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2) - .byte 235,58 // jmp 32742 <_sk_store_565_sse41_lowp+0xae> + .byte 235,58 // jmp 33156 <_sk_store_565_sse41_lowp+0xae> .byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2) - .byte 235,50 // jmp 32742 <_sk_store_565_sse41_lowp+0xae> + .byte 235,50 // jmp 33156 <_sk_store_565_sse41_lowp+0xae> .byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2) .byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2) - .byte 235,33 // jmp 32742 <_sk_store_565_sse41_lowp+0xae> + .byte 235,33 // jmp 33156 <_sk_store_565_sse41_lowp+0xae> .byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2) .byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2) .byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2) @@ -49839,7 +50382,7 @@ _sk_store_565_sse41_lowp: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 235,255 // jmp 32759 <_sk_store_565_sse41_lowp+0xc5> + .byte 235,255 // jmp 3316d <_sk_store_565_sse41_lowp+0xc5> .byte 255 // (bad) .byte 255,226 // jmpq *%rdx .byte 255 // (bad) @@ -49916,11 +50459,11 @@ _sk_gather_565_sse41_lowp: .byte 102,15,196,192,7 // pinsrw $0x7,%eax,%xmm0 .byte 102,15,111,216 // movdqa %xmm0,%xmm3 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 - .byte 102,15,219,29,2,128,0,0 // pand 0x8002(%rip),%xmm3 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c> + .byte 102,15,219,29,14,128,0,0 // pand 0x800e(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338> .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,113,209,5 // psrlw $0x5,%xmm1 - .byte 102,15,219,13,1,128,0,0 // pand 0x8001(%rip),%xmm1 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c> - .byte 102,15,111,21,9,128,0,0 // movdqa 0x8009(%rip),%xmm2 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c> + .byte 102,15,219,13,13,128,0,0 // pand 0x800d(%rip),%xmm1 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348> + .byte 102,15,111,21,21,128,0,0 // movdqa 0x8015(%rip),%xmm2 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358> .byte 102,15,219,208 // pand %xmm0,%xmm2 .byte 102,15,113,208,13 // psrlw $0xd,%xmm0 .byte 102,15,235,195 // por %xmm3,%xmm0 @@ -49933,7 +50476,7 @@ _sk_gather_565_sse41_lowp: .byte 102,15,113,210,2 // psrlw $0x2,%xmm2 .byte 102,15,235,211 // por %xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,255,119,0,0 // movaps 0x77ff(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 15,40,29,11,120,0,0 // movaps 0x780b(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,94 // pop %r14 @@ -49954,23 +50497,23 @@ _sk_load_4444_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,35 // ja 32918 <_sk_load_4444_sse41_lowp+0x3d> + .byte 119,35 // ja 3332c <_sk_load_4444_sse41_lowp+0x3d> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,209,0,0,0 // lea 0xd1(%rip),%r9 # 329d4 <_sk_load_4444_sse41_lowp+0xf9> + .byte 76,141,13,209,0,0,0 // lea 0xd1(%rip),%r9 # 333e8 <_sk_load_4444_sse41_lowp+0xf9> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 - .byte 235,76 // jmp 32964 <_sk_load_4444_sse41_lowp+0x89> + .byte 235,76 // jmp 33378 <_sk_load_4444_sse41_lowp+0x89> .byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8 - .byte 235,68 // jmp 32964 <_sk_load_4444_sse41_lowp+0x89> + .byte 235,68 // jmp 33378 <_sk_load_4444_sse41_lowp+0x89> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0 .byte 102,69,15,110,4,80 // movd (%r8,%rdx,2),%xmm8 .byte 102,68,15,58,14,192,252 // pblendw $0xfc,%xmm0,%xmm8 - .byte 235,41 // jmp 32964 <_sk_load_4444_sse41_lowp+0x89> + .byte 235,41 // jmp 33378 <_sk_load_4444_sse41_lowp+0x89> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0 .byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0 @@ -49981,7 +50524,7 @@ _sk_load_4444_sse41_lowp: .byte 102,15,113,209,12 // psrlw $0xc,%xmm1 .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 - .byte 102,15,111,5,80,127,0,0 // movdqa 0x7f50(%rip),%xmm0 # 3a8d0 <_sk_srcover_bgra_8888_sse2_lowp+0x137c> + .byte 102,15,111,5,92,127,0,0 // movdqa 0x7f5c(%rip),%xmm0 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388> .byte 102,15,219,208 // pand %xmm0,%xmm2 .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3 .byte 102,15,113,211,4 // psrlw $0x4,%xmm3 @@ -50029,23 +50572,23 @@ _sk_load_4444_dst_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,35 // ja 32a2d <_sk_load_4444_dst_sse41_lowp+0x3d> + .byte 119,35 // ja 33441 <_sk_load_4444_dst_sse41_lowp+0x3d> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,208,0,0,0 // lea 0xd0(%rip),%r9 # 32ae8 <_sk_load_4444_dst_sse41_lowp+0xf8> + .byte 76,141,13,208,0,0,0 // lea 0xd0(%rip),%r9 # 334fc <_sk_load_4444_dst_sse41_lowp+0xf8> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 - .byte 235,76 // jmp 32a79 <_sk_load_4444_dst_sse41_lowp+0x89> + .byte 235,76 // jmp 3348d <_sk_load_4444_dst_sse41_lowp+0x89> .byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8 - .byte 235,68 // jmp 32a79 <_sk_load_4444_dst_sse41_lowp+0x89> + .byte 235,68 // jmp 3348d <_sk_load_4444_dst_sse41_lowp+0x89> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4 .byte 102,69,15,110,4,80 // movd (%r8,%rdx,2),%xmm8 .byte 102,68,15,58,14,196,252 // pblendw $0xfc,%xmm4,%xmm8 - .byte 235,41 // jmp 32a79 <_sk_load_4444_dst_sse41_lowp+0x89> + .byte 235,41 // jmp 3348d <_sk_load_4444_dst_sse41_lowp+0x89> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4 .byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4 @@ -50056,7 +50599,7 @@ _sk_load_4444_dst_sse41_lowp: .byte 102,15,113,213,12 // psrlw $0xc,%xmm5 .byte 102,65,15,111,240 // movdqa %xmm8,%xmm6 .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 - .byte 102,15,111,37,59,126,0,0 // movdqa 0x7e3b(%rip),%xmm4 # 3a8d0 <_sk_srcover_bgra_8888_sse2_lowp+0x137c> + .byte 102,15,111,37,71,126,0,0 // movdqa 0x7e47(%rip),%xmm4 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388> .byte 102,15,219,244 // pand %xmm4,%xmm6 .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7 .byte 102,15,113,215,4 // psrlw $0x4,%xmm7 @@ -50101,12 +50644,12 @@ _sk_store_4444_sse41_lowp: .byte 76,3,0 // add (%rax),%r8 .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8 .byte 102,65,15,113,240,8 // psllw $0x8,%xmm8 - .byte 102,68,15,219,5,184,125,0,0 // pand 0x7db8(%rip),%xmm8 # 3a8e0 <_sk_srcover_bgra_8888_sse2_lowp+0x138c> + .byte 102,68,15,219,5,196,125,0,0 // pand 0x7dc4(%rip),%xmm8 # 3b300 <_sk_srcover_bgra_8888_sse2_lowp+0x1398> .byte 102,68,15,111,201 // movdqa %xmm1,%xmm9 .byte 102,65,15,113,241,4 // psllw $0x4,%xmm9 - .byte 102,68,15,219,13,180,125,0,0 // pand 0x7db4(%rip),%xmm9 # 3a8f0 <_sk_srcover_bgra_8888_sse2_lowp+0x139c> + .byte 102,68,15,219,13,192,125,0,0 // pand 0x7dc0(%rip),%xmm9 # 3b310 <_sk_srcover_bgra_8888_sse2_lowp+0x13a8> .byte 102,69,15,235,200 // por %xmm8,%xmm9 - .byte 102,68,15,111,21,182,125,0,0 // movdqa 0x7db6(%rip),%xmm10 # 3a900 <_sk_srcover_bgra_8888_sse2_lowp+0x13ac> + .byte 102,68,15,111,21,194,125,0,0 // movdqa 0x7dc2(%rip),%xmm10 # 3b320 <_sk_srcover_bgra_8888_sse2_lowp+0x13b8> .byte 102,68,15,219,210 // pand %xmm2,%xmm10 .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8 .byte 102,65,15,113,208,4 // psrlw $0x4,%xmm8 @@ -50116,19 +50659,19 @@ _sk_store_4444_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,29 // ja 32b8b <_sk_store_4444_sse41_lowp+0x87> + .byte 119,29 // ja 3359f <_sk_store_4444_sse41_lowp+0x87> .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,84,0,0,0 // lea 0x54(%rip),%r9 # 32bcc <_sk_store_4444_sse41_lowp+0xc8> + .byte 76,141,13,84,0,0,0 // lea 0x54(%rip),%r9 # 335e0 <_sk_store_4444_sse41_lowp+0xc8> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2) - .byte 235,58 // jmp 32bc5 <_sk_store_4444_sse41_lowp+0xc1> + .byte 235,58 // jmp 335d9 <_sk_store_4444_sse41_lowp+0xc1> .byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2) - .byte 235,50 // jmp 32bc5 <_sk_store_4444_sse41_lowp+0xc1> + .byte 235,50 // jmp 335d9 <_sk_store_4444_sse41_lowp+0xc1> .byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2) .byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2) - .byte 235,33 // jmp 32bc5 <_sk_store_4444_sse41_lowp+0xc1> + .byte 235,33 // jmp 335d9 <_sk_store_4444_sse41_lowp+0xc1> .byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2) .byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2) .byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2) @@ -50228,7 +50771,7 @@ _sk_gather_4444_sse41_lowp: .byte 102,15,113,209,12 // psrlw $0xc,%xmm1 .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 - .byte 102,15,111,5,188,123,0,0 // movdqa 0x7bbc(%rip),%xmm0 # 3a8d0 <_sk_srcover_bgra_8888_sse2_lowp+0x137c> + .byte 102,15,111,5,200,123,0,0 // movdqa 0x7bc8(%rip),%xmm0 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388> .byte 102,15,219,208 // pand %xmm0,%xmm2 .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3 .byte 102,15,113,211,4 // psrlw $0x4,%xmm3 @@ -50266,18 +50809,18 @@ _sk_load_a8_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,34 // ja 32da6 <_sk_load_a8_sse41_lowp+0x39> + .byte 119,34 // ja 337ba <_sk_load_a8_sse41_lowp+0x39> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 32e24 <_sk_load_a8_sse41_lowp+0xb7> + .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 33838 <_sk_load_a8_sse41_lowp+0xb7> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax .byte 102,15,110,216 // movd %eax,%xmm3 - .byte 235,100 // jmp 32e0a <_sk_load_a8_sse41_lowp+0x9d> + .byte 235,100 // jmp 3381e <_sk_load_a8_sse41_lowp+0x9d> .byte 102,65,15,56,48,28,16 // pmovzxbw (%r8,%rdx,1),%xmm3 - .byte 235,91 // jmp 32e0a <_sk_load_a8_sse41_lowp+0x9d> + .byte 235,91 // jmp 3381e <_sk_load_a8_sse41_lowp+0x9d> .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0 @@ -50285,7 +50828,7 @@ _sk_load_a8_sse41_lowp: .byte 102,15,110,200 // movd %eax,%xmm1 .byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3 .byte 102,15,58,14,216,252 // pblendw $0xfc,%xmm0,%xmm3 - .byte 235,54 // jmp 32e0a <_sk_load_a8_sse41_lowp+0x9d> + .byte 235,54 // jmp 3381e <_sk_load_a8_sse41_lowp+0x9d> .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0 @@ -50296,14 +50839,14 @@ _sk_load_a8_sse41_lowp: .byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1 .byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3 .byte 102,15,58,14,216,240 // pblendw $0xf0,%xmm0,%xmm3 - .byte 102,15,219,29,190,114,0,0 // pand 0x72be(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,15,219,29,202,114,0,0 // pand 0x72ca(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 255,224 // jmpq *%rax .byte 15,31,0 // nopl (%rax) - .byte 119,255 // ja 32e25 <_sk_load_a8_sse41_lowp+0xb8> + .byte 119,255 // ja 33839 <_sk_load_a8_sse41_lowp+0xb8> .byte 255 // (bad) .byte 255,154,255,255,255,139 // lcall *-0x74000001(%rdx) .byte 255 // (bad) @@ -50332,18 +50875,18 @@ _sk_load_a8_dst_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,34 // ja 32e79 <_sk_load_a8_dst_sse41_lowp+0x39> + .byte 119,34 // ja 3388d <_sk_load_a8_dst_sse41_lowp+0x39> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 32ef4 <_sk_load_a8_dst_sse41_lowp+0xb4> + .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 33908 <_sk_load_a8_dst_sse41_lowp+0xb4> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax .byte 102,15,110,248 // movd %eax,%xmm7 - .byte 235,100 // jmp 32edd <_sk_load_a8_dst_sse41_lowp+0x9d> + .byte 235,100 // jmp 338f1 <_sk_load_a8_dst_sse41_lowp+0x9d> .byte 102,65,15,56,48,60,16 // pmovzxbw (%r8,%rdx,1),%xmm7 - .byte 235,91 // jmp 32edd <_sk_load_a8_dst_sse41_lowp+0x9d> + .byte 235,91 // jmp 338f1 <_sk_load_a8_dst_sse41_lowp+0x9d> .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4 @@ -50351,7 +50894,7 @@ _sk_load_a8_dst_sse41_lowp: .byte 102,15,110,232 // movd %eax,%xmm5 .byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7 .byte 102,15,58,14,252,252 // pblendw $0xfc,%xmm4,%xmm7 - .byte 235,54 // jmp 32edd <_sk_load_a8_dst_sse41_lowp+0x9d> + .byte 235,54 // jmp 338f1 <_sk_load_a8_dst_sse41_lowp+0x9d> .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4 @@ -50362,13 +50905,13 @@ _sk_load_a8_dst_sse41_lowp: .byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5 .byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7 .byte 102,15,58,14,252,240 // pblendw $0xf0,%xmm4,%xmm7 - .byte 102,15,219,61,235,113,0,0 // pand 0x71eb(%rip),%xmm7 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,15,219,61,247,113,0,0 // pand 0x71f7(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,239,237 // pxor %xmm5,%xmm5 .byte 15,87,246 // xorps %xmm6,%xmm6 .byte 255,224 // jmpq *%rax - .byte 122,255 // jp 32ef5 <_sk_load_a8_dst_sse41_lowp+0xb5> + .byte 122,255 // jp 33909 <_sk_load_a8_dst_sse41_lowp+0xb5> .byte 255 // (bad) .byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp) .byte 255 // (bad) @@ -50399,28 +50942,28 @@ _sk_store_a8_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,29 // ja 32f44 <_sk_store_a8_sse41_lowp+0x34> + .byte 119,29 // ja 33958 <_sk_store_a8_sse41_lowp+0x34> .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 32fb4 <_sk_store_a8_sse41_lowp+0xa4> + .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 339c8 <_sk_store_a8_sse41_lowp+0xa4> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 102,65,15,58,20,28,16,0 // pextrb $0x0,%xmm3,(%r8,%rdx,1) - .byte 235,105 // jmp 32fad <_sk_store_a8_sse41_lowp+0x9d> + .byte 235,105 // jmp 339c1 <_sk_store_a8_sse41_lowp+0x9d> .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8 - .byte 102,68,15,56,0,5,205,120,0,0 // pshufb 0x78cd(%rip),%xmm8 # 3a820 <_sk_srcover_bgra_8888_sse2_lowp+0x12cc> + .byte 102,68,15,56,0,5,217,120,0,0 // pshufb 0x78d9(%rip),%xmm8 # 3b240 <_sk_srcover_bgra_8888_sse2_lowp+0x12d8> .byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1) - .byte 235,82 // jmp 32fad <_sk_store_a8_sse41_lowp+0x9d> + .byte 235,82 // jmp 339c1 <_sk_store_a8_sse41_lowp+0x9d> .byte 102,65,15,58,20,92,16,2,4 // pextrb $0x4,%xmm3,0x2(%r8,%rdx,1) .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8 - .byte 102,68,15,56,0,5,109,113,0,0 // pshufb 0x716d(%rip),%xmm8 # 3a0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xb8c> + .byte 102,68,15,56,0,5,121,113,0,0 // pshufb 0x7179(%rip),%xmm8 # 3ab00 <_sk_srcover_bgra_8888_sse2_lowp+0xb98> .byte 102,69,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%rdx,1) - .byte 235,48 // jmp 32fad <_sk_store_a8_sse41_lowp+0x9d> + .byte 235,48 // jmp 339c1 <_sk_store_a8_sse41_lowp+0x9d> .byte 102,65,15,58,20,92,16,6,12 // pextrb $0xc,%xmm3,0x6(%r8,%rdx,1) .byte 102,65,15,58,20,92,16,5,10 // pextrb $0xa,%xmm3,0x5(%r8,%rdx,1) .byte 102,65,15,58,20,92,16,4,8 // pextrb $0x8,%xmm3,0x4(%r8,%rdx,1) .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8 - .byte 102,68,15,56,0,5,73,113,0,0 // pshufb 0x7149(%rip),%xmm8 # 3a0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xb9c> + .byte 102,68,15,56,0,5,85,113,0,0 // pshufb 0x7155(%rip),%xmm8 # 3ab10 <_sk_srcover_bgra_8888_sse2_lowp+0xba8> .byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -50533,18 +51076,18 @@ _sk_load_g8_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,34 // ja 33136 <_sk_load_g8_sse41_lowp+0x39> + .byte 119,34 // ja 33b4a <_sk_load_g8_sse41_lowp+0x39> .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,150,0,0,0 // lea 0x96(%rip),%r9 # 331b8 <_sk_load_g8_sse41_lowp+0xbb> + .byte 76,141,13,150,0,0,0 // lea 0x96(%rip),%r9 # 33bcc <_sk_load_g8_sse41_lowp+0xbb> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 - .byte 235,100 // jmp 3319a <_sk_load_g8_sse41_lowp+0x9d> + .byte 235,100 // jmp 33bae <_sk_load_g8_sse41_lowp+0x9d> .byte 102,65,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm0 - .byte 235,91 // jmp 3319a <_sk_load_g8_sse41_lowp+0x9d> + .byte 235,91 // jmp 33bae <_sk_load_g8_sse41_lowp+0x9d> .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,15,196,200,2 // pinsrw $0x2,%eax,%xmm1 @@ -50552,7 +51095,7 @@ _sk_load_g8_sse41_lowp: .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0 .byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0 - .byte 235,54 // jmp 3319a <_sk_load_g8_sse41_lowp+0x9d> + .byte 235,54 // jmp 33bae <_sk_load_g8_sse41_lowp+0x9d> .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,15,196,200,6 // pinsrw $0x6,%eax,%xmm1 @@ -50563,14 +51106,14 @@ _sk_load_g8_sse41_lowp: .byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0 .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0 .byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0 - .byte 102,15,219,5,46,111,0,0 // pand 0x6f2e(%rip),%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,15,219,5,58,111,0,0 // pand 0x6f3a(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,37,111,0,0 // movaps 0x6f25(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 15,40,29,49,111,0,0 // movaps 0x6f31(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 255,224 // jmpq *%rax .byte 15,31,0 // nopl (%rax) - .byte 115,255 // jae 331b9 <_sk_load_g8_sse41_lowp+0xbc> + .byte 115,255 // jae 33bcd <_sk_load_g8_sse41_lowp+0xbc> .byte 255 // (bad) .byte 255,150,255,255,255,135 // callq *-0x78000001(%rsi) .byte 255 // (bad) @@ -50599,18 +51142,18 @@ _sk_load_g8_dst_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,34 // ja 3320d <_sk_load_g8_dst_sse41_lowp+0x39> + .byte 119,34 // ja 33c21 <_sk_load_g8_dst_sse41_lowp+0x39> .byte 102,15,239,237 // pxor %xmm5,%xmm5 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 3328c <_sk_load_g8_dst_sse41_lowp+0xb8> + .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 33ca0 <_sk_load_g8_dst_sse41_lowp+0xb8> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax .byte 102,15,110,224 // movd %eax,%xmm4 - .byte 235,100 // jmp 33271 <_sk_load_g8_dst_sse41_lowp+0x9d> + .byte 235,100 // jmp 33c85 <_sk_load_g8_dst_sse41_lowp+0x9d> .byte 102,65,15,56,48,36,16 // pmovzxbw (%r8,%rdx,1),%xmm4 - .byte 235,91 // jmp 33271 <_sk_load_g8_dst_sse41_lowp+0x9d> + .byte 235,91 // jmp 33c85 <_sk_load_g8_dst_sse41_lowp+0x9d> .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax .byte 102,15,239,237 // pxor %xmm5,%xmm5 .byte 102,15,196,232,2 // pinsrw $0x2,%eax,%xmm5 @@ -50618,7 +51161,7 @@ _sk_load_g8_dst_sse41_lowp: .byte 102,15,110,224 // movd %eax,%xmm4 .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4 .byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4 - .byte 235,54 // jmp 33271 <_sk_load_g8_dst_sse41_lowp+0x9d> + .byte 235,54 // jmp 33c85 <_sk_load_g8_dst_sse41_lowp+0x9d> .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax .byte 102,15,239,237 // pxor %xmm5,%xmm5 .byte 102,15,196,232,6 // pinsrw $0x6,%eax,%xmm5 @@ -50629,13 +51172,13 @@ _sk_load_g8_dst_sse41_lowp: .byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4 .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4 .byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4 - .byte 102,15,219,37,87,110,0,0 // pand 0x6e57(%rip),%xmm4 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,15,219,37,99,110,0,0 // pand 0x6e63(%rip),%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,61,78,110,0,0 // movaps 0x6e4e(%rip),%xmm7 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 15,40,61,90,110,0,0 // movaps 0x6e5a(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,236 // movdqa %xmm4,%xmm5 .byte 102,15,111,244 // movdqa %xmm4,%xmm6 .byte 255,224 // jmpq *%rax - .byte 118,255 // jbe 3328d <_sk_load_g8_dst_sse41_lowp+0xb9> + .byte 118,255 // jbe 33ca1 <_sk_load_g8_dst_sse41_lowp+0xb9> .byte 255 // (bad) .byte 255,153,255,255,255,138 // lcall *-0x75000001(%rcx) .byte 255 // (bad) @@ -50657,10 +51200,10 @@ HIDDEN _sk_luminance_to_alpha_sse41_lowp FUNCTION(_sk_luminance_to_alpha_sse41_lowp) _sk_luminance_to_alpha_sse41_lowp: .byte 102,15,111,218 // movdqa %xmm2,%xmm3 - .byte 102,15,213,5,92,118,0,0 // pmullw 0x765c(%rip),%xmm0 # 3a910 <_sk_srcover_bgra_8888_sse2_lowp+0x13bc> - .byte 102,15,213,13,100,118,0,0 // pmullw 0x7664(%rip),%xmm1 # 3a920 <_sk_srcover_bgra_8888_sse2_lowp+0x13cc> + .byte 102,15,213,5,104,118,0,0 // pmullw 0x7668(%rip),%xmm0 # 3b330 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8> + .byte 102,15,213,13,112,118,0,0 // pmullw 0x7670(%rip),%xmm1 # 3b340 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8> .byte 102,15,253,200 // paddw %xmm0,%xmm1 - .byte 102,15,213,29,104,118,0,0 // pmullw 0x7668(%rip),%xmm3 # 3a930 <_sk_srcover_bgra_8888_sse2_lowp+0x13dc> + .byte 102,15,213,29,116,118,0,0 // pmullw 0x7674(%rip),%xmm3 # 3b350 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8> .byte 102,15,253,217 // paddw %xmm1,%xmm3 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax @@ -50736,7 +51279,7 @@ _sk_gather_g8_sse41_lowp: .byte 102,15,58,32,192,7 // pinsrb $0x7,%eax,%xmm0 .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,209,108,0,0 // movaps 0x6cd1(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 15,40,29,221,108,0,0 // movaps 0x6cdd(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 91 // pop %rbx @@ -50752,14 +51295,14 @@ FUNCTION(_sk_scale_1_float_sse41_lowp) _sk_scale_1_float_sse41_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,0 // movss (%rax),%xmm8 - .byte 243,68,15,89,5,15,100,0,0 // mulss 0x640f(%rip),%xmm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 243,68,15,88,5,214,99,0,0 // addss 0x63d6(%rip),%xmm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 243,68,15,89,5,15,100,0,0 // mulss 0x640f(%rip),%xmm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 243,68,15,88,5,214,99,0,0 // addss 0x63d6(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 243,65,15,44,192 // cvttss2si %xmm8,%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8 .byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8 .byte 102,65,15,213,192 // pmullw %xmm8,%xmm0 - .byte 102,68,15,111,13,130,108,0,0 // movdqa 0x6c82(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,142,108,0,0 // movdqa 0x6c8e(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,193 // paddw %xmm9,%xmm0 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,65,15,213,200 // pmullw %xmm8,%xmm1 @@ -50780,13 +51323,13 @@ FUNCTION(_sk_lerp_1_float_sse41_lowp) _sk_lerp_1_float_sse41_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,0 // movss (%rax),%xmm8 - .byte 243,68,15,89,5,151,99,0,0 // mulss 0x6397(%rip),%xmm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 243,68,15,88,5,94,99,0,0 // addss 0x635e(%rip),%xmm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 243,68,15,89,5,151,99,0,0 // mulss 0x6397(%rip),%xmm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 243,68,15,88,5,94,99,0,0 // addss 0x635e(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 243,65,15,44,192 // cvttss2si %xmm8,%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8 .byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8 - .byte 102,68,15,111,13,15,108,0,0 // movdqa 0x6c0f(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,27,108,0,0 // movdqa 0x6c1b(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,213,192 // pmullw %xmm8,%xmm0 .byte 102,65,15,253,193 // paddw %xmm9,%xmm0 .byte 102,65,15,213,200 // pmullw %xmm8,%xmm1 @@ -50826,18 +51369,18 @@ _sk_scale_u8_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,36 // ja 33578 <_sk_scale_u8_sse41_lowp+0x3b> + .byte 119,36 // ja 33f8c <_sk_scale_u8_sse41_lowp+0x3b> .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 33640 <_sk_scale_u8_sse41_lowp+0x103> + .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 34054 <_sk_scale_u8_sse41_lowp+0x103> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 - .byte 235,111 // jmp 335e7 <_sk_scale_u8_sse41_lowp+0xaa> + .byte 235,111 // jmp 33ffb <_sk_scale_u8_sse41_lowp+0xaa> .byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8 - .byte 235,102 // jmp 335e7 <_sk_scale_u8_sse41_lowp+0xaa> + .byte 235,102 // jmp 33ffb <_sk_scale_u8_sse41_lowp+0xaa> .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9 @@ -50845,7 +51388,7 @@ _sk_scale_u8_sse41_lowp: .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8 .byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8 - .byte 235,60 // jmp 335e7 <_sk_scale_u8_sse41_lowp+0xaa> + .byte 235,60 // jmp 33ffb <_sk_scale_u8_sse41_lowp+0xaa> .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9 @@ -50856,9 +51399,9 @@ _sk_scale_u8_sse41_lowp: .byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8 .byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8 .byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8 - .byte 102,68,15,219,5,224,106,0,0 // pand 0x6ae0(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,219,5,236,106,0,0 // pand 0x6aec(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,213,192 // pmullw %xmm8,%xmm0 - .byte 102,68,15,111,13,210,106,0,0 // movdqa 0x6ad2(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,222,106,0,0 // movdqa 0x6ade(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,193 // paddw %xmm9,%xmm0 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,65,15,213,200 // pmullw %xmm8,%xmm1 @@ -50883,7 +51426,7 @@ _sk_scale_u8_sse41_lowp: .byte 255,148,255,255,255,136,255 // callq *-0x770001(%rdi,%rdi,8) .byte 255 // (bad) .byte 255 // (bad) - .byte 124,255 // jl 33655 <_sk_scale_u8_sse41_lowp+0x118> + .byte 124,255 // jl 34069 <_sk_scale_u8_sse41_lowp+0x118> .byte 255 // (bad) .byte 255,107,255 // ljmp *-0x1(%rbx) .byte 255 // (bad) @@ -50901,18 +51444,18 @@ _sk_lerp_u8_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,36 // ja 33697 <_sk_lerp_u8_sse41_lowp+0x3b> + .byte 119,36 // ja 340ab <_sk_lerp_u8_sse41_lowp+0x3b> .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 337a0 <_sk_lerp_u8_sse41_lowp+0x144> + .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 341b4 <_sk_lerp_u8_sse41_lowp+0x144> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 - .byte 235,111 // jmp 33706 <_sk_lerp_u8_sse41_lowp+0xaa> + .byte 235,111 // jmp 3411a <_sk_lerp_u8_sse41_lowp+0xaa> .byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8 - .byte 235,102 // jmp 33706 <_sk_lerp_u8_sse41_lowp+0xaa> + .byte 235,102 // jmp 3411a <_sk_lerp_u8_sse41_lowp+0xaa> .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9 @@ -50920,7 +51463,7 @@ _sk_lerp_u8_sse41_lowp: .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8 .byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8 - .byte 235,60 // jmp 33706 <_sk_lerp_u8_sse41_lowp+0xaa> + .byte 235,60 // jmp 3411a <_sk_lerp_u8_sse41_lowp+0xaa> .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9 @@ -50931,8 +51474,8 @@ _sk_lerp_u8_sse41_lowp: .byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8 .byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8 .byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8 - .byte 102,68,15,219,5,193,105,0,0 // pand 0x69c1(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> - .byte 102,68,15,111,21,184,105,0,0 // movdqa 0x69b8(%rip),%xmm10 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,219,5,205,105,0,0 // pand 0x69cd(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> + .byte 102,68,15,111,21,196,105,0,0 // movdqa 0x69c4(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 .byte 102,69,15,239,202 // pxor %xmm10,%xmm9 .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11 @@ -50962,7 +51505,7 @@ _sk_lerp_u8_sse41_lowp: .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3 .byte 255,224 // jmpq *%rax .byte 144 // nop - .byte 235,254 // jmp 337a0 <_sk_lerp_u8_sse41_lowp+0x144> + .byte 235,254 // jmp 341b4 <_sk_lerp_u8_sse41_lowp+0x144> .byte 255 // (bad) .byte 255,17 // callq *(%rcx) .byte 255 // (bad) @@ -50996,23 +51539,23 @@ _sk_scale_565_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,35 // ja 337fe <_sk_scale_565_sse41_lowp+0x42> + .byte 119,35 // ja 34212 <_sk_scale_565_sse41_lowp+0x42> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 33958 <_sk_scale_565_sse41_lowp+0x19c> + .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 3436c <_sk_scale_565_sse41_lowp+0x19c> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax .byte 102,68,15,110,200 // movd %eax,%xmm9 - .byte 235,76 // jmp 3384a <_sk_scale_565_sse41_lowp+0x8e> + .byte 235,76 // jmp 3425e <_sk_scale_565_sse41_lowp+0x8e> .byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9 - .byte 235,68 // jmp 3384a <_sk_scale_565_sse41_lowp+0x8e> + .byte 235,68 // jmp 3425e <_sk_scale_565_sse41_lowp+0x8e> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0 .byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9 .byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9 - .byte 235,41 // jmp 3384a <_sk_scale_565_sse41_lowp+0x8e> + .byte 235,41 // jmp 3425e <_sk_scale_565_sse41_lowp+0x8e> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0 .byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0 @@ -51021,11 +51564,11 @@ _sk_scale_565_sse41_lowp: .byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9 .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 - .byte 102,15,219,5,36,112,0,0 // pand 0x7024(%rip),%xmm0 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c> + .byte 102,15,219,5,48,112,0,0 // pand 0x7030(%rip),%xmm0 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338> .byte 102,69,15,111,209 // movdqa %xmm9,%xmm10 .byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10 - .byte 102,68,15,219,21,32,112,0,0 // pand 0x7020(%rip),%xmm10 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c> - .byte 102,68,15,111,29,39,112,0,0 // movdqa 0x7027(%rip),%xmm11 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c> + .byte 102,68,15,219,21,44,112,0,0 // pand 0x702c(%rip),%xmm10 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348> + .byte 102,68,15,111,29,51,112,0,0 // movdqa 0x7033(%rip),%xmm11 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358> .byte 102,69,15,219,217 // pand %xmm9,%xmm11 .byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9 .byte 102,68,15,235,200 // por %xmm0,%xmm9 @@ -51037,7 +51580,7 @@ _sk_scale_565_sse41_lowp: .byte 102,15,113,240,3 // psllw $0x3,%xmm0 .byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11 .byte 102,68,15,235,216 // por %xmm0,%xmm11 - .byte 102,15,111,5,133,111,0,0 // movdqa 0x6f85(%rip),%xmm0 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec> + .byte 102,15,111,5,145,111,0,0 // movdqa 0x6f91(%rip),%xmm0 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8> .byte 102,68,15,111,227 // movdqa %xmm3,%xmm12 .byte 102,68,15,239,224 // pxor %xmm0,%xmm12 .byte 102,15,239,199 // pxor %xmm7,%xmm0 @@ -51050,7 +51593,7 @@ _sk_scale_565_sse41_lowp: .byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12 .byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12 .byte 102,69,15,213,200 // pmullw %xmm8,%xmm9 - .byte 102,15,111,5,205,103,0,0 // movdqa 0x67cd(%rip),%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,15,111,5,217,103,0,0 // movdqa 0x67d9(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,68,15,253,200 // paddw %xmm0,%xmm9 .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9 .byte 102,68,15,213,209 // pmullw %xmm1,%xmm10 @@ -51104,23 +51647,23 @@ _sk_lerp_565_sse41_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,35 // ja 339b6 <_sk_lerp_565_sse41_lowp+0x42> + .byte 119,35 // ja 343ca <_sk_lerp_565_sse41_lowp+0x42> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 33b5c <_sk_lerp_565_sse41_lowp+0x1e8> + .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 34570 <_sk_lerp_565_sse41_lowp+0x1e8> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax .byte 102,68,15,110,200 // movd %eax,%xmm9 - .byte 235,76 // jmp 33a02 <_sk_lerp_565_sse41_lowp+0x8e> + .byte 235,76 // jmp 34416 <_sk_lerp_565_sse41_lowp+0x8e> .byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9 - .byte 235,68 // jmp 33a02 <_sk_lerp_565_sse41_lowp+0x8e> + .byte 235,68 // jmp 34416 <_sk_lerp_565_sse41_lowp+0x8e> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0 .byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9 .byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9 - .byte 235,41 // jmp 33a02 <_sk_lerp_565_sse41_lowp+0x8e> + .byte 235,41 // jmp 34416 <_sk_lerp_565_sse41_lowp+0x8e> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0 .byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0 @@ -51129,11 +51672,11 @@ _sk_lerp_565_sse41_lowp: .byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9 .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 - .byte 102,15,219,5,108,110,0,0 // pand 0x6e6c(%rip),%xmm0 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c> + .byte 102,15,219,5,120,110,0,0 // pand 0x6e78(%rip),%xmm0 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338> .byte 102,69,15,111,209 // movdqa %xmm9,%xmm10 .byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10 - .byte 102,68,15,219,21,104,110,0,0 // pand 0x6e68(%rip),%xmm10 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c> - .byte 102,68,15,111,29,111,110,0,0 // movdqa 0x6e6f(%rip),%xmm11 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c> + .byte 102,68,15,219,21,116,110,0,0 // pand 0x6e74(%rip),%xmm10 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348> + .byte 102,68,15,111,29,123,110,0,0 // movdqa 0x6e7b(%rip),%xmm11 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358> .byte 102,69,15,219,217 // pand %xmm9,%xmm11 .byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9 .byte 102,68,15,235,200 // por %xmm0,%xmm9 @@ -51145,7 +51688,7 @@ _sk_lerp_565_sse41_lowp: .byte 102,15,113,240,3 // psllw $0x3,%xmm0 .byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11 .byte 102,68,15,235,216 // por %xmm0,%xmm11 - .byte 102,15,111,5,205,109,0,0 // movdqa 0x6dcd(%rip),%xmm0 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec> + .byte 102,15,111,5,217,109,0,0 // movdqa 0x6dd9(%rip),%xmm0 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8> .byte 102,68,15,111,227 // movdqa %xmm3,%xmm12 .byte 102,68,15,239,224 // pxor %xmm0,%xmm12 .byte 102,15,239,199 // pxor %xmm7,%xmm0 @@ -51157,7 +51700,7 @@ _sk_lerp_565_sse41_lowp: .byte 102,69,15,56,62,227 // pmaxuw %xmm11,%xmm12 .byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12 .byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12 - .byte 102,68,15,111,45,25,102,0,0 // movdqa 0x6619(%rip),%xmm13 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,45,37,102,0,0 // movdqa 0x6625(%rip),%xmm13 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0 .byte 102,65,15,239,197 // pxor %xmm13,%xmm0 .byte 102,15,213,196 // pmullw %xmm4,%xmm0 @@ -51214,7 +51757,7 @@ _sk_clamp_x_1_sse41_lowp: .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 65,15,95,200 // maxps %xmm8,%xmm1 .byte 65,15,95,192 // maxps %xmm8,%xmm0 - .byte 68,15,40,5,164,101,0,0 // movaps 0x65a4(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,176,101,0,0 // movaps 0x65b0(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 65,15,93,192 // minps %xmm8,%xmm0 .byte 65,15,93,200 // minps %xmm8,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax @@ -51231,7 +51774,7 @@ _sk_repeat_x_1_sse41_lowp: .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 65,15,95,200 // maxps %xmm8,%xmm1 .byte 65,15,95,192 // maxps %xmm8,%xmm0 - .byte 68,15,40,5,110,101,0,0 // movaps 0x656e(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,122,101,0,0 // movaps 0x657a(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 65,15,93,192 // minps %xmm8,%xmm0 .byte 65,15,93,200 // minps %xmm8,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax @@ -51241,10 +51784,10 @@ HIDDEN _sk_mirror_x_1_sse41_lowp .globl _sk_mirror_x_1_sse41_lowp FUNCTION(_sk_mirror_x_1_sse41_lowp) _sk_mirror_x_1_sse41_lowp: - .byte 68,15,40,5,186,101,0,0 // movaps 0x65ba(%rip),%xmm8 # 3a190 <_sk_srcover_bgra_8888_sse2_lowp+0xc3c> + .byte 68,15,40,5,198,101,0,0 // movaps 0x65c6(%rip),%xmm8 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48> .byte 65,15,88,192 // addps %xmm8,%xmm0 .byte 65,15,88,200 // addps %xmm8,%xmm1 - .byte 68,15,40,13,58,101,0,0 // movaps 0x653a(%rip),%xmm9 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,40,13,70,101,0,0 // movaps 0x6546(%rip),%xmm9 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 68,15,40,209 // movaps %xmm1,%xmm10 .byte 69,15,89,209 // mulps %xmm9,%xmm10 .byte 68,15,89,200 // mulps %xmm0,%xmm9 @@ -51256,13 +51799,13 @@ _sk_mirror_x_1_sse41_lowp: .byte 65,15,92,202 // subps %xmm10,%xmm1 .byte 65,15,88,200 // addps %xmm8,%xmm1 .byte 65,15,88,192 // addps %xmm8,%xmm0 - .byte 68,15,40,5,48,106,0,0 // movaps 0x6a30(%rip),%xmm8 # 3a650 <_sk_srcover_bgra_8888_sse2_lowp+0x10fc> + .byte 68,15,40,5,60,106,0,0 // movaps 0x6a3c(%rip),%xmm8 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108> .byte 65,15,84,192 // andps %xmm8,%xmm0 .byte 65,15,84,200 // andps %xmm8,%xmm1 .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 65,15,95,200 // maxps %xmm8,%xmm1 .byte 65,15,95,192 // maxps %xmm8,%xmm0 - .byte 68,15,40,5,244,100,0,0 // movaps 0x64f4(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,0,101,0,0 // movaps 0x6500(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 65,15,93,192 // minps %xmm8,%xmm0 .byte 65,15,93,200 // minps %xmm8,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax @@ -51289,7 +51832,7 @@ _sk_gradient_sse41_lowp: .byte 102,69,15,239,201 // pxor %xmm9,%xmm9 .byte 72,131,249,2 // cmp $0x2,%rcx .byte 102,15,239,219 // pxor %xmm3,%xmm3 - .byte 114,57 // jb 33cbd <_sk_gradient_sse41_lowp+0x75> + .byte 114,57 // jb 346d1 <_sk_gradient_sse41_lowp+0x75> .byte 72,139,80,72 // mov 0x48(%rax),%rdx .byte 72,255,201 // dec %rcx .byte 72,131,194,4 // add $0x4,%rdx @@ -51304,7 +51847,7 @@ _sk_gradient_sse41_lowp: .byte 102,15,250,218 // psubd %xmm2,%xmm3 .byte 72,131,194,4 // add $0x4,%rdx .byte 72,255,201 // dec %rcx - .byte 117,219 // jne 33c98 <_sk_gradient_sse41_lowp+0x50> + .byte 117,219 // jne 346ac <_sk_gradient_sse41_lowp+0x50> .byte 102,72,15,58,22,219,1 // pextrq $0x1,%xmm3,%rbx .byte 65,137,221 // mov %ebx,%r13d .byte 72,193,235,32 // shr $0x20,%rbx @@ -51383,14 +51926,14 @@ _sk_gradient_sse41_lowp: .byte 69,15,88,239 // addps %xmm15,%xmm13 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 15,88,223 // addps %xmm7,%xmm3 - .byte 15,40,61,119,99,0,0 // movaps 0x6377(%rip),%xmm7 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> + .byte 15,40,61,131,99,0,0 // movaps 0x6383(%rip),%xmm7 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> .byte 68,15,89,239 // mulps %xmm7,%xmm13 .byte 15,89,223 // mulps %xmm7,%xmm3 - .byte 68,15,40,61,120,98,0,0 // movaps 0x6278(%rip),%xmm15 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,40,61,132,98,0,0 // movaps 0x6284(%rip),%xmm15 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 69,15,88,239 // addps %xmm15,%xmm13 .byte 65,15,88,223 // addps %xmm15,%xmm3 .byte 243,65,15,91,245 // cvttps2dq %xmm13,%xmm6 - .byte 102,68,15,111,45,146,105,0,0 // movdqa 0x6992(%rip),%xmm13 # 3a850 <_sk_srcover_bgra_8888_sse2_lowp+0x12fc> + .byte 102,68,15,111,45,158,105,0,0 // movdqa 0x699e(%rip),%xmm13 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308> .byte 102,65,15,56,0,245 // pshufb %xmm13,%xmm6 .byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8 .byte 102,69,15,56,0,197 // pshufb %xmm13,%xmm8 @@ -51494,9 +52037,9 @@ _sk_evenly_spaced_gradient_sse41_lowp: .byte 72,139,24 // mov (%rax),%rbx .byte 72,139,104,8 // mov 0x8(%rax),%rbp .byte 72,255,203 // dec %rbx - .byte 120,7 // js 34096 <_sk_evenly_spaced_gradient_sse41_lowp+0x34> + .byte 120,7 // js 34aaa <_sk_evenly_spaced_gradient_sse41_lowp+0x34> .byte 243,72,15,42,211 // cvtsi2ss %rbx,%xmm2 - .byte 235,21 // jmp 340ab <_sk_evenly_spaced_gradient_sse41_lowp+0x49> + .byte 235,21 // jmp 34abf <_sk_evenly_spaced_gradient_sse41_lowp+0x49> .byte 73,137,216 // mov %rbx,%r8 .byte 73,209,232 // shr %r8 .byte 131,227,1 // and $0x1,%ebx @@ -51634,14 +52177,14 @@ _sk_evenly_spaced_gradient_sse41_lowp: .byte 15,40,100,36,176 // movaps -0x50(%rsp),%xmm4 .byte 68,15,89,196 // mulps %xmm4,%xmm8 .byte 68,15,88,192 // addps %xmm0,%xmm8 - .byte 15,40,5,84,94,0,0 // movaps 0x5e54(%rip),%xmm0 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> + .byte 15,40,5,96,94,0,0 // movaps 0x5e60(%rip),%xmm0 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 68,15,89,192 // mulps %xmm0,%xmm8 - .byte 68,15,40,53,85,93,0,0 // movaps 0x5d55(%rip),%xmm14 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,40,53,97,93,0,0 // movaps 0x5d61(%rip),%xmm14 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 69,15,88,198 // addps %xmm14,%xmm8 .byte 65,15,88,222 // addps %xmm14,%xmm3 .byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3 - .byte 102,15,111,5,113,100,0,0 // movdqa 0x6471(%rip),%xmm0 # 3a850 <_sk_srcover_bgra_8888_sse2_lowp+0x12fc> + .byte 102,15,111,5,125,100,0,0 // movdqa 0x647d(%rip),%xmm0 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308> .byte 102,15,56,0,216 // pshufb %xmm0,%xmm3 .byte 243,69,15,91,192 // cvttps2dq %xmm8,%xmm8 .byte 102,68,15,56,0,192 // pshufb %xmm0,%xmm8 @@ -51651,7 +52194,7 @@ _sk_evenly_spaced_gradient_sse41_lowp: .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 68,15,89,203 // mulps %xmm3,%xmm9 .byte 68,15,88,201 // addps %xmm1,%xmm9 - .byte 15,40,13,4,94,0,0 // movaps 0x5e04(%rip),%xmm1 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> + .byte 15,40,13,16,94,0,0 // movaps 0x5e10(%rip),%xmm1 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> .byte 15,89,209 // mulps %xmm1,%xmm2 .byte 68,15,89,201 // mulps %xmm1,%xmm9 .byte 15,40,225 // movaps %xmm1,%xmm4 @@ -51720,14 +52263,14 @@ _sk_evenly_spaced_2_stop_gradient_sse41_lowp: .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 65,15,88,216 // addps %xmm8,%xmm3 .byte 65,15,88,208 // addps %xmm8,%xmm2 - .byte 68,15,40,21,254,92,0,0 // movaps 0x5cfe(%rip),%xmm10 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> + .byte 68,15,40,21,10,93,0,0 // movaps 0x5d0a(%rip),%xmm10 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> .byte 65,15,89,210 // mulps %xmm10,%xmm2 .byte 65,15,89,218 // mulps %xmm10,%xmm3 - .byte 68,15,40,37,254,91,0,0 // movaps 0x5bfe(%rip),%xmm12 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,40,37,10,92,0,0 // movaps 0x5c0a(%rip),%xmm12 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 65,15,88,220 // addps %xmm12,%xmm3 .byte 65,15,88,212 // addps %xmm12,%xmm2 .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2 - .byte 102,68,15,111,29,25,99,0,0 // movdqa 0x6319(%rip),%xmm11 # 3a850 <_sk_srcover_bgra_8888_sse2_lowp+0x12fc> + .byte 102,68,15,111,29,37,99,0,0 // movdqa 0x6325(%rip),%xmm11 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308> .byte 102,65,15,56,0,211 // pshufb %xmm11,%xmm2 .byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8 .byte 102,69,15,56,0,195 // pshufb %xmm11,%xmm8 @@ -51800,7 +52343,7 @@ _sk_xy_to_unit_angle_sse41_lowp: .byte 15,40,251 // movaps %xmm3,%xmm7 .byte 15,40,242 // movaps %xmm2,%xmm6 .byte 68,15,40,192 // movaps %xmm0,%xmm8 - .byte 15,40,37,239,95,0,0 // movaps 0x5fef(%rip),%xmm4 # 3a650 <_sk_srcover_bgra_8888_sse2_lowp+0x10fc> + .byte 15,40,37,251,95,0,0 // movaps 0x5ffb(%rip),%xmm4 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108> .byte 68,15,40,233 // movaps %xmm1,%xmm13 .byte 68,15,84,236 // andps %xmm4,%xmm13 .byte 69,15,40,216 // movaps %xmm8,%xmm11 @@ -51825,18 +52368,18 @@ _sk_xy_to_unit_angle_sse41_lowp: .byte 69,15,94,251 // divps %xmm11,%xmm15 .byte 65,15,40,199 // movaps %xmm15,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 - .byte 68,15,40,29,239,95,0,0 // movaps 0x5fef(%rip),%xmm11 # 3a6c0 <_sk_srcover_bgra_8888_sse2_lowp+0x116c> + .byte 68,15,40,29,251,95,0,0 // movaps 0x5ffb(%rip),%xmm11 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1178> .byte 68,15,40,224 // movaps %xmm0,%xmm12 .byte 69,15,89,227 // mulps %xmm11,%xmm12 - .byte 68,15,88,37,239,95,0,0 // addps 0x5fef(%rip),%xmm12 # 3a6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x117c> + .byte 68,15,88,37,251,95,0,0 // addps 0x5ffb(%rip),%xmm12 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188> .byte 68,15,89,224 // mulps %xmm0,%xmm12 - .byte 15,40,45,244,95,0,0 // movaps 0x5ff4(%rip),%xmm5 # 3a6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x118c> + .byte 15,40,45,0,96,0,0 // movaps 0x6000(%rip),%xmm5 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1198> .byte 68,15,88,229 // addps %xmm5,%xmm12 .byte 68,15,89,224 // mulps %xmm0,%xmm12 - .byte 15,40,37,245,95,0,0 // movaps 0x5ff5(%rip),%xmm4 # 3a6f0 <_sk_srcover_bgra_8888_sse2_lowp+0x119c> + .byte 15,40,37,1,96,0,0 // movaps 0x6001(%rip),%xmm4 # 3b110 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8> .byte 68,15,88,228 // addps %xmm4,%xmm12 .byte 69,15,89,231 // mulps %xmm15,%xmm12 - .byte 15,40,21,246,95,0,0 // movaps 0x5ff6(%rip),%xmm2 # 3a700 <_sk_srcover_bgra_8888_sse2_lowp+0x11ac> + .byte 15,40,21,2,96,0,0 // movaps 0x6002(%rip),%xmm2 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8> .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 65,15,92,212 // subps %xmm12,%xmm2 .byte 65,15,40,194 // movaps %xmm10,%xmm0 @@ -51845,7 +52388,7 @@ _sk_xy_to_unit_angle_sse41_lowp: .byte 65,15,40,198 // movaps %xmm14,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 68,15,89,216 // mulps %xmm0,%xmm11 - .byte 68,15,88,29,158,95,0,0 // addps 0x5f9e(%rip),%xmm11 # 3a6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x117c> + .byte 68,15,88,29,170,95,0,0 // addps 0x5faa(%rip),%xmm11 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188> .byte 68,15,89,216 // mulps %xmm0,%xmm11 .byte 68,15,88,221 // addps %xmm5,%xmm11 .byte 68,15,89,216 // mulps %xmm0,%xmm11 @@ -51856,7 +52399,7 @@ _sk_xy_to_unit_angle_sse41_lowp: .byte 102,68,15,56,20,219 // blendvps %xmm0,%xmm3,%xmm11 .byte 69,15,87,201 // xorps %xmm9,%xmm9 .byte 69,15,194,193,1 // cmpltps %xmm9,%xmm8 - .byte 15,40,21,188,89,0,0 // movaps 0x59bc(%rip),%xmm2 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,40,21,200,89,0,0 // movaps 0x59c8(%rip),%xmm2 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 65,15,92,212 // subps %xmm12,%xmm2 .byte 65,15,40,192 // movaps %xmm8,%xmm0 @@ -51867,7 +52410,7 @@ _sk_xy_to_unit_angle_sse41_lowp: .byte 102,68,15,56,20,219 // blendvps %xmm0,%xmm3,%xmm11 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 65,15,194,193,1 // cmpltps %xmm9,%xmm0 - .byte 15,40,13,154,89,0,0 // movaps 0x599a(%rip),%xmm1 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 15,40,13,166,89,0,0 // movaps 0x59a6(%rip),%xmm1 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 15,40,209 // movaps %xmm1,%xmm2 .byte 65,15,92,204 // subps %xmm12,%xmm1 .byte 102,68,15,56,20,225 // blendvps %xmm0,%xmm1,%xmm12 @@ -51921,48 +52464,48 @@ _sk_srcover_rgba_8888_sse41_lowp: .byte 65,254,202 // dec %r10b .byte 69,15,182,202 // movzbl %r10b,%r9d .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,38 // ja 34862 <_sk_srcover_rgba_8888_sse41_lowp+0x4b> + .byte 119,38 // ja 35276 <_sk_srcover_rgba_8888_sse41_lowp+0x4b> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 - .byte 76,141,29,20,2,0,0 // lea 0x214(%rip),%r11 # 34a5c <_sk_srcover_rgba_8888_sse41_lowp+0x245> + .byte 76,141,29,20,2,0,0 // lea 0x214(%rip),%r11 # 35470 <_sk_srcover_rgba_8888_sse41_lowp+0x245> .byte 75,99,4,139 // movslq (%r11,%r9,4),%rax .byte 76,1,216 // add %r11,%rax .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 255,224 // jmpq *%rax .byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6 .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 - .byte 235,89 // jmp 348bb <_sk_srcover_rgba_8888_sse41_lowp+0xa4> + .byte 235,89 // jmp 352cf <_sk_srcover_rgba_8888_sse41_lowp+0xa4> .byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6 .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8 - .byte 235,74 // jmp 348bb <_sk_srcover_rgba_8888_sse41_lowp+0xa4> + .byte 235,74 // jmp 352cf <_sk_srcover_rgba_8888_sse41_lowp+0xa4> .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6 .byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6 .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8 - .byte 235,37 // jmp 348bb <_sk_srcover_rgba_8888_sse41_lowp+0xa4> + .byte 235,37 // jmp 352cf <_sk_srcover_rgba_8888_sse41_lowp+0xa4> .byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8 .byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8 .byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6 - .byte 102,15,111,37,141,95,0,0 // movdqa 0x5f8d(%rip),%xmm4 # 3a850 <_sk_srcover_bgra_8888_sse2_lowp+0x12fc> + .byte 102,15,111,37,153,95,0,0 // movdqa 0x5f99(%rip),%xmm4 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308> .byte 102,15,111,238 // movdqa %xmm6,%xmm5 .byte 102,15,56,0,236 // pshufb %xmm4,%xmm5 .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7 .byte 102,15,56,0,252 // pshufb %xmm4,%xmm7 .byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5 - .byte 102,68,15,111,37,237,87,0,0 // movdqa 0x57ed(%rip),%xmm12 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,37,249,87,0,0 // movdqa 0x57f9(%rip),%xmm12 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,229 // movdqa %xmm5,%xmm4 .byte 102,65,15,219,228 // pand %xmm12,%xmm4 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 - .byte 102,68,15,111,13,102,95,0,0 // movdqa 0x5f66(%rip),%xmm9 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x130c> + .byte 102,68,15,111,13,114,95,0,0 // movdqa 0x5f72(%rip),%xmm9 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318> .byte 102,15,111,254 // movdqa %xmm6,%xmm7 .byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7 .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10 .byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10 .byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7 - .byte 102,68,15,111,13,83,95,0,0 // movdqa 0x5f53(%rip),%xmm9 # 3a870 <_sk_srcover_bgra_8888_sse2_lowp+0x131c> + .byte 102,68,15,111,13,95,95,0,0 // movdqa 0x5f5f(%rip),%xmm9 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328> .byte 102,65,15,56,0,241 // pshufb %xmm9,%xmm6 .byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8 .byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6 @@ -52004,19 +52547,19 @@ _sk_srcover_rgba_8888_sse41_lowp: .byte 102,15,97,195 // punpcklwd %xmm3,%xmm0 .byte 102,65,15,235,196 // por %xmm12,%xmm0 .byte 65,128,250,6 // cmp $0x6,%r10b - .byte 119,24 // ja 34a05 <_sk_srcover_rgba_8888_sse41_lowp+0x1ee> - .byte 76,141,21,132,0,0,0 // lea 0x84(%rip),%r10 # 34a78 <_sk_srcover_rgba_8888_sse41_lowp+0x261> + .byte 119,24 // ja 35419 <_sk_srcover_rgba_8888_sse41_lowp+0x1ee> + .byte 76,141,21,132,0,0,0 // lea 0x84(%rip),%r10 # 3548c <_sk_srcover_rgba_8888_sse41_lowp+0x261> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4) - .byte 235,63 // jmp 34a44 <_sk_srcover_rgba_8888_sse41_lowp+0x22d> + .byte 235,63 // jmp 35458 <_sk_srcover_rgba_8888_sse41_lowp+0x22d> .byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4) .byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4) - .byte 235,48 // jmp 34a44 <_sk_srcover_rgba_8888_sse41_lowp+0x22d> + .byte 235,48 // jmp 35458 <_sk_srcover_rgba_8888_sse41_lowp+0x22d> .byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4) .byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4) - .byte 235,31 // jmp 34a44 <_sk_srcover_rgba_8888_sse41_lowp+0x22d> + .byte 235,31 // jmp 35458 <_sk_srcover_rgba_8888_sse41_lowp+0x22d> .byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4) .byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4) .byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4) @@ -52033,7 +52576,7 @@ _sk_srcover_rgba_8888_sse41_lowp: .byte 255,38 // jmpq *(%rsi) .byte 254 // (bad) .byte 255 // (bad) - .byte 255,21,254,255,255,89 // callq *0x59fffffe(%rip) # 5a034a67 <_sk_srcover_bgra_8888_sse2_lowp+0x59ffb513> + .byte 255,21,254,255,255,89 // callq *0x59fffffe(%rip) # 5a03547b <_sk_srcover_bgra_8888_sse2_lowp+0x59ffb513> .byte 254 // (bad) .byte 255 // (bad) .byte 255,80,254 // callq *-0x2(%rax) @@ -52072,48 +52615,48 @@ _sk_srcover_bgra_8888_sse41_lowp: .byte 65,254,202 // dec %r10b .byte 69,15,182,202 // movzbl %r10b,%r9d .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,38 // ja 34adf <_sk_srcover_bgra_8888_sse41_lowp+0x4b> + .byte 119,38 // ja 354f3 <_sk_srcover_bgra_8888_sse41_lowp+0x4b> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 - .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 34cdc <_sk_srcover_bgra_8888_sse41_lowp+0x248> + .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 356f0 <_sk_srcover_bgra_8888_sse41_lowp+0x248> .byte 75,99,4,139 // movslq (%r11,%r9,4),%rax .byte 76,1,216 // add %r11,%rax .byte 102,15,239,237 // pxor %xmm5,%xmm5 .byte 255,224 // jmpq *%rax .byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4 .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 - .byte 235,89 // jmp 34b38 <_sk_srcover_bgra_8888_sse41_lowp+0xa4> + .byte 235,89 // jmp 3554c <_sk_srcover_bgra_8888_sse41_lowp+0xa4> .byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4 .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8 - .byte 235,74 // jmp 34b38 <_sk_srcover_bgra_8888_sse41_lowp+0xa4> + .byte 235,74 // jmp 3554c <_sk_srcover_bgra_8888_sse41_lowp+0xa4> .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 102,15,239,237 // pxor %xmm5,%xmm5 .byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4 .byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4 .byte 102,68,15,111,197 // movdqa %xmm5,%xmm8 - .byte 235,37 // jmp 34b38 <_sk_srcover_bgra_8888_sse41_lowp+0xa4> + .byte 235,37 // jmp 3554c <_sk_srcover_bgra_8888_sse41_lowp+0xa4> .byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8 .byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8 .byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4 - .byte 102,15,111,53,16,93,0,0 // movdqa 0x5d10(%rip),%xmm6 # 3a850 <_sk_srcover_bgra_8888_sse2_lowp+0x12fc> + .byte 102,15,111,53,28,93,0,0 // movdqa 0x5d1c(%rip),%xmm6 # 3b270 <_sk_srcover_bgra_8888_sse2_lowp+0x1308> .byte 102,15,111,236 // movdqa %xmm4,%xmm5 .byte 102,15,56,0,238 // pshufb %xmm6,%xmm5 .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7 .byte 102,15,56,0,254 // pshufb %xmm6,%xmm7 .byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5 - .byte 102,68,15,111,37,112,85,0,0 // movdqa 0x5570(%rip),%xmm12 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,37,124,85,0,0 // movdqa 0x557c(%rip),%xmm12 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,245 // movdqa %xmm5,%xmm6 .byte 102,65,15,219,244 // pand %xmm12,%xmm6 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 - .byte 102,68,15,111,13,233,92,0,0 // movdqa 0x5ce9(%rip),%xmm9 # 3a860 <_sk_srcover_bgra_8888_sse2_lowp+0x130c> + .byte 102,68,15,111,13,245,92,0,0 // movdqa 0x5cf5(%rip),%xmm9 # 3b280 <_sk_srcover_bgra_8888_sse2_lowp+0x1318> .byte 102,15,111,252 // movdqa %xmm4,%xmm7 .byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7 .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10 .byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10 .byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7 - .byte 102,68,15,111,13,214,92,0,0 // movdqa 0x5cd6(%rip),%xmm9 # 3a870 <_sk_srcover_bgra_8888_sse2_lowp+0x131c> + .byte 102,68,15,111,13,226,92,0,0 // movdqa 0x5ce2(%rip),%xmm9 # 3b290 <_sk_srcover_bgra_8888_sse2_lowp+0x1328> .byte 102,65,15,56,0,225 // pshufb %xmm9,%xmm4 .byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8 .byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4 @@ -52155,19 +52698,19 @@ _sk_srcover_bgra_8888_sse41_lowp: .byte 102,15,97,195 // punpcklwd %xmm3,%xmm0 .byte 102,65,15,235,196 // por %xmm12,%xmm0 .byte 65,128,250,6 // cmp $0x6,%r10b - .byte 119,24 // ja 34c82 <_sk_srcover_bgra_8888_sse41_lowp+0x1ee> - .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 34cf8 <_sk_srcover_bgra_8888_sse41_lowp+0x264> + .byte 119,24 // ja 35696 <_sk_srcover_bgra_8888_sse41_lowp+0x1ee> + .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 3570c <_sk_srcover_bgra_8888_sse41_lowp+0x264> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4) - .byte 235,63 // jmp 34cc1 <_sk_srcover_bgra_8888_sse41_lowp+0x22d> + .byte 235,63 // jmp 356d5 <_sk_srcover_bgra_8888_sse41_lowp+0x22d> .byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4) .byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4) - .byte 235,48 // jmp 34cc1 <_sk_srcover_bgra_8888_sse41_lowp+0x22d> + .byte 235,48 // jmp 356d5 <_sk_srcover_bgra_8888_sse41_lowp+0x22d> .byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4) .byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4) - .byte 235,31 // jmp 34cc1 <_sk_srcover_bgra_8888_sse41_lowp+0x22d> + .byte 235,31 // jmp 356d5 <_sk_srcover_bgra_8888_sse41_lowp+0x22d> .byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4) .byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4) .byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4) @@ -52232,13 +52775,13 @@ _sk_start_pipeline_sse2_lowp: .byte 73,137,246 // mov %rsi,%r14 .byte 72,137,77,192 // mov %rcx,-0x40(%rbp) .byte 72,57,203 // cmp %rcx,%rbx - .byte 15,131,131,0,0,0 // jae 34dca <_sk_start_pipeline_sse2_lowp+0xb6> + .byte 15,131,131,0,0,0 // jae 357de <_sk_start_pipeline_sse2_lowp+0xb6> .byte 72,139,69,208 // mov -0x30(%rbp),%rax .byte 72,141,64,8 // lea 0x8(%rax),%rax .byte 72,137,69,200 // mov %rax,-0x38(%rbp) .byte 76,57,125,200 // cmp %r15,-0x38(%rbp) .byte 72,139,85,208 // mov -0x30(%rbp),%rdx - .byte 119,59 // ja 34d98 <_sk_start_pipeline_sse2_lowp+0x84> + .byte 119,59 // ja 357ac <_sk_start_pipeline_sse2_lowp+0x84> .byte 76,139,101,208 // mov -0x30(%rbp),%r12 .byte 49,255 // xor %edi,%edi .byte 15,87,192 // xorps %xmm0,%xmm0 @@ -52257,10 +52800,10 @@ _sk_start_pipeline_sse2_lowp: .byte 73,131,196,16 // add $0x10,%r12 .byte 77,57,252 // cmp %r15,%r12 .byte 73,137,212 // mov %rdx,%r12 - .byte 118,201 // jbe 34d61 <_sk_start_pipeline_sse2_lowp+0x4d> + .byte 118,201 // jbe 35775 <_sk_start_pipeline_sse2_lowp+0x4d> .byte 76,137,255 // mov %r15,%rdi .byte 72,41,215 // sub %rdx,%rdi - .byte 116,33 // je 34dc1 <_sk_start_pipeline_sse2_lowp+0xad> + .byte 116,33 // je 357d5 <_sk_start_pipeline_sse2_lowp+0xad> .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 @@ -52274,7 +52817,7 @@ _sk_start_pipeline_sse2_lowp: .byte 65,255,213 // callq *%r13 .byte 72,255,195 // inc %rbx .byte 72,59,93,192 // cmp -0x40(%rbp),%rbx - .byte 117,137 // jne 34d53 <_sk_start_pipeline_sse2_lowp+0x3f> + .byte 117,137 // jne 35767 <_sk_start_pipeline_sse2_lowp+0x3f> .byte 72,131,196,24 // add $0x18,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 @@ -52305,7 +52848,7 @@ _sk_seed_shader_sse2_lowp: .byte 102,15,110,209 // movd %ecx,%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 - .byte 15,88,21,24,83,0,0 // addps 0x5318(%rip),%xmm2 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,88,21,36,83,0,0 // addps 0x5324(%rip),%xmm2 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 255,224 // jmpq *%rax @@ -52482,7 +53025,7 @@ HIDDEN _sk_black_color_sse2_lowp FUNCTION(_sk_black_color_sse2_lowp) _sk_black_color_sse2_lowp: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,93,80,0,0 // movaps 0x505d(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 15,40,29,105,80,0,0 // movaps 0x5069(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 @@ -52493,7 +53036,7 @@ HIDDEN _sk_white_color_sse2_lowp FUNCTION(_sk_white_color_sse2_lowp) _sk_white_color_sse2_lowp: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,5,73,80,0,0 // movaps 0x5049(%rip),%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 15,40,5,85,80,0,0 // movaps 0x5055(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,40,216 // movaps %xmm0,%xmm3 @@ -52504,10 +53047,10 @@ HIDDEN _sk_set_rgb_sse2_lowp FUNCTION(_sk_set_rgb_sse2_lowp) _sk_set_rgb_sse2_lowp: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 243,15,16,21,148,71,0,0 // movss 0x4794(%rip),%xmm2 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 243,15,16,21,148,71,0,0 // movss 0x4794(%rip),%xmm2 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> .byte 243,15,16,0 // movss (%rax),%xmm0 .byte 243,15,89,194 // mulss %xmm2,%xmm0 - .byte 243,68,15,16,5,83,71,0,0 // movss 0x4753(%rip),%xmm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 243,68,15,16,5,83,71,0,0 // movss 0x4753(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 243,65,15,88,192 // addss %xmm8,%xmm0 .byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d .byte 102,65,15,110,192 // movd %r8d,%xmm0 @@ -52533,7 +53076,7 @@ HIDDEN _sk_clamp_a_sse2_lowp .globl _sk_clamp_a_sse2_lowp FUNCTION(_sk_clamp_a_sse2_lowp) _sk_clamp_a_sse2_lowp: - .byte 102,68,15,111,5,47,87,0,0 // movdqa 0x572f(%rip),%xmm8 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec> + .byte 102,68,15,111,5,59,87,0,0 // movdqa 0x573b(%rip),%xmm8 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8> .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9 .byte 102,69,15,239,200 // pxor %xmm8,%xmm9 .byte 102,68,15,111,211 // movdqa %xmm3,%xmm10 @@ -52562,7 +53105,7 @@ HIDDEN _sk_clamp_a_dst_sse2_lowp .globl _sk_clamp_a_dst_sse2_lowp FUNCTION(_sk_clamp_a_dst_sse2_lowp) _sk_clamp_a_dst_sse2_lowp: - .byte 102,68,15,111,5,185,86,0,0 // movdqa 0x56b9(%rip),%xmm8 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec> + .byte 102,68,15,111,5,197,86,0,0 // movdqa 0x56c5(%rip),%xmm8 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8> .byte 102,68,15,111,204 // movdqa %xmm4,%xmm9 .byte 102,69,15,239,200 // pxor %xmm8,%xmm9 .byte 102,68,15,111,215 // movdqa %xmm7,%xmm10 @@ -52592,7 +53135,7 @@ HIDDEN _sk_premul_sse2_lowp FUNCTION(_sk_premul_sse2_lowp) _sk_premul_sse2_lowp: .byte 102,15,213,195 // pmullw %xmm3,%xmm0 - .byte 102,68,15,111,5,207,78,0,0 // movdqa 0x4ecf(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,219,78,0,0 // movdqa 0x4edb(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,192 // paddw %xmm8,%xmm0 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,213,203 // pmullw %xmm3,%xmm1 @@ -52609,7 +53152,7 @@ HIDDEN _sk_premul_dst_sse2_lowp FUNCTION(_sk_premul_dst_sse2_lowp) _sk_premul_dst_sse2_lowp: .byte 102,15,213,231 // pmullw %xmm7,%xmm4 - .byte 102,68,15,111,5,152,78,0,0 // movdqa 0x4e98(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,164,78,0,0 // movdqa 0x4ea4(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,224 // paddw %xmm8,%xmm4 .byte 102,15,113,212,8 // psrlw $0x8,%xmm4 .byte 102,15,213,239 // pmullw %xmm7,%xmm5 @@ -52657,7 +53200,7 @@ HIDDEN _sk_invert_sse2_lowp .globl _sk_invert_sse2_lowp FUNCTION(_sk_invert_sse2_lowp) _sk_invert_sse2_lowp: - .byte 102,68,15,111,5,54,78,0,0 // movdqa 0x4e36(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,66,78,0,0 // movdqa 0x4e42(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 .byte 102,68,15,249,200 // psubw %xmm0,%xmm9 .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10 @@ -52689,7 +53232,7 @@ FUNCTION(_sk_srcatop_sse2_lowp) _sk_srcatop_sse2_lowp: .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8 .byte 102,15,213,199 // pmullw %xmm7,%xmm0 - .byte 102,15,111,29,218,77,0,0 // movdqa 0x4dda(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,15,111,29,230,77,0,0 // movdqa 0x4de6(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,68,15,111,203 // movdqa %xmm3,%xmm9 .byte 102,69,15,249,200 // psubw %xmm8,%xmm9 .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8 @@ -52721,7 +53264,7 @@ FUNCTION(_sk_dstatop_sse2_lowp) _sk_dstatop_sse2_lowp: .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8 .byte 102,68,15,213,195 // pmullw %xmm3,%xmm8 - .byte 102,68,15,111,13,90,77,0,0 // movdqa 0x4d5a(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,102,77,0,0 // movdqa 0x4d66(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,69,15,253,193 // paddw %xmm9,%xmm8 .byte 102,68,15,111,213 // movdqa %xmm5,%xmm10 .byte 102,68,15,213,211 // pmullw %xmm3,%xmm10 @@ -52750,7 +53293,7 @@ HIDDEN _sk_srcin_sse2_lowp FUNCTION(_sk_srcin_sse2_lowp) _sk_srcin_sse2_lowp: .byte 102,15,213,199 // pmullw %xmm7,%xmm0 - .byte 102,68,15,111,5,229,76,0,0 // movdqa 0x4ce5(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,241,76,0,0 // movdqa 0x4cf1(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,192 // paddw %xmm8,%xmm0 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,213,207 // pmullw %xmm7,%xmm1 @@ -52771,7 +53314,7 @@ FUNCTION(_sk_dstin_sse2_lowp) _sk_dstin_sse2_lowp: .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 102,15,213,195 // pmullw %xmm3,%xmm0 - .byte 102,68,15,111,5,156,76,0,0 // movdqa 0x4c9c(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,168,76,0,0 // movdqa 0x4ca8(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,192 // paddw %xmm8,%xmm0 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,111,205 // movdqa %xmm5,%xmm1 @@ -52792,7 +53335,7 @@ HIDDEN _sk_srcout_sse2_lowp .globl _sk_srcout_sse2_lowp FUNCTION(_sk_srcout_sse2_lowp) _sk_srcout_sse2_lowp: - .byte 102,68,15,111,5,83,76,0,0 // movdqa 0x4c53(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,95,76,0,0 // movdqa 0x4c5f(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 .byte 102,68,15,249,207 // psubw %xmm7,%xmm9 .byte 102,65,15,213,193 // pmullw %xmm9,%xmm0 @@ -52815,7 +53358,7 @@ HIDDEN _sk_dstout_sse2_lowp FUNCTION(_sk_dstout_sse2_lowp) _sk_dstout_sse2_lowp: .byte 102,15,111,195 // movdqa %xmm3,%xmm0 - .byte 102,68,15,111,5,252,75,0,0 // movdqa 0x4bfc(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,8,76,0,0 // movdqa 0x4c08(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3 .byte 102,15,249,216 // psubw %xmm0,%xmm3 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 @@ -52840,7 +53383,7 @@ HIDDEN _sk_srcover_sse2_lowp .globl _sk_srcover_sse2_lowp FUNCTION(_sk_srcover_sse2_lowp) _sk_srcover_sse2_lowp: - .byte 102,68,15,111,13,162,75,0,0 // movdqa 0x4ba2(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,174,75,0,0 // movdqa 0x4bae(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8 .byte 102,68,15,249,195 // psubw %xmm3,%xmm8 .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10 @@ -52869,7 +53412,7 @@ HIDDEN _sk_dstover_sse2_lowp .globl _sk_dstover_sse2_lowp FUNCTION(_sk_dstover_sse2_lowp) _sk_dstover_sse2_lowp: - .byte 102,68,15,111,5,40,75,0,0 // movdqa 0x4b28(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,52,75,0,0 // movdqa 0x4b34(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 .byte 102,68,15,249,207 // psubw %xmm7,%xmm9 .byte 102,65,15,213,193 // pmullw %xmm9,%xmm0 @@ -52896,7 +53439,7 @@ HIDDEN _sk_modulate_sse2_lowp FUNCTION(_sk_modulate_sse2_lowp) _sk_modulate_sse2_lowp: .byte 102,15,213,196 // pmullw %xmm4,%xmm0 - .byte 102,68,15,111,5,193,74,0,0 // movdqa 0x4ac1(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,205,74,0,0 // movdqa 0x4acd(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,192 // paddw %xmm8,%xmm0 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,213,205 // pmullw %xmm5,%xmm1 @@ -52915,7 +53458,7 @@ HIDDEN _sk_multiply_sse2_lowp .globl _sk_multiply_sse2_lowp FUNCTION(_sk_multiply_sse2_lowp) _sk_multiply_sse2_lowp: - .byte 102,68,15,111,13,128,74,0,0 // movdqa 0x4a80(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,140,74,0,0 // movdqa 0x4a8c(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8 .byte 102,68,15,249,195 // psubw %xmm3,%xmm8 .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10 @@ -52960,12 +53503,12 @@ _sk_plus__sse2_lowp: .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,253,204 // paddw %xmm4,%xmm1 - .byte 102,68,15,111,21,44,82,0,0 // movdqa 0x522c(%rip),%xmm10 # 3a940 <_sk_srcover_bgra_8888_sse2_lowp+0x13ec> + .byte 102,68,15,111,21,56,82,0,0 // movdqa 0x5238(%rip),%xmm10 # 3b360 <_sk_srcover_bgra_8888_sse2_lowp+0x13f8> .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,65,15,217,194 // psubusw %xmm10,%xmm0 .byte 102,69,15,239,228 // pxor %xmm12,%xmm12 .byte 102,65,15,117,196 // pcmpeqw %xmm12,%xmm0 - .byte 102,68,15,111,29,160,73,0,0 // movdqa 0x49a0(%rip),%xmm11 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,29,172,73,0,0 // movdqa 0x49ac(%rip),%xmm11 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,219,200 // pand %xmm0,%xmm1 .byte 102,65,15,223,195 // pandn %xmm11,%xmm0 .byte 102,15,235,193 // por %xmm1,%xmm0 @@ -53004,7 +53547,7 @@ _sk_screen_sse2_lowp: .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 102,15,253,193 // paddw %xmm1,%xmm0 .byte 102,15,213,204 // pmullw %xmm4,%xmm1 - .byte 102,68,15,111,21,0,73,0,0 // movdqa 0x4900(%rip),%xmm10 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,21,12,73,0,0 // movdqa 0x490c(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,202 // paddw %xmm10,%xmm1 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 .byte 102,15,249,193 // psubw %xmm1,%xmm0 @@ -53036,7 +53579,7 @@ HIDDEN _sk_xor__sse2_lowp FUNCTION(_sk_xor__sse2_lowp) _sk_xor__sse2_lowp: .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8 - .byte 102,68,15,111,13,126,72,0,0 // movdqa 0x487e(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,138,72,0,0 // movdqa 0x488a(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,69,15,111,209 // movdqa %xmm9,%xmm10 .byte 102,68,15,249,215 // psubw %xmm7,%xmm10 .byte 102,65,15,213,194 // pmullw %xmm10,%xmm0 @@ -53078,7 +53621,7 @@ _sk_darken_sse2_lowp: .byte 102,65,15,253,194 // paddw %xmm10,%xmm0 .byte 102,68,15,213,215 // pmullw %xmm7,%xmm10 .byte 102,68,15,213,227 // pmullw %xmm3,%xmm12 - .byte 102,68,15,111,13,57,79,0,0 // movdqa 0x4f39(%rip),%xmm9 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec> + .byte 102,68,15,111,13,69,79,0,0 // movdqa 0x4f45(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8> .byte 102,69,15,111,218 // movdqa %xmm10,%xmm11 .byte 102,69,15,239,217 // pxor %xmm9,%xmm11 .byte 102,65,15,111,204 // movdqa %xmm12,%xmm1 @@ -53087,7 +53630,7 @@ _sk_darken_sse2_lowp: .byte 102,68,15,219,225 // pand %xmm1,%xmm12 .byte 102,65,15,223,202 // pandn %xmm10,%xmm1 .byte 102,65,15,235,204 // por %xmm12,%xmm1 - .byte 102,68,15,111,21,152,71,0,0 // movdqa 0x4798(%rip),%xmm10 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,21,164,71,0,0 // movdqa 0x47a4(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,202 // paddw %xmm10,%xmm1 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 .byte 102,15,249,193 // psubw %xmm1,%xmm0 @@ -53143,7 +53686,7 @@ _sk_lighten_sse2_lowp: .byte 102,65,15,253,196 // paddw %xmm12,%xmm0 .byte 102,68,15,213,231 // pmullw %xmm7,%xmm12 .byte 102,68,15,213,211 // pmullw %xmm3,%xmm10 - .byte 102,68,15,111,13,16,78,0,0 // movdqa 0x4e10(%rip),%xmm9 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec> + .byte 102,68,15,111,13,28,78,0,0 // movdqa 0x4e1c(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8> .byte 102,69,15,111,220 // movdqa %xmm12,%xmm11 .byte 102,69,15,239,217 // pxor %xmm9,%xmm11 .byte 102,65,15,111,202 // movdqa %xmm10,%xmm1 @@ -53152,7 +53695,7 @@ _sk_lighten_sse2_lowp: .byte 102,68,15,219,225 // pand %xmm1,%xmm12 .byte 102,65,15,223,202 // pandn %xmm10,%xmm1 .byte 102,65,15,235,204 // por %xmm12,%xmm1 - .byte 102,68,15,111,21,111,70,0,0 // movdqa 0x466f(%rip),%xmm10 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,21,123,70,0,0 // movdqa 0x467b(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,202 // paddw %xmm10,%xmm1 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 .byte 102,15,249,193 // psubw %xmm1,%xmm0 @@ -53208,7 +53751,7 @@ _sk_difference_sse2_lowp: .byte 102,65,15,253,196 // paddw %xmm12,%xmm0 .byte 102,68,15,213,231 // pmullw %xmm7,%xmm12 .byte 102,68,15,213,211 // pmullw %xmm3,%xmm10 - .byte 102,68,15,111,13,231,76,0,0 // movdqa 0x4ce7(%rip),%xmm9 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec> + .byte 102,68,15,111,13,243,76,0,0 // movdqa 0x4cf3(%rip),%xmm9 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8> .byte 102,69,15,111,220 // movdqa %xmm12,%xmm11 .byte 102,69,15,239,217 // pxor %xmm9,%xmm11 .byte 102,65,15,111,202 // movdqa %xmm10,%xmm1 @@ -53217,10 +53760,10 @@ _sk_difference_sse2_lowp: .byte 102,68,15,219,225 // pand %xmm1,%xmm12 .byte 102,65,15,223,202 // pandn %xmm10,%xmm1 .byte 102,65,15,235,204 // por %xmm12,%xmm1 - .byte 102,68,15,111,21,70,69,0,0 // movdqa 0x4546(%rip),%xmm10 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,21,82,69,0,0 // movdqa 0x4552(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,202 // paddw %xmm10,%xmm1 .byte 102,15,113,209,7 // psrlw $0x7,%xmm1 - .byte 102,68,15,111,29,147,76,0,0 // movdqa 0x4c93(%rip),%xmm11 # 3a830 <_sk_srcover_bgra_8888_sse2_lowp+0x12dc> + .byte 102,68,15,111,29,159,76,0,0 // movdqa 0x4c9f(%rip),%xmm11 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8> .byte 102,65,15,219,203 // pand %xmm11,%xmm1 .byte 102,15,249,193 // psubw %xmm1,%xmm0 .byte 102,68,15,111,229 // movdqa %xmm5,%xmm12 @@ -53275,10 +53818,10 @@ _sk_exclusion_sse2_lowp: .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 102,15,253,193 // paddw %xmm1,%xmm0 .byte 102,15,213,204 // pmullw %xmm4,%xmm1 - .byte 102,68,15,111,13,67,68,0,0 // movdqa 0x4443(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,79,68,0,0 // movdqa 0x444f(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,201 // paddw %xmm9,%xmm1 .byte 102,15,113,209,7 // psrlw $0x7,%xmm1 - .byte 102,68,15,111,21,144,75,0,0 // movdqa 0x4b90(%rip),%xmm10 # 3a830 <_sk_srcover_bgra_8888_sse2_lowp+0x12dc> + .byte 102,68,15,111,21,156,75,0,0 // movdqa 0x4b9c(%rip),%xmm10 # 3b250 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8> .byte 102,65,15,219,202 // pand %xmm10,%xmm1 .byte 102,15,249,193 // psubw %xmm1,%xmm0 .byte 102,15,111,205 // movdqa %xmm5,%xmm1 @@ -53314,7 +53857,7 @@ _sk_hardlight_sse2_lowp: .byte 102,15,111,236 // movdqa %xmm4,%xmm5 .byte 102,68,15,111,194 // movdqa %xmm2,%xmm8 .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9 - .byte 102,15,111,21,159,67,0,0 // movdqa 0x439f(%rip),%xmm2 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,15,111,21,171,67,0,0 // movdqa 0x43ab(%rip),%xmm2 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,68,15,111,226 // movdqa %xmm2,%xmm12 .byte 102,68,15,249,231 // psubw %xmm7,%xmm12 .byte 102,65,15,111,196 // movdqa %xmm12,%xmm0 @@ -53327,7 +53870,7 @@ _sk_hardlight_sse2_lowp: .byte 102,68,15,111,243 // movdqa %xmm3,%xmm14 .byte 102,69,15,249,241 // psubw %xmm9,%xmm14 .byte 102,69,15,253,201 // paddw %xmm9,%xmm9 - .byte 102,15,111,21,203,74,0,0 // movdqa 0x4acb(%rip),%xmm2 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec> + .byte 102,15,111,21,215,74,0,0 // movdqa 0x4ad7(%rip),%xmm2 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8> .byte 102,15,111,199 // movdqa %xmm7,%xmm0 .byte 102,68,15,111,215 // movdqa %xmm7,%xmm10 .byte 102,15,111,231 // movdqa %xmm7,%xmm4 @@ -53346,7 +53889,7 @@ _sk_hardlight_sse2_lowp: .byte 102,68,15,219,232 // pand %xmm0,%xmm13 .byte 102,65,15,223,193 // pandn %xmm9,%xmm0 .byte 102,65,15,235,197 // por %xmm13,%xmm0 - .byte 102,15,253,5,254,66,0,0 // paddw 0x42fe(%rip),%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,15,253,5,10,67,0,0 // paddw 0x430a(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,199 // paddw %xmm15,%xmm0 .byte 102,69,15,111,204 // movdqa %xmm12,%xmm9 .byte 102,68,15,213,201 // pmullw %xmm1,%xmm9 @@ -53369,7 +53912,7 @@ _sk_hardlight_sse2_lowp: .byte 102,65,15,219,249 // pand %xmm9,%xmm7 .byte 102,68,15,223,201 // pandn %xmm1,%xmm9 .byte 102,68,15,235,207 // por %xmm7,%xmm9 - .byte 102,68,15,253,13,137,66,0,0 // paddw 0x4289(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,253,13,149,66,0,0 // paddw 0x4295(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,69,15,253,205 // paddw %xmm13,%xmm9 .byte 102,69,15,213,224 // pmullw %xmm8,%xmm12 .byte 102,69,15,111,251 // movdqa %xmm11,%xmm15 @@ -53391,7 +53934,7 @@ _sk_hardlight_sse2_lowp: .byte 102,68,15,219,210 // pand %xmm2,%xmm10 .byte 102,65,15,223,208 // pandn %xmm8,%xmm2 .byte 102,65,15,235,210 // por %xmm10,%xmm2 - .byte 102,68,15,111,5,25,66,0,0 // movdqa 0x4219(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,37,66,0,0 // movdqa 0x4225(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,208 // paddw %xmm8,%xmm2 .byte 102,65,15,253,215 // paddw %xmm15,%xmm2 .byte 102,68,15,213,220 // pmullw %xmm4,%xmm11 @@ -53419,7 +53962,7 @@ _sk_overlay_sse2_lowp: .byte 102,15,127,124,36,232 // movdqa %xmm7,-0x18(%rsp) .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8 .byte 102,68,15,111,248 // movdqa %xmm0,%xmm15 - .byte 102,15,111,53,170,65,0,0 // movdqa 0x41aa(%rip),%xmm6 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,15,111,53,182,65,0,0 // movdqa 0x41b6(%rip),%xmm6 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,68,15,111,222 // movdqa %xmm6,%xmm11 .byte 102,69,15,249,222 // psubw %xmm14,%xmm11 .byte 102,65,15,111,203 // movdqa %xmm11,%xmm1 @@ -53441,7 +53984,7 @@ _sk_overlay_sse2_lowp: .byte 102,15,253,201 // paddw %xmm1,%xmm1 .byte 102,69,15,111,225 // movdqa %xmm9,%xmm12 .byte 102,68,15,249,225 // psubw %xmm1,%xmm12 - .byte 102,15,111,13,174,72,0,0 // movdqa 0x48ae(%rip),%xmm1 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec> + .byte 102,15,111,13,186,72,0,0 // movdqa 0x48ba(%rip),%xmm1 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8> .byte 102,69,15,111,238 // movdqa %xmm14,%xmm13 .byte 102,68,15,239,233 // pxor %xmm1,%xmm13 .byte 102,15,239,249 // pxor %xmm1,%xmm7 @@ -53468,7 +54011,7 @@ _sk_overlay_sse2_lowp: .byte 102,68,15,213,197 // pmullw %xmm5,%xmm8 .byte 102,15,111,229 // movdqa %xmm5,%xmm4 .byte 102,15,253,228 // paddw %xmm4,%xmm4 - .byte 102,15,111,61,45,72,0,0 // movdqa 0x482d(%rip),%xmm7 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec> + .byte 102,15,111,61,57,72,0,0 // movdqa 0x4839(%rip),%xmm7 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8> .byte 102,15,239,231 // pxor %xmm7,%xmm4 .byte 102,65,15,101,229 // pcmpgtw %xmm13,%xmm4 .byte 102,69,15,253,192 // paddw %xmm8,%xmm8 @@ -53528,27 +54071,27 @@ _sk_load_8888_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,41 // ja 36129 <_sk_load_8888_sse2_lowp+0x44> + .byte 119,41 // ja 36b3d <_sk_load_8888_sse2_lowp+0x44> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,25,1,0,0 // lea 0x119(%rip),%r9 # 36228 <_sk_load_8888_sse2_lowp+0x143> + .byte 76,141,13,25,1,0,0 // lea 0x119(%rip),%r9 # 36c3c <_sk_load_8888_sse2_lowp+0x143> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 255,224 // jmpq *%rax .byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3 .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 - .byte 235,102 // jmp 3618f <_sk_load_8888_sse2_lowp+0xaa> + .byte 235,102 // jmp 36ba3 <_sk_load_8888_sse2_lowp+0xaa> .byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3 .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8 - .byte 235,87 // jmp 3618f <_sk_load_8888_sse2_lowp+0xaa> + .byte 235,87 // jmp 36ba3 <_sk_load_8888_sse2_lowp+0xaa> .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0 .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8 .byte 102,65,15,40,216 // movapd %xmm8,%xmm3 .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8 - .byte 235,52 // jmp 3618f <_sk_load_8888_sse2_lowp+0xaa> + .byte 235,52 // jmp 36ba3 <_sk_load_8888_sse2_lowp+0xaa> .byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0 .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8 .byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0 @@ -53565,7 +54108,7 @@ _sk_load_8888_sse2_lowp: .byte 102,15,114,240,16 // pslld $0x10,%xmm0 .byte 102,15,114,224,16 // psrad $0x10,%xmm0 .byte 102,15,107,200 // packssdw %xmm0,%xmm1 - .byte 102,68,15,111,13,23,63,0,0 // movdqa 0x3f17(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,35,63,0,0 // movdqa 0x3f23(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,65,15,219,193 // pand %xmm9,%xmm0 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 @@ -53622,27 +54165,27 @@ _sk_load_8888_dst_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,41 // ja 36288 <_sk_load_8888_dst_sse2_lowp+0x44> + .byte 119,41 // ja 36c9c <_sk_load_8888_dst_sse2_lowp+0x44> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 36384 <_sk_load_8888_dst_sse2_lowp+0x140> + .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 36d98 <_sk_load_8888_dst_sse2_lowp+0x140> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 255,224 // jmpq *%rax .byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7 .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 - .byte 235,102 // jmp 362ee <_sk_load_8888_dst_sse2_lowp+0xaa> + .byte 235,102 // jmp 36d02 <_sk_load_8888_dst_sse2_lowp+0xaa> .byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7 .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8 - .byte 235,87 // jmp 362ee <_sk_load_8888_dst_sse2_lowp+0xaa> + .byte 235,87 // jmp 36d02 <_sk_load_8888_dst_sse2_lowp+0xaa> .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8 .byte 102,65,15,40,248 // movapd %xmm8,%xmm7 .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8 - .byte 235,52 // jmp 362ee <_sk_load_8888_dst_sse2_lowp+0xaa> + .byte 235,52 // jmp 36d02 <_sk_load_8888_dst_sse2_lowp+0xaa> .byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4 @@ -53659,7 +54202,7 @@ _sk_load_8888_dst_sse2_lowp: .byte 102,15,114,244,16 // pslld $0x10,%xmm4 .byte 102,15,114,228,16 // psrad $0x10,%xmm4 .byte 102,15,107,236 // packssdw %xmm4,%xmm5 - .byte 102,68,15,111,13,184,61,0,0 // movdqa 0x3db8(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,196,61,0,0 // movdqa 0x3dc4(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,229 // movdqa %xmm5,%xmm4 .byte 102,65,15,219,225 // pand %xmm9,%xmm4 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 @@ -53727,21 +54270,21 @@ _sk_store_8888_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,27 // ja 36423 <_sk_store_8888_sse2_lowp+0x83> + .byte 119,27 // ja 36e37 <_sk_store_8888_sse2_lowp+0x83> .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 36474 <_sk_store_8888_sse2_lowp+0xd4> + .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 36e88 <_sk_store_8888_sse2_lowp+0xd4> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4) - .byte 235,75 // jmp 3646e <_sk_store_8888_sse2_lowp+0xce> + .byte 235,75 // jmp 36e82 <_sk_store_8888_sse2_lowp+0xce> .byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4) .byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4) - .byte 235,60 // jmp 3646e <_sk_store_8888_sse2_lowp+0xce> + .byte 235,60 // jmp 36e82 <_sk_store_8888_sse2_lowp+0xce> .byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8 .byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4) .byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4) - .byte 235,39 // jmp 3646e <_sk_store_8888_sse2_lowp+0xce> + .byte 235,39 // jmp 36e82 <_sk_store_8888_sse2_lowp+0xce> .byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10 .byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4) .byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10 @@ -53786,27 +54329,27 @@ _sk_load_bgra_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,41 // ja 364d4 <_sk_load_bgra_sse2_lowp+0x44> + .byte 119,41 // ja 36ee8 <_sk_load_bgra_sse2_lowp+0x44> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 365d0 <_sk_load_bgra_sse2_lowp+0x140> + .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 36fe4 <_sk_load_bgra_sse2_lowp+0x140> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 255,224 // jmpq *%rax .byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3 .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 - .byte 235,102 // jmp 3653a <_sk_load_bgra_sse2_lowp+0xaa> + .byte 235,102 // jmp 36f4e <_sk_load_bgra_sse2_lowp+0xaa> .byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3 .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8 - .byte 235,87 // jmp 3653a <_sk_load_bgra_sse2_lowp+0xaa> + .byte 235,87 // jmp 36f4e <_sk_load_bgra_sse2_lowp+0xaa> .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0 .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8 .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8 .byte 102,65,15,40,216 // movapd %xmm8,%xmm3 .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8 - .byte 235,52 // jmp 3653a <_sk_load_bgra_sse2_lowp+0xaa> + .byte 235,52 // jmp 36f4e <_sk_load_bgra_sse2_lowp+0xaa> .byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0 .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8 .byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0 @@ -53823,7 +54366,7 @@ _sk_load_bgra_sse2_lowp: .byte 102,15,114,240,16 // pslld $0x10,%xmm0 .byte 102,15,114,224,16 // psrad $0x10,%xmm0 .byte 102,15,107,200 // packssdw %xmm0,%xmm1 - .byte 102,68,15,111,13,108,59,0,0 // movdqa 0x3b6c(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,120,59,0,0 // movdqa 0x3b78(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,65,15,219,209 // pand %xmm9,%xmm2 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 @@ -53876,27 +54419,27 @@ _sk_load_bgra_dst_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,41 // ja 36630 <_sk_load_bgra_dst_sse2_lowp+0x44> + .byte 119,41 // ja 37044 <_sk_load_bgra_dst_sse2_lowp+0x44> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 3672c <_sk_load_bgra_dst_sse2_lowp+0x140> + .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 37140 <_sk_load_bgra_dst_sse2_lowp+0x140> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 255,224 // jmpq *%rax .byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7 .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 - .byte 235,102 // jmp 36696 <_sk_load_bgra_dst_sse2_lowp+0xaa> + .byte 235,102 // jmp 370aa <_sk_load_bgra_dst_sse2_lowp+0xaa> .byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7 .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8 - .byte 235,87 // jmp 36696 <_sk_load_bgra_dst_sse2_lowp+0xaa> + .byte 235,87 // jmp 370aa <_sk_load_bgra_dst_sse2_lowp+0xaa> .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8 .byte 102,65,15,40,248 // movapd %xmm8,%xmm7 .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8 - .byte 235,52 // jmp 36696 <_sk_load_bgra_dst_sse2_lowp+0xaa> + .byte 235,52 // jmp 370aa <_sk_load_bgra_dst_sse2_lowp+0xaa> .byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4 @@ -53913,7 +54456,7 @@ _sk_load_bgra_dst_sse2_lowp: .byte 102,15,114,244,16 // pslld $0x10,%xmm4 .byte 102,15,114,228,16 // psrad $0x10,%xmm4 .byte 102,15,107,236 // packssdw %xmm4,%xmm5 - .byte 102,68,15,111,13,16,58,0,0 // movdqa 0x3a10(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,28,58,0,0 // movdqa 0x3a1c(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,245 // movdqa %xmm5,%xmm6 .byte 102,65,15,219,241 // pand %xmm9,%xmm6 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 @@ -53981,21 +54524,21 @@ _sk_store_bgra_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,27 // ja 367cb <_sk_store_bgra_sse2_lowp+0x83> + .byte 119,27 // ja 371df <_sk_store_bgra_sse2_lowp+0x83> .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 3681c <_sk_store_bgra_sse2_lowp+0xd4> + .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 37230 <_sk_store_bgra_sse2_lowp+0xd4> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4) - .byte 235,75 // jmp 36816 <_sk_store_bgra_sse2_lowp+0xce> + .byte 235,75 // jmp 3722a <_sk_store_bgra_sse2_lowp+0xce> .byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4) .byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4) - .byte 235,60 // jmp 36816 <_sk_store_bgra_sse2_lowp+0xce> + .byte 235,60 // jmp 3722a <_sk_store_bgra_sse2_lowp+0xce> .byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8 .byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4) .byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4) - .byte 235,39 // jmp 36816 <_sk_store_bgra_sse2_lowp+0xce> + .byte 235,39 // jmp 3722a <_sk_store_bgra_sse2_lowp+0xce> .byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10 .byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4) .byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10 @@ -54109,7 +54652,7 @@ _sk_gather_8888_sse2_lowp: .byte 102,15,114,241,16 // pslld $0x10,%xmm1 .byte 102,15,114,225,16 // psrad $0x10,%xmm1 .byte 102,15,107,200 // packssdw %xmm0,%xmm1 - .byte 102,68,15,111,13,44,55,0,0 // movdqa 0x372c(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,56,55,0,0 // movdqa 0x3738(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,65,15,219,193 // pand %xmm9,%xmm0 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 @@ -54219,7 +54762,7 @@ _sk_gather_bgra_sse2_lowp: .byte 102,15,114,241,16 // pslld $0x10,%xmm1 .byte 102,15,114,225,16 // psrad $0x10,%xmm1 .byte 102,15,107,200 // packssdw %xmm0,%xmm1 - .byte 102,68,15,111,13,77,53,0,0 // movdqa 0x354d(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,89,53,0,0 // movdqa 0x3559(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,65,15,219,209 // pand %xmm9,%xmm2 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 @@ -54260,23 +54803,23 @@ _sk_load_565_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,34 // ja 36c32 <_sk_load_565_sse2_lowp+0x3c> + .byte 119,34 // ja 37646 <_sk_load_565_sse2_lowp+0x3c> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,190,0,0,0 // lea 0xbe(%rip),%r9 # 36cdc <_sk_load_565_sse2_lowp+0xe6> + .byte 76,141,13,190,0,0,0 // lea 0xbe(%rip),%r9 # 376f0 <_sk_load_565_sse2_lowp+0xe6> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax .byte 102,15,110,192 // movd %eax,%xmm0 - .byte 235,66 // jmp 36c74 <_sk_load_565_sse2_lowp+0x7e> + .byte 235,66 // jmp 37688 <_sk_load_565_sse2_lowp+0x7e> .byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0 - .byte 235,58 // jmp 36c74 <_sk_load_565_sse2_lowp+0x7e> + .byte 235,58 // jmp 37688 <_sk_load_565_sse2_lowp+0x7e> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0 .byte 243,65,15,16,12,80 // movss (%r8,%rdx,2),%xmm1 .byte 243,15,16,193 // movss %xmm1,%xmm0 - .byte 235,34 // jmp 36c74 <_sk_load_565_sse2_lowp+0x7e> + .byte 235,34 // jmp 37688 <_sk_load_565_sse2_lowp+0x7e> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0 .byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0 @@ -54284,11 +54827,11 @@ _sk_load_565_sse2_lowp: .byte 102,65,15,18,4,80 // movlpd (%r8,%rdx,2),%xmm0 .byte 102,15,111,216 // movdqa %xmm0,%xmm3 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 - .byte 102,15,219,29,251,59,0,0 // pand 0x3bfb(%rip),%xmm3 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c> + .byte 102,15,219,29,7,60,0,0 // pand 0x3c07(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338> .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,113,209,5 // psrlw $0x5,%xmm1 - .byte 102,15,219,13,250,59,0,0 // pand 0x3bfa(%rip),%xmm1 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c> - .byte 102,15,111,21,2,60,0,0 // movdqa 0x3c02(%rip),%xmm2 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c> + .byte 102,15,219,13,6,60,0,0 // pand 0x3c06(%rip),%xmm1 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348> + .byte 102,15,111,21,14,60,0,0 // movdqa 0x3c0e(%rip),%xmm2 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358> .byte 102,15,219,208 // pand %xmm0,%xmm2 .byte 102,15,113,208,13 // psrlw $0xd,%xmm0 .byte 102,15,235,195 // por %xmm3,%xmm0 @@ -54301,7 +54844,7 @@ _sk_load_565_sse2_lowp: .byte 102,15,113,210,2 // psrlw $0x2,%xmm2 .byte 102,15,235,211 // por %xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,248,51,0,0 // movaps 0x33f8(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 15,40,29,4,52,0,0 // movaps 0x3404(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 255,224 // jmpq *%rax .byte 102,144 // xchg %ax,%ax .byte 75,255 // rex.WXB (bad) @@ -54331,23 +54874,23 @@ _sk_load_565_dst_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,34 // ja 36d34 <_sk_load_565_dst_sse2_lowp+0x3c> + .byte 119,34 // ja 37748 <_sk_load_565_dst_sse2_lowp+0x3c> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 36ddc <_sk_load_565_dst_sse2_lowp+0xe4> + .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 377f0 <_sk_load_565_dst_sse2_lowp+0xe4> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax .byte 102,15,110,224 // movd %eax,%xmm4 - .byte 235,66 // jmp 36d76 <_sk_load_565_dst_sse2_lowp+0x7e> + .byte 235,66 // jmp 3778a <_sk_load_565_dst_sse2_lowp+0x7e> .byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4 - .byte 235,58 // jmp 36d76 <_sk_load_565_dst_sse2_lowp+0x7e> + .byte 235,58 // jmp 3778a <_sk_load_565_dst_sse2_lowp+0x7e> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4 .byte 243,65,15,16,44,80 // movss (%r8,%rdx,2),%xmm5 .byte 243,15,16,229 // movss %xmm5,%xmm4 - .byte 235,34 // jmp 36d76 <_sk_load_565_dst_sse2_lowp+0x7e> + .byte 235,34 // jmp 3778a <_sk_load_565_dst_sse2_lowp+0x7e> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4 .byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4 @@ -54355,11 +54898,11 @@ _sk_load_565_dst_sse2_lowp: .byte 102,65,15,18,36,80 // movlpd (%r8,%rdx,2),%xmm4 .byte 102,15,111,252 // movdqa %xmm4,%xmm7 .byte 102,15,113,215,8 // psrlw $0x8,%xmm7 - .byte 102,15,219,61,249,58,0,0 // pand 0x3af9(%rip),%xmm7 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c> + .byte 102,15,219,61,5,59,0,0 // pand 0x3b05(%rip),%xmm7 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338> .byte 102,15,111,236 // movdqa %xmm4,%xmm5 .byte 102,15,113,213,5 // psrlw $0x5,%xmm5 - .byte 102,15,219,45,248,58,0,0 // pand 0x3af8(%rip),%xmm5 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c> - .byte 102,15,111,53,0,59,0,0 // movdqa 0x3b00(%rip),%xmm6 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c> + .byte 102,15,219,45,4,59,0,0 // pand 0x3b04(%rip),%xmm5 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348> + .byte 102,15,111,53,12,59,0,0 // movdqa 0x3b0c(%rip),%xmm6 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358> .byte 102,15,219,244 // pand %xmm4,%xmm6 .byte 102,15,113,212,13 // psrlw $0xd,%xmm4 .byte 102,15,235,231 // por %xmm7,%xmm4 @@ -54372,7 +54915,7 @@ _sk_load_565_dst_sse2_lowp: .byte 102,15,113,214,2 // psrlw $0x2,%xmm6 .byte 102,15,235,247 // por %xmm7,%xmm6 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,61,246,50,0,0 // movaps 0x32f6(%rip),%xmm7 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 15,40,61,2,51,0,0 // movaps 0x3302(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 255,224 // jmpq *%rax .byte 77,255 // rex.WRB (bad) .byte 255 // (bad) @@ -54396,10 +54939,10 @@ _sk_store_565_sse2_lowp: .byte 76,3,0 // add (%rax),%r8 .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8 .byte 102,65,15,113,240,8 // psllw $0x8,%xmm8 - .byte 102,68,15,219,5,148,58,0,0 // pand 0x3a94(%rip),%xmm8 # 3a8b0 <_sk_srcover_bgra_8888_sse2_lowp+0x135c> + .byte 102,68,15,219,5,160,58,0,0 // pand 0x3aa0(%rip),%xmm8 # 3b2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1368> .byte 102,68,15,111,201 // movdqa %xmm1,%xmm9 .byte 102,65,15,113,241,3 // psllw $0x3,%xmm9 - .byte 102,68,15,219,13,144,58,0,0 // pand 0x3a90(%rip),%xmm9 # 3a8c0 <_sk_srcover_bgra_8888_sse2_lowp+0x136c> + .byte 102,68,15,219,13,156,58,0,0 // pand 0x3a9c(%rip),%xmm9 # 3b2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1378> .byte 102,69,15,235,200 // por %xmm8,%xmm9 .byte 102,68,15,111,194 // movdqa %xmm2,%xmm8 .byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8 @@ -54408,21 +54951,21 @@ _sk_store_565_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,31 // ja 36e6e <_sk_store_565_sse2_lowp+0x76> + .byte 119,31 // ja 37882 <_sk_store_565_sse2_lowp+0x76> .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 36eb8 <_sk_store_565_sse2_lowp+0xc0> + .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 378cc <_sk_store_565_sse2_lowp+0xc0> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 102,68,15,126,192 // movd %xmm8,%eax .byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2) - .byte 235,70 // jmp 36eb4 <_sk_store_565_sse2_lowp+0xbc> + .byte 235,70 // jmp 378c8 <_sk_store_565_sse2_lowp+0xbc> .byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2) - .byte 235,62 // jmp 36eb4 <_sk_store_565_sse2_lowp+0xbc> + .byte 235,62 // jmp 378c8 <_sk_store_565_sse2_lowp+0xbc> .byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax .byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2) .byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2) - .byte 235,42 // jmp 36eb4 <_sk_store_565_sse2_lowp+0xbc> + .byte 235,42 // jmp 378c8 <_sk_store_565_sse2_lowp+0xbc> .byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax .byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2) .byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax @@ -54541,11 +55084,11 @@ _sk_gather_565_sse2_lowp: .byte 102,15,108,193 // punpcklqdq %xmm1,%xmm0 .byte 102,15,111,216 // movdqa %xmm0,%xmm3 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 - .byte 102,15,219,29,61,56,0,0 // pand 0x383d(%rip),%xmm3 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c> + .byte 102,15,219,29,73,56,0,0 // pand 0x3849(%rip),%xmm3 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338> .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,113,209,5 // psrlw $0x5,%xmm1 - .byte 102,15,219,13,60,56,0,0 // pand 0x383c(%rip),%xmm1 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c> - .byte 102,15,111,21,68,56,0,0 // movdqa 0x3844(%rip),%xmm2 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c> + .byte 102,15,219,13,72,56,0,0 // pand 0x3848(%rip),%xmm1 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348> + .byte 102,15,111,21,80,56,0,0 // movdqa 0x3850(%rip),%xmm2 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358> .byte 102,15,219,208 // pand %xmm0,%xmm2 .byte 102,15,113,208,13 // psrlw $0xd,%xmm0 .byte 102,15,235,195 // por %xmm3,%xmm0 @@ -54558,7 +55101,7 @@ _sk_gather_565_sse2_lowp: .byte 102,15,113,210,2 // psrlw $0x2,%xmm2 .byte 102,15,235,211 // por %xmm3,%xmm2 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,58,48,0,0 // movaps 0x303a(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 15,40,29,70,48,0,0 // movaps 0x3046(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 91 // pop %rbx .byte 65,92 // pop %r12 .byte 65,94 // pop %r14 @@ -54579,23 +55122,23 @@ _sk_load_4444_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,36 // ja 370de <_sk_load_4444_sse2_lowp+0x3e> + .byte 119,36 // ja 37af2 <_sk_load_4444_sse2_lowp+0x3e> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 37190 <_sk_load_4444_sse2_lowp+0xf0> + .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 37ba4 <_sk_load_4444_sse2_lowp+0xf0> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 - .byte 235,69 // jmp 37123 <_sk_load_4444_sse2_lowp+0x83> + .byte 235,69 // jmp 37b37 <_sk_load_4444_sse2_lowp+0x83> .byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8 - .byte 235,61 // jmp 37123 <_sk_load_4444_sse2_lowp+0x83> + .byte 235,61 // jmp 37b37 <_sk_load_4444_sse2_lowp+0x83> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 102,69,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm8 .byte 243,65,15,16,4,80 // movss (%r8,%rdx,2),%xmm0 .byte 243,68,15,16,192 // movss %xmm0,%xmm8 - .byte 235,35 // jmp 37123 <_sk_load_4444_sse2_lowp+0x83> + .byte 235,35 // jmp 37b37 <_sk_load_4444_sse2_lowp+0x83> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 102,69,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm8 .byte 102,69,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm8 @@ -54605,7 +55148,7 @@ _sk_load_4444_sse2_lowp: .byte 102,15,113,209,12 // psrlw $0xc,%xmm1 .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 - .byte 102,15,111,5,145,55,0,0 // movdqa 0x3791(%rip),%xmm0 # 3a8d0 <_sk_srcover_bgra_8888_sse2_lowp+0x137c> + .byte 102,15,111,5,157,55,0,0 // movdqa 0x379d(%rip),%xmm0 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388> .byte 102,15,219,208 // pand %xmm0,%xmm2 .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3 .byte 102,15,113,211,4 // psrlw $0x4,%xmm3 @@ -54635,7 +55178,7 @@ _sk_load_4444_sse2_lowp: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 125,255 // jge 371a5 <_sk_load_4444_sse2_lowp+0x105> + .byte 125,255 // jge 37bb9 <_sk_load_4444_sse2_lowp+0x105> .byte 255 // (bad) .byte 255,112,255 // pushq -0x1(%rax) .byte 255 // (bad) @@ -54654,23 +55197,23 @@ _sk_load_4444_dst_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,36 // ja 371ea <_sk_load_4444_dst_sse2_lowp+0x3e> + .byte 119,36 // ja 37bfe <_sk_load_4444_dst_sse2_lowp+0x3e> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 3729c <_sk_load_4444_dst_sse2_lowp+0xf0> + .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 37cb0 <_sk_load_4444_dst_sse2_lowp+0xf0> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 - .byte 235,69 // jmp 3722f <_sk_load_4444_dst_sse2_lowp+0x83> + .byte 235,69 // jmp 37c43 <_sk_load_4444_dst_sse2_lowp+0x83> .byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8 - .byte 235,61 // jmp 3722f <_sk_load_4444_dst_sse2_lowp+0x83> + .byte 235,61 // jmp 37c43 <_sk_load_4444_dst_sse2_lowp+0x83> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 102,69,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm8 .byte 243,65,15,16,36,80 // movss (%r8,%rdx,2),%xmm4 .byte 243,68,15,16,196 // movss %xmm4,%xmm8 - .byte 235,35 // jmp 3722f <_sk_load_4444_dst_sse2_lowp+0x83> + .byte 235,35 // jmp 37c43 <_sk_load_4444_dst_sse2_lowp+0x83> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 102,69,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm8 .byte 102,69,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm8 @@ -54680,7 +55223,7 @@ _sk_load_4444_dst_sse2_lowp: .byte 102,15,113,213,12 // psrlw $0xc,%xmm5 .byte 102,65,15,111,240 // movdqa %xmm8,%xmm6 .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 - .byte 102,15,111,37,133,54,0,0 // movdqa 0x3685(%rip),%xmm4 # 3a8d0 <_sk_srcover_bgra_8888_sse2_lowp+0x137c> + .byte 102,15,111,37,145,54,0,0 // movdqa 0x3691(%rip),%xmm4 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388> .byte 102,15,219,244 // pand %xmm4,%xmm6 .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7 .byte 102,15,113,215,4 // psrlw $0x4,%xmm7 @@ -54710,7 +55253,7 @@ _sk_load_4444_dst_sse2_lowp: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 125,255 // jge 372b1 <_sk_load_4444_dst_sse2_lowp+0x105> + .byte 125,255 // jge 37cc5 <_sk_load_4444_dst_sse2_lowp+0x105> .byte 255 // (bad) .byte 255,112,255 // pushq -0x1(%rax) .byte 255 // (bad) @@ -54727,12 +55270,12 @@ _sk_store_4444_sse2_lowp: .byte 76,3,0 // add (%rax),%r8 .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8 .byte 102,65,15,113,240,8 // psllw $0x8,%xmm8 - .byte 102,68,15,219,5,4,54,0,0 // pand 0x3604(%rip),%xmm8 # 3a8e0 <_sk_srcover_bgra_8888_sse2_lowp+0x138c> + .byte 102,68,15,219,5,16,54,0,0 // pand 0x3610(%rip),%xmm8 # 3b300 <_sk_srcover_bgra_8888_sse2_lowp+0x1398> .byte 102,68,15,111,201 // movdqa %xmm1,%xmm9 .byte 102,65,15,113,241,4 // psllw $0x4,%xmm9 - .byte 102,68,15,219,13,0,54,0,0 // pand 0x3600(%rip),%xmm9 # 3a8f0 <_sk_srcover_bgra_8888_sse2_lowp+0x139c> + .byte 102,68,15,219,13,12,54,0,0 // pand 0x360c(%rip),%xmm9 # 3b310 <_sk_srcover_bgra_8888_sse2_lowp+0x13a8> .byte 102,69,15,235,200 // por %xmm8,%xmm9 - .byte 102,68,15,111,21,2,54,0,0 // movdqa 0x3602(%rip),%xmm10 # 3a900 <_sk_srcover_bgra_8888_sse2_lowp+0x13ac> + .byte 102,68,15,111,21,14,54,0,0 // movdqa 0x360e(%rip),%xmm10 # 3b320 <_sk_srcover_bgra_8888_sse2_lowp+0x13b8> .byte 102,68,15,219,210 // pand %xmm2,%xmm10 .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8 .byte 102,65,15,113,208,4 // psrlw $0x4,%xmm8 @@ -54742,21 +55285,21 @@ _sk_store_4444_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,31 // ja 37341 <_sk_store_4444_sse2_lowp+0x89> + .byte 119,31 // ja 37d55 <_sk_store_4444_sse2_lowp+0x89> .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,96,0,0,0 // lea 0x60(%rip),%r9 # 3738c <_sk_store_4444_sse2_lowp+0xd4> + .byte 76,141,13,96,0,0,0 // lea 0x60(%rip),%r9 # 37da0 <_sk_store_4444_sse2_lowp+0xd4> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 102,68,15,126,192 // movd %xmm8,%eax .byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2) - .byte 235,70 // jmp 37387 <_sk_store_4444_sse2_lowp+0xcf> + .byte 235,70 // jmp 37d9b <_sk_store_4444_sse2_lowp+0xcf> .byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2) - .byte 235,62 // jmp 37387 <_sk_store_4444_sse2_lowp+0xcf> + .byte 235,62 // jmp 37d9b <_sk_store_4444_sse2_lowp+0xcf> .byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax .byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2) .byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2) - .byte 235,42 // jmp 37387 <_sk_store_4444_sse2_lowp+0xcf> + .byte 235,42 // jmp 37d9b <_sk_store_4444_sse2_lowp+0xcf> .byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax .byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2) .byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax @@ -54775,7 +55318,7 @@ _sk_store_4444_sse2_lowp: .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 233,255,255,255,221 // jmpq ffffffffde0373a0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddffde4c> + .byte 233,255,255,255,221 // jmpq ffffffffde037db4 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddffde4c> .byte 255 // (bad) .byte 255 // (bad) .byte 255,209 // callq *%rcx @@ -54872,7 +55415,7 @@ _sk_gather_4444_sse2_lowp: .byte 102,15,113,209,12 // psrlw $0xc,%xmm1 .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 - .byte 102,15,111,5,170,51,0,0 // movdqa 0x33aa(%rip),%xmm0 # 3a8d0 <_sk_srcover_bgra_8888_sse2_lowp+0x137c> + .byte 102,15,111,5,182,51,0,0 // movdqa 0x33b6(%rip),%xmm0 # 3b2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388> .byte 102,15,219,208 // pand %xmm0,%xmm2 .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3 .byte 102,15,113,211,4 // psrlw $0x4,%xmm3 @@ -54910,19 +55453,19 @@ _sk_load_a8_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,34 // ja 375b8 <_sk_load_a8_sse2_lowp+0x39> + .byte 119,34 // ja 37fcc <_sk_load_a8_sse2_lowp+0x39> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,140,0,0,0 // lea 0x8c(%rip),%r9 # 37630 <_sk_load_a8_sse2_lowp+0xb1> + .byte 76,141,13,140,0,0,0 // lea 0x8c(%rip),%r9 # 38044 <_sk_load_a8_sse2_lowp+0xb1> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax .byte 102,15,110,216 // movd %eax,%xmm3 - .byte 235,97 // jmp 37619 <_sk_load_a8_sse2_lowp+0x9a> + .byte 235,97 // jmp 3802d <_sk_load_a8_sse2_lowp+0x9a> .byte 243,65,15,126,28,16 // movq (%r8,%rdx,1),%xmm3 .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3 - .byte 235,85 // jmp 37619 <_sk_load_a8_sse2_lowp+0x9a> + .byte 235,85 // jmp 3802d <_sk_load_a8_sse2_lowp+0x9a> .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,196,216,2 // pinsrw $0x2,%eax,%xmm3 @@ -54930,7 +55473,7 @@ _sk_load_a8_sse2_lowp: .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 243,15,16,216 // movss %xmm0,%xmm3 - .byte 235,51 // jmp 37619 <_sk_load_a8_sse2_lowp+0x9a> + .byte 235,51 // jmp 3802d <_sk_load_a8_sse2_lowp+0x9a> .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,196,216,6 // pinsrw $0x6,%eax,%xmm3 @@ -54941,14 +55484,14 @@ _sk_load_a8_sse2_lowp: .byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 242,15,16,216 // movsd %xmm0,%xmm3 - .byte 102,15,219,29,175,42,0,0 // pand 0x2aaf(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,15,219,29,187,42,0,0 // pand 0x2abb(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 255,224 // jmpq *%rax .byte 102,144 // xchg %ax,%ax - .byte 125,255 // jge 37631 <_sk_load_a8_sse2_lowp+0xb2> + .byte 125,255 // jge 38045 <_sk_load_a8_sse2_lowp+0xb2> .byte 255 // (bad) .byte 255,163,255,255,255,148 // jmpq *-0x6b000001(%rbx) .byte 255 // (bad) @@ -54979,19 +55522,19 @@ _sk_load_a8_dst_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,34 // ja 37685 <_sk_load_a8_dst_sse2_lowp+0x39> + .byte 119,34 // ja 38099 <_sk_load_a8_dst_sse2_lowp+0x39> .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 376fc <_sk_load_a8_dst_sse2_lowp+0xb0> + .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 38110 <_sk_load_a8_dst_sse2_lowp+0xb0> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax .byte 102,15,110,248 // movd %eax,%xmm7 - .byte 235,97 // jmp 376e6 <_sk_load_a8_dst_sse2_lowp+0x9a> + .byte 235,97 // jmp 380fa <_sk_load_a8_dst_sse2_lowp+0x9a> .byte 243,65,15,126,60,16 // movq (%r8,%rdx,1),%xmm7 .byte 102,15,96,248 // punpcklbw %xmm0,%xmm7 - .byte 235,85 // jmp 376e6 <_sk_load_a8_dst_sse2_lowp+0x9a> + .byte 235,85 // jmp 380fa <_sk_load_a8_dst_sse2_lowp+0x9a> .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 102,15,196,248,2 // pinsrw $0x2,%eax,%xmm7 @@ -54999,7 +55542,7 @@ _sk_load_a8_dst_sse2_lowp: .byte 102,15,110,224 // movd %eax,%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 243,15,16,252 // movss %xmm4,%xmm7 - .byte 235,51 // jmp 376e6 <_sk_load_a8_dst_sse2_lowp+0x9a> + .byte 235,51 // jmp 380fa <_sk_load_a8_dst_sse2_lowp+0x9a> .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 102,15,196,248,6 // pinsrw $0x6,%eax,%xmm7 @@ -55010,14 +55553,14 @@ _sk_load_a8_dst_sse2_lowp: .byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 242,15,16,252 // movsd %xmm4,%xmm7 - .byte 102,15,219,61,226,41,0,0 // pand 0x29e2(%rip),%xmm7 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,15,219,61,238,41,0,0 // pand 0x29ee(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,87,237 // xorps %xmm5,%xmm5 .byte 15,87,246 // xorps %xmm6,%xmm6 .byte 255,224 // jmpq *%rax .byte 144 // nop - .byte 126,255 // jle 376fd <_sk_load_a8_dst_sse2_lowp+0xb1> + .byte 126,255 // jle 38111 <_sk_load_a8_dst_sse2_lowp+0xb1> .byte 255 // (bad) .byte 255,164,255,255,255,149,255 // jmpq *-0x6a0001(%rdi,%rdi,8) .byte 255 // (bad) @@ -55047,42 +55590,42 @@ _sk_store_a8_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,29 // ja 3774c <_sk_store_a8_sse2_lowp+0x34> + .byte 119,29 // ja 38160 <_sk_store_a8_sse2_lowp+0x34> .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 377cc <_sk_store_a8_sse2_lowp+0xb4> + .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 381e0 <_sk_store_a8_sse2_lowp+0xb4> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 102,15,126,216 // movd %xmm3,%eax .byte 65,136,4,16 // mov %al,(%r8,%rdx,1) - .byte 235,123 // jmp 377c7 <_sk_store_a8_sse2_lowp+0xaf> - .byte 102,68,15,111,5,123,41,0,0 // movdqa 0x297b(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 235,123 // jmp 381db <_sk_store_a8_sse2_lowp+0xaf> + .byte 102,68,15,111,5,135,41,0,0 // movdqa 0x2987(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,68,15,219,195 // pand %xmm3,%xmm8 .byte 102,69,15,103,192 // packuswb %xmm8,%xmm8 .byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1) - .byte 235,96 // jmp 377c7 <_sk_store_a8_sse2_lowp+0xaf> + .byte 235,96 // jmp 381db <_sk_store_a8_sse2_lowp+0xaf> .byte 102,15,197,195,2 // pextrw $0x2,%xmm3,%eax .byte 65,136,68,16,2 // mov %al,0x2(%r8,%rdx,1) - .byte 102,68,15,111,5,86,41,0,0 // movdqa 0x2956(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,98,41,0,0 // movdqa 0x2962(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,68,15,219,195 // pand %xmm3,%xmm8 .byte 102,69,15,103,192 // packuswb %xmm8,%xmm8 .byte 102,68,15,126,192 // movd %xmm8,%eax .byte 102,65,137,4,16 // mov %ax,(%r8,%rdx,1) - .byte 235,55 // jmp 377c7 <_sk_store_a8_sse2_lowp+0xaf> + .byte 235,55 // jmp 381db <_sk_store_a8_sse2_lowp+0xaf> .byte 102,15,197,195,6 // pextrw $0x6,%xmm3,%eax .byte 65,136,68,16,6 // mov %al,0x6(%r8,%rdx,1) .byte 102,15,197,195,5 // pextrw $0x5,%xmm3,%eax .byte 65,136,68,16,5 // mov %al,0x5(%r8,%rdx,1) .byte 102,15,197,195,4 // pextrw $0x4,%xmm3,%eax .byte 65,136,68,16,4 // mov %al,0x4(%r8,%rdx,1) - .byte 102,68,15,111,5,25,41,0,0 // movdqa 0x2919(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,37,41,0,0 // movdqa 0x2925(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,68,15,219,195 // pand %xmm3,%xmm8 .byte 102,69,15,103,192 // packuswb %xmm8,%xmm8 .byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax .byte 144 // nop - .byte 118,255 // jbe 377cd <_sk_store_a8_sse2_lowp+0xb5> + .byte 118,255 // jbe 381e1 <_sk_store_a8_sse2_lowp+0xb5> .byte 255 // (bad) .byte 255,165,255,255,255,155 // jmpq *-0x64000001(%rbp) .byte 255 // (bad) @@ -55207,19 +55750,19 @@ _sk_load_g8_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,34 // ja 37989 <_sk_load_g8_sse2_lowp+0x39> + .byte 119,34 // ja 3839d <_sk_load_g8_sse2_lowp+0x39> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 37a08 <_sk_load_g8_sse2_lowp+0xb8> + .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 3841c <_sk_load_g8_sse2_lowp+0xb8> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 - .byte 235,97 // jmp 379ea <_sk_load_g8_sse2_lowp+0x9a> + .byte 235,97 // jmp 383fe <_sk_load_g8_sse2_lowp+0x9a> .byte 243,65,15,126,4,16 // movq (%r8,%rdx,1),%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 - .byte 235,85 // jmp 379ea <_sk_load_g8_sse2_lowp+0x9a> + .byte 235,85 // jmp 383fe <_sk_load_g8_sse2_lowp+0x9a> .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0 @@ -55227,7 +55770,7 @@ _sk_load_g8_sse2_lowp: .byte 102,15,110,200 // movd %eax,%xmm1 .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1 .byte 243,15,16,193 // movss %xmm1,%xmm0 - .byte 235,51 // jmp 379ea <_sk_load_g8_sse2_lowp+0x9a> + .byte 235,51 // jmp 383fe <_sk_load_g8_sse2_lowp+0x9a> .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0 @@ -55238,14 +55781,14 @@ _sk_load_g8_sse2_lowp: .byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1 .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1 .byte 242,15,16,193 // movsd %xmm1,%xmm0 - .byte 102,15,219,5,222,38,0,0 // pand 0x26de(%rip),%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,15,219,5,234,38,0,0 // pand 0x26ea(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,213,38,0,0 // movaps 0x26d5(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 15,40,29,225,38,0,0 // movaps 0x26e1(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 255,224 // jmpq *%rax .byte 15,31,0 // nopl (%rax) - .byte 118,255 // jbe 37a09 <_sk_load_g8_sse2_lowp+0xb9> + .byte 118,255 // jbe 3841d <_sk_load_g8_sse2_lowp+0xb9> .byte 255 // (bad) .byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8) .byte 255 // (bad) @@ -55273,19 +55816,19 @@ _sk_load_g8_dst_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,34 // ja 37a5d <_sk_load_g8_dst_sse2_lowp+0x39> + .byte 119,34 // ja 38471 <_sk_load_g8_dst_sse2_lowp+0x39> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 37adc <_sk_load_g8_dst_sse2_lowp+0xb8> + .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 384f0 <_sk_load_g8_dst_sse2_lowp+0xb8> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax .byte 102,15,110,224 // movd %eax,%xmm4 - .byte 235,97 // jmp 37abe <_sk_load_g8_dst_sse2_lowp+0x9a> + .byte 235,97 // jmp 384d2 <_sk_load_g8_dst_sse2_lowp+0x9a> .byte 243,65,15,126,36,16 // movq (%r8,%rdx,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 - .byte 235,85 // jmp 37abe <_sk_load_g8_dst_sse2_lowp+0x9a> + .byte 235,85 // jmp 384d2 <_sk_load_g8_dst_sse2_lowp+0x9a> .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4 @@ -55293,7 +55836,7 @@ _sk_load_g8_dst_sse2_lowp: .byte 102,15,110,232 // movd %eax,%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 243,15,16,229 // movss %xmm5,%xmm4 - .byte 235,51 // jmp 37abe <_sk_load_g8_dst_sse2_lowp+0x9a> + .byte 235,51 // jmp 384d2 <_sk_load_g8_dst_sse2_lowp+0x9a> .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4 @@ -55304,14 +55847,14 @@ _sk_load_g8_dst_sse2_lowp: .byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 - .byte 102,15,219,37,10,38,0,0 // pand 0x260a(%rip),%xmm4 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,15,219,37,22,38,0,0 // pand 0x2616(%rip),%xmm4 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,61,1,38,0,0 // movaps 0x2601(%rip),%xmm7 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 15,40,61,13,38,0,0 // movaps 0x260d(%rip),%xmm7 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,236 // movdqa %xmm4,%xmm5 .byte 102,15,111,244 // movdqa %xmm4,%xmm6 .byte 255,224 // jmpq *%rax .byte 15,31,0 // nopl (%rax) - .byte 118,255 // jbe 37add <_sk_load_g8_dst_sse2_lowp+0xb9> + .byte 118,255 // jbe 384f1 <_sk_load_g8_dst_sse2_lowp+0xb9> .byte 255 // (bad) .byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8) .byte 255 // (bad) @@ -55332,10 +55875,10 @@ HIDDEN _sk_luminance_to_alpha_sse2_lowp FUNCTION(_sk_luminance_to_alpha_sse2_lowp) _sk_luminance_to_alpha_sse2_lowp: .byte 102,15,111,218 // movdqa %xmm2,%xmm3 - .byte 102,15,213,5,12,46,0,0 // pmullw 0x2e0c(%rip),%xmm0 # 3a910 <_sk_srcover_bgra_8888_sse2_lowp+0x13bc> - .byte 102,15,213,13,20,46,0,0 // pmullw 0x2e14(%rip),%xmm1 # 3a920 <_sk_srcover_bgra_8888_sse2_lowp+0x13cc> + .byte 102,15,213,5,24,46,0,0 // pmullw 0x2e18(%rip),%xmm0 # 3b330 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8> + .byte 102,15,213,13,32,46,0,0 // pmullw 0x2e20(%rip),%xmm1 # 3b340 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8> .byte 102,15,253,200 // paddw %xmm0,%xmm1 - .byte 102,15,213,29,24,46,0,0 // pmullw 0x2e18(%rip),%xmm3 # 3a930 <_sk_srcover_bgra_8888_sse2_lowp+0x13dc> + .byte 102,15,213,29,36,46,0,0 // pmullw 0x2e24(%rip),%xmm3 # 3b350 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8> .byte 102,15,253,217 // paddw %xmm1,%xmm3 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 72,173 // lods %ds:(%rsi),%rax @@ -55428,7 +55971,7 @@ _sk_gather_g8_sse2_lowp: .byte 102,15,196,197,3 // pinsrw $0x3,%ebp,%xmm0 .byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0 .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,70,36,0,0 // movaps 0x2446(%rip),%xmm3 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 15,40,29,82,36,0,0 // movaps 0x2452(%rip),%xmm3 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 91 // pop %rbx @@ -55444,14 +55987,14 @@ FUNCTION(_sk_scale_1_float_sse2_lowp) _sk_scale_1_float_sse2_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,0 // movss (%rax),%xmm8 - .byte 243,68,15,89,5,132,27,0,0 // mulss 0x1b84(%rip),%xmm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 243,68,15,88,5,75,27,0,0 // addss 0x1b4b(%rip),%xmm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 243,68,15,89,5,132,27,0,0 // mulss 0x1b84(%rip),%xmm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 243,68,15,88,5,75,27,0,0 // addss 0x1b4b(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 243,65,15,44,192 // cvttss2si %xmm8,%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8 .byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8 .byte 102,65,15,213,192 // pmullw %xmm8,%xmm0 - .byte 102,68,15,111,13,247,35,0,0 // movdqa 0x23f7(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,3,36,0,0 // movdqa 0x2403(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,193 // paddw %xmm9,%xmm0 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,65,15,213,200 // pmullw %xmm8,%xmm1 @@ -55472,13 +56015,13 @@ FUNCTION(_sk_lerp_1_float_sse2_lowp) _sk_lerp_1_float_sse2_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,0 // movss (%rax),%xmm8 - .byte 243,68,15,89,5,12,27,0,0 // mulss 0x1b0c(%rip),%xmm8 # 39830 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> - .byte 243,68,15,88,5,211,26,0,0 // addss 0x1ad3(%rip),%xmm8 # 39800 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> + .byte 243,68,15,89,5,12,27,0,0 // mulss 0x1b0c(%rip),%xmm8 # 3a244 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc> + .byte 243,68,15,88,5,211,26,0,0 // addss 0x1ad3(%rip),%xmm8 # 3a214 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac> .byte 243,65,15,44,192 // cvttss2si %xmm8,%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8 .byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8 - .byte 102,68,15,111,13,132,35,0,0 // movdqa 0x2384(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,144,35,0,0 // movdqa 0x2390(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,213,192 // pmullw %xmm8,%xmm0 .byte 102,65,15,253,193 // paddw %xmm9,%xmm0 .byte 102,65,15,213,200 // pmullw %xmm8,%xmm1 @@ -55518,19 +56061,19 @@ _sk_scale_u8_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,36 // ja 37e03 <_sk_scale_u8_sse2_lowp+0x3b> + .byte 119,36 // ja 38817 <_sk_scale_u8_sse2_lowp+0x3b> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,218,0,0,0 // lea 0xda(%rip),%r9 # 37ec8 <_sk_scale_u8_sse2_lowp+0x100> + .byte 76,141,13,218,0,0,0 // lea 0xda(%rip),%r9 # 388dc <_sk_scale_u8_sse2_lowp+0x100> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 - .byte 235,109 // jmp 37e70 <_sk_scale_u8_sse2_lowp+0xa8> + .byte 235,109 // jmp 38884 <_sk_scale_u8_sse2_lowp+0xa8> .byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8 .byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8 - .byte 235,96 // jmp 37e70 <_sk_scale_u8_sse2_lowp+0xa8> + .byte 235,96 // jmp 38884 <_sk_scale_u8_sse2_lowp+0xa8> .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8 @@ -55538,7 +56081,7 @@ _sk_scale_u8_sse2_lowp: .byte 102,68,15,110,200 // movd %eax,%xmm9 .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9 .byte 243,69,15,16,193 // movss %xmm9,%xmm8 - .byte 235,57 // jmp 37e70 <_sk_scale_u8_sse2_lowp+0xa8> + .byte 235,57 // jmp 38884 <_sk_scale_u8_sse2_lowp+0xa8> .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8 @@ -55549,9 +56092,9 @@ _sk_scale_u8_sse2_lowp: .byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9 .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9 .byte 242,69,15,16,193 // movsd %xmm9,%xmm8 - .byte 102,68,15,219,5,87,34,0,0 // pand 0x2257(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,219,5,99,34,0,0 // pand 0x2263(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,213,192 // pmullw %xmm8,%xmm0 - .byte 102,68,15,111,13,73,34,0,0 // movdqa 0x2249(%rip),%xmm9 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,13,85,34,0,0 // movdqa 0x2255(%rip),%xmm9 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,253,193 // paddw %xmm9,%xmm0 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,65,15,213,200 // pmullw %xmm8,%xmm1 @@ -55593,19 +56136,19 @@ _sk_lerp_u8_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,36 // ja 37f1f <_sk_lerp_u8_sse2_lowp+0x3b> + .byte 119,36 // ja 38933 <_sk_lerp_u8_sse2_lowp+0x3b> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 38028 <_sk_lerp_u8_sse2_lowp+0x144> + .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 38a3c <_sk_lerp_u8_sse2_lowp+0x144> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 - .byte 235,109 // jmp 37f8c <_sk_lerp_u8_sse2_lowp+0xa8> + .byte 235,109 // jmp 389a0 <_sk_lerp_u8_sse2_lowp+0xa8> .byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8 .byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8 - .byte 235,96 // jmp 37f8c <_sk_lerp_u8_sse2_lowp+0xa8> + .byte 235,96 // jmp 389a0 <_sk_lerp_u8_sse2_lowp+0xa8> .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8 @@ -55613,7 +56156,7 @@ _sk_lerp_u8_sse2_lowp: .byte 102,68,15,110,200 // movd %eax,%xmm9 .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9 .byte 243,69,15,16,193 // movss %xmm9,%xmm8 - .byte 235,57 // jmp 37f8c <_sk_lerp_u8_sse2_lowp+0xa8> + .byte 235,57 // jmp 389a0 <_sk_lerp_u8_sse2_lowp+0xa8> .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8 @@ -55624,8 +56167,8 @@ _sk_lerp_u8_sse2_lowp: .byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9 .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9 .byte 242,69,15,16,193 // movsd %xmm9,%xmm8 - .byte 102,68,15,219,5,59,33,0,0 // pand 0x213b(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> - .byte 102,68,15,111,21,50,33,0,0 // movdqa 0x2132(%rip),%xmm10 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,219,5,71,33,0,0 // pand 0x2147(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> + .byte 102,68,15,111,21,62,33,0,0 // movdqa 0x213e(%rip),%xmm10 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 .byte 102,69,15,239,202 // pxor %xmm10,%xmm9 .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11 @@ -55655,9 +56198,9 @@ _sk_lerp_u8_sse2_lowp: .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3 .byte 255,224 // jmpq *%rax .byte 15,31,0 // nopl (%rax) - .byte 235,254 // jmp 38028 <_sk_lerp_u8_sse2_lowp+0x144> + .byte 235,254 // jmp 38a3c <_sk_lerp_u8_sse2_lowp+0x144> .byte 255 // (bad) - .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 5038030 <_sk_srcover_bgra_8888_sse2_lowp+0x4ffeadc> + .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 5038a44 <_sk_srcover_bgra_8888_sse2_lowp+0x4ffeadc> .byte 255 // (bad) .byte 255 // (bad) .byte 255,84,255,255 // callq *-0x1(%rdi,%rdi,8) @@ -55687,23 +56230,23 @@ _sk_scale_565_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,34 // ja 3808f <_sk_scale_565_sse2_lowp+0x4b> + .byte 119,34 // ja 38aa3 <_sk_scale_565_sse2_lowp+0x4b> .byte 102,15,239,246 // pxor %xmm6,%xmm6 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 38260 <_sk_scale_565_sse2_lowp+0x21c> + .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 38c74 <_sk_scale_565_sse2_lowp+0x21c> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax .byte 102,15,110,240 // movd %eax,%xmm6 - .byte 235,67 // jmp 380d2 <_sk_scale_565_sse2_lowp+0x8e> + .byte 235,67 // jmp 38ae6 <_sk_scale_565_sse2_lowp+0x8e> .byte 243,65,15,111,52,80 // movdqu (%r8,%rdx,2),%xmm6 - .byte 235,59 // jmp 380d2 <_sk_scale_565_sse2_lowp+0x8e> + .byte 235,59 // jmp 38ae6 <_sk_scale_565_sse2_lowp+0x8e> .byte 102,15,239,246 // pxor %xmm6,%xmm6 .byte 102,65,15,196,116,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm6 .byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9 .byte 243,65,15,16,241 // movss %xmm9,%xmm6 - .byte 235,34 // jmp 380d2 <_sk_scale_565_sse2_lowp+0x8e> + .byte 235,34 // jmp 38ae6 <_sk_scale_565_sse2_lowp+0x8e> .byte 102,15,239,246 // pxor %xmm6,%xmm6 .byte 102,65,15,196,116,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm6 .byte 102,65,15,196,116,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm6 @@ -55711,11 +56254,11 @@ _sk_scale_565_sse2_lowp: .byte 102,65,15,18,52,80 // movlpd (%r8,%rdx,2),%xmm6 .byte 102,68,15,111,222 // movdqa %xmm6,%xmm11 .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11 - .byte 102,68,15,219,29,154,39,0,0 // pand 0x279a(%rip),%xmm11 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c> + .byte 102,68,15,219,29,166,39,0,0 // pand 0x27a6(%rip),%xmm11 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338> .byte 102,68,15,111,206 // movdqa %xmm6,%xmm9 .byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9 - .byte 102,68,15,219,13,150,39,0,0 // pand 0x2796(%rip),%xmm9 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c> - .byte 102,68,15,111,21,157,39,0,0 // movdqa 0x279d(%rip),%xmm10 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c> + .byte 102,68,15,219,13,162,39,0,0 // pand 0x27a2(%rip),%xmm9 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348> + .byte 102,68,15,111,21,169,39,0,0 // movdqa 0x27a9(%rip),%xmm10 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358> .byte 102,68,15,219,214 // pand %xmm6,%xmm10 .byte 102,15,113,214,13 // psrlw $0xd,%xmm6 .byte 102,65,15,235,243 // por %xmm11,%xmm6 @@ -55727,7 +56270,7 @@ _sk_scale_565_sse2_lowp: .byte 102,65,15,113,243,3 // psllw $0x3,%xmm11 .byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10 .byte 102,69,15,235,211 // por %xmm11,%xmm10 - .byte 102,68,15,111,37,249,38,0,0 // movdqa 0x26f9(%rip),%xmm12 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec> + .byte 102,68,15,111,37,5,39,0,0 // movdqa 0x2705(%rip),%xmm12 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8> .byte 102,68,15,111,235 // movdqa %xmm3,%xmm13 .byte 102,69,15,239,236 // pxor %xmm12,%xmm13 .byte 102,68,15,111,223 // movdqa %xmm7,%xmm11 @@ -55768,7 +56311,7 @@ _sk_scale_565_sse2_lowp: .byte 102,68,15,213,201 // pmullw %xmm1,%xmm9 .byte 102,68,15,213,210 // pmullw %xmm2,%xmm10 .byte 102,68,15,213,219 // pmullw %xmm3,%xmm11 - .byte 102,15,111,5,187,30,0,0 // movdqa 0x1ebb(%rip),%xmm0 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,15,111,5,199,30,0,0 // movdqa 0x1ec7(%rip),%xmm0 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,253,240 // paddw %xmm0,%xmm6 .byte 102,68,15,253,200 // paddw %xmm0,%xmm9 .byte 102,68,15,253,208 // paddw %xmm0,%xmm10 @@ -55815,23 +56358,23 @@ _sk_lerp_565_sse2_lowp: .byte 36,7 // and $0x7,%al .byte 254,200 // dec %al .byte 60,6 // cmp $0x6,%al - .byte 119,34 // ja 382c7 <_sk_lerp_565_sse2_lowp+0x4b> + .byte 119,34 // ja 38cdb <_sk_lerp_565_sse2_lowp+0x4b> .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 15,182,192 // movzbl %al,%eax - .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 384e0 <_sk_lerp_565_sse2_lowp+0x264> + .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 38ef4 <_sk_lerp_565_sse2_lowp+0x264> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax .byte 102,15,110,208 // movd %eax,%xmm2 - .byte 235,67 // jmp 3830a <_sk_lerp_565_sse2_lowp+0x8e> + .byte 235,67 // jmp 38d1e <_sk_lerp_565_sse2_lowp+0x8e> .byte 243,65,15,111,20,80 // movdqu (%r8,%rdx,2),%xmm2 - .byte 235,59 // jmp 3830a <_sk_lerp_565_sse2_lowp+0x8e> + .byte 235,59 // jmp 38d1e <_sk_lerp_565_sse2_lowp+0x8e> .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 102,65,15,196,84,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm2 .byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9 .byte 243,65,15,16,209 // movss %xmm9,%xmm2 - .byte 235,34 // jmp 3830a <_sk_lerp_565_sse2_lowp+0x8e> + .byte 235,34 // jmp 38d1e <_sk_lerp_565_sse2_lowp+0x8e> .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 102,65,15,196,84,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm2 .byte 102,65,15,196,84,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm2 @@ -55839,11 +56382,11 @@ _sk_lerp_565_sse2_lowp: .byte 102,65,15,18,20,80 // movlpd (%r8,%rdx,2),%xmm2 .byte 102,68,15,111,218 // movdqa %xmm2,%xmm11 .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11 - .byte 102,68,15,219,29,98,37,0,0 // pand 0x2562(%rip),%xmm11 # 3a880 <_sk_srcover_bgra_8888_sse2_lowp+0x132c> + .byte 102,68,15,219,29,110,37,0,0 // pand 0x256e(%rip),%xmm11 # 3b2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1338> .byte 102,68,15,111,202 // movdqa %xmm2,%xmm9 .byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9 - .byte 102,68,15,219,13,94,37,0,0 // pand 0x255e(%rip),%xmm9 # 3a890 <_sk_srcover_bgra_8888_sse2_lowp+0x133c> - .byte 102,68,15,111,21,101,37,0,0 // movdqa 0x2565(%rip),%xmm10 # 3a8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x134c> + .byte 102,68,15,219,13,106,37,0,0 // pand 0x256a(%rip),%xmm9 # 3b2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1348> + .byte 102,68,15,111,21,113,37,0,0 // movdqa 0x2571(%rip),%xmm10 # 3b2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1358> .byte 102,68,15,219,210 // pand %xmm2,%xmm10 .byte 102,15,113,210,13 // psrlw $0xd,%xmm2 .byte 102,65,15,235,211 // por %xmm11,%xmm2 @@ -55855,7 +56398,7 @@ _sk_lerp_565_sse2_lowp: .byte 102,65,15,113,243,3 // psllw $0x3,%xmm11 .byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10 .byte 102,69,15,235,211 // por %xmm11,%xmm10 - .byte 102,68,15,111,37,193,36,0,0 // movdqa 0x24c1(%rip),%xmm12 # 3a840 <_sk_srcover_bgra_8888_sse2_lowp+0x12ec> + .byte 102,68,15,111,37,205,36,0,0 // movdqa 0x24cd(%rip),%xmm12 # 3b260 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8> .byte 102,68,15,111,235 // movdqa %xmm3,%xmm13 .byte 102,69,15,239,236 // pxor %xmm12,%xmm13 .byte 102,68,15,111,223 // movdqa %xmm7,%xmm11 @@ -55894,7 +56437,7 @@ _sk_lerp_565_sse2_lowp: .byte 102,69,15,235,222 // por %xmm14,%xmm11 .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 102,15,213,209 // pmullw %xmm1,%xmm2 - .byte 102,68,15,111,5,141,28,0,0 // movdqa 0x1c8d(%rip),%xmm8 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,5,153,28,0,0 // movdqa 0x1c99(%rip),%xmm8 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,65,15,239,192 // pxor %xmm8,%xmm0 .byte 102,15,213,196 // pmullw %xmm4,%xmm0 .byte 102,65,15,253,208 // paddw %xmm8,%xmm2 @@ -55956,7 +56499,7 @@ _sk_clamp_x_1_sse2_lowp: .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 65,15,95,200 // maxps %xmm8,%xmm1 .byte 65,15,95,192 // maxps %xmm8,%xmm0 - .byte 68,15,40,5,32,28,0,0 // movaps 0x1c20(%rip),%xmm8 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,5,44,28,0,0 // movaps 0x1c2c(%rip),%xmm8 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 65,15,93,192 // minps %xmm8,%xmm0 .byte 65,15,93,200 // minps %xmm8,%xmm1 .byte 72,173 // lods %ds:(%rsi),%rax @@ -55974,7 +56517,7 @@ _sk_repeat_x_1_sse2_lowp: .byte 69,15,194,208,1 // cmpltps %xmm8,%xmm10 .byte 68,15,40,216 // movaps %xmm0,%xmm11 .byte 69,15,194,217,1 // cmpltps %xmm9,%xmm11 - .byte 68,15,40,37,232,27,0,0 // movaps 0x1be8(%rip),%xmm12 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,37,244,27,0,0 // movaps 0x1bf4(%rip),%xmm12 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,84,220 // andps %xmm12,%xmm11 .byte 69,15,84,212 // andps %xmm12,%xmm10 .byte 69,15,87,237 // xorps %xmm13,%xmm13 @@ -55993,10 +56536,10 @@ HIDDEN _sk_mirror_x_1_sse2_lowp .globl _sk_mirror_x_1_sse2_lowp FUNCTION(_sk_mirror_x_1_sse2_lowp) _sk_mirror_x_1_sse2_lowp: - .byte 68,15,40,5,16,28,0,0 // movaps 0x1c10(%rip),%xmm8 # 3a190 <_sk_srcover_bgra_8888_sse2_lowp+0xc3c> + .byte 68,15,40,5,28,28,0,0 // movaps 0x1c1c(%rip),%xmm8 # 3abb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc48> .byte 65,15,88,192 // addps %xmm8,%xmm0 .byte 65,15,88,200 // addps %xmm8,%xmm1 - .byte 68,15,40,21,144,27,0,0 // movaps 0x1b90(%rip),%xmm10 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,40,21,156,27,0,0 // movaps 0x1b9c(%rip),%xmm10 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 68,15,40,217 // movaps %xmm1,%xmm11 .byte 69,15,89,218 // mulps %xmm10,%xmm11 .byte 68,15,89,208 // mulps %xmm0,%xmm10 @@ -56006,7 +56549,7 @@ _sk_mirror_x_1_sse2_lowp: .byte 69,15,91,233 // cvtdq2ps %xmm9,%xmm13 .byte 69,15,194,213,1 // cmpltps %xmm13,%xmm10 .byte 69,15,194,220,1 // cmpltps %xmm12,%xmm11 - .byte 68,15,40,13,112,27,0,0 // movaps 0x1b70(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,13,124,27,0,0 // movaps 0x1b7c(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,84,217 // andps %xmm9,%xmm11 .byte 69,15,84,209 // andps %xmm9,%xmm10 .byte 69,15,87,246 // xorps %xmm14,%xmm14 @@ -56018,7 +56561,7 @@ _sk_mirror_x_1_sse2_lowp: .byte 65,15,92,204 // subps %xmm12,%xmm1 .byte 65,15,88,200 // addps %xmm8,%xmm1 .byte 65,15,88,192 // addps %xmm8,%xmm0 - .byte 68,15,40,5,92,32,0,0 // movaps 0x205c(%rip),%xmm8 # 3a650 <_sk_srcover_bgra_8888_sse2_lowp+0x10fc> + .byte 68,15,40,5,104,32,0,0 // movaps 0x2068(%rip),%xmm8 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108> .byte 65,15,84,192 // andps %xmm8,%xmm0 .byte 65,15,84,200 // andps %xmm8,%xmm1 .byte 65,15,95,206 // maxps %xmm14,%xmm1 @@ -56047,7 +56590,7 @@ _sk_gradient_sse2_lowp: .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 73,131,248,2 // cmp $0x2,%r8 .byte 102,15,239,219 // pxor %xmm3,%xmm3 - .byte 114,56 // jb 3867c <_sk_gradient_sse2_lowp+0x6c> + .byte 114,56 // jb 39090 <_sk_gradient_sse2_lowp+0x6c> .byte 72,139,88,72 // mov 0x48(%rax),%rbx .byte 73,255,200 // dec %r8 .byte 72,131,195,4 // add $0x4,%rbx @@ -56062,7 +56605,7 @@ _sk_gradient_sse2_lowp: .byte 102,15,250,220 // psubd %xmm4,%xmm3 .byte 72,131,195,4 // add $0x4,%rbx .byte 73,255,200 // dec %r8 - .byte 117,219 // jne 38657 <_sk_gradient_sse2_lowp+0x47> + .byte 117,219 // jne 3906b <_sk_gradient_sse2_lowp+0x47> .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4 .byte 102,73,15,126,225 // movq %xmm4,%r9 .byte 69,137,200 // mov %r9d,%r8d @@ -56205,10 +56748,10 @@ _sk_gradient_sse2_lowp: .byte 15,88,221 // addps %xmm5,%xmm3 .byte 69,15,89,207 // mulps %xmm15,%xmm9 .byte 68,15,88,204 // addps %xmm4,%xmm9 - .byte 15,40,53,215,24,0,0 // movaps 0x18d7(%rip),%xmm6 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> + .byte 15,40,53,227,24,0,0 // movaps 0x18e3(%rip),%xmm6 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> .byte 15,89,222 // mulps %xmm6,%xmm3 .byte 68,15,89,206 // mulps %xmm6,%xmm9 - .byte 15,40,37,217,23,0,0 // movaps 0x17d9(%rip),%xmm4 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,40,37,229,23,0,0 // movaps 0x17e5(%rip),%xmm4 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 68,15,88,204 // addps %xmm4,%xmm9 .byte 15,88,220 // addps %xmm4,%xmm3 .byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3 @@ -56304,9 +56847,9 @@ _sk_evenly_spaced_gradient_sse2_lowp: .byte 72,139,24 // mov (%rax),%rbx .byte 72,139,104,8 // mov 0x8(%rax),%rbp .byte 72,255,203 // dec %rbx - .byte 120,7 // js 38ac0 <_sk_evenly_spaced_gradient_sse2_lowp+0x34> + .byte 120,7 // js 394d4 <_sk_evenly_spaced_gradient_sse2_lowp+0x34> .byte 243,72,15,42,211 // cvtsi2ss %rbx,%xmm2 - .byte 235,21 // jmp 38ad5 <_sk_evenly_spaced_gradient_sse2_lowp+0x49> + .byte 235,21 // jmp 394e9 <_sk_evenly_spaced_gradient_sse2_lowp+0x49> .byte 73,137,216 // mov %rbx,%r8 .byte 73,209,232 // shr %r8 .byte 131,227,1 // and $0x1,%ebx @@ -56461,10 +57004,10 @@ _sk_evenly_spaced_gradient_sse2_lowp: .byte 15,40,68,36,176 // movaps -0x50(%rsp),%xmm0 .byte 68,15,89,192 // mulps %xmm0,%xmm8 .byte 68,15,88,193 // addps %xmm1,%xmm8 - .byte 15,40,13,99,20,0,0 // movaps 0x1463(%rip),%xmm1 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> + .byte 15,40,13,111,20,0,0 // movaps 0x146f(%rip),%xmm1 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> .byte 15,89,217 // mulps %xmm1,%xmm3 .byte 68,15,89,193 // mulps %xmm1,%xmm8 - .byte 15,40,13,101,19,0,0 // movaps 0x1365(%rip),%xmm1 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,40,13,113,19,0,0 // movaps 0x1371(%rip),%xmm1 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 68,15,88,193 // addps %xmm1,%xmm8 .byte 15,88,217 // addps %xmm1,%xmm3 .byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3 @@ -56481,7 +57024,7 @@ _sk_evenly_spaced_gradient_sse2_lowp: .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 68,15,89,206 // mulps %xmm6,%xmm9 .byte 68,15,88,204 // addps %xmm4,%xmm9 - .byte 15,40,5,7,20,0,0 // movaps 0x1407(%rip),%xmm0 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> + .byte 15,40,5,19,20,0,0 // movaps 0x1413(%rip),%xmm0 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> .byte 15,89,208 // mulps %xmm0,%xmm2 .byte 68,15,89,200 // mulps %xmm0,%xmm9 .byte 68,15,88,201 // addps %xmm1,%xmm9 @@ -56560,10 +57103,10 @@ _sk_evenly_spaced_2_stop_gradient_sse2_lowp: .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 65,15,88,216 // addps %xmm8,%xmm3 .byte 65,15,88,208 // addps %xmm8,%xmm2 - .byte 68,15,40,21,204,18,0,0 // movaps 0x12cc(%rip),%xmm10 # 3a210 <_sk_srcover_bgra_8888_sse2_lowp+0xcbc> + .byte 68,15,40,21,216,18,0,0 // movaps 0x12d8(%rip),%xmm10 # 3ac30 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8> .byte 65,15,89,210 // mulps %xmm10,%xmm2 .byte 65,15,89,218 // mulps %xmm10,%xmm3 - .byte 68,15,40,29,204,17,0,0 // movaps 0x11cc(%rip),%xmm11 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 68,15,40,29,216,17,0,0 // movaps 0x11d8(%rip),%xmm11 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 65,15,88,219 // addps %xmm11,%xmm3 .byte 65,15,88,211 // addps %xmm11,%xmm2 .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2 @@ -56656,7 +57199,7 @@ _sk_xy_to_unit_angle_sse2_lowp: .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,40,209 // movaps %xmm1,%xmm2 .byte 15,40,200 // movaps %xmm0,%xmm1 - .byte 68,15,40,37,128,21,0,0 // movaps 0x1580(%rip),%xmm12 # 3a650 <_sk_srcover_bgra_8888_sse2_lowp+0x10fc> + .byte 68,15,40,37,140,21,0,0 // movaps 0x158c(%rip),%xmm12 # 3b070 <_sk_srcover_bgra_8888_sse2_lowp+0x1108> .byte 68,15,40,194 // movaps %xmm2,%xmm8 .byte 69,15,84,196 // andps %xmm12,%xmm8 .byte 68,15,40,217 // movaps %xmm1,%xmm11 @@ -56690,26 +57233,26 @@ _sk_xy_to_unit_angle_sse2_lowp: .byte 69,15,89,246 // mulps %xmm14,%xmm14 .byte 65,15,40,195 // movaps %xmm11,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 - .byte 68,15,40,37,99,21,0,0 // movaps 0x1563(%rip),%xmm12 # 3a6c0 <_sk_srcover_bgra_8888_sse2_lowp+0x116c> + .byte 68,15,40,37,111,21,0,0 // movaps 0x156f(%rip),%xmm12 # 3b0e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1178> .byte 68,15,40,232 // movaps %xmm0,%xmm13 .byte 69,15,89,236 // mulps %xmm12,%xmm13 .byte 69,15,89,230 // mulps %xmm14,%xmm12 - .byte 68,15,40,61,95,21,0,0 // movaps 0x155f(%rip),%xmm15 # 3a6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x117c> + .byte 68,15,40,61,107,21,0,0 // movaps 0x156b(%rip),%xmm15 # 3b0f0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188> .byte 69,15,88,231 // addps %xmm15,%xmm12 .byte 69,15,88,239 // addps %xmm15,%xmm13 .byte 68,15,89,232 // mulps %xmm0,%xmm13 .byte 69,15,89,230 // mulps %xmm14,%xmm12 - .byte 68,15,40,61,87,21,0,0 // movaps 0x1557(%rip),%xmm15 # 3a6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x118c> + .byte 68,15,40,61,99,21,0,0 // movaps 0x1563(%rip),%xmm15 # 3b100 <_sk_srcover_bgra_8888_sse2_lowp+0x1198> .byte 69,15,88,231 // addps %xmm15,%xmm12 .byte 69,15,88,239 // addps %xmm15,%xmm13 .byte 68,15,89,232 // mulps %xmm0,%xmm13 .byte 69,15,89,230 // mulps %xmm14,%xmm12 - .byte 15,40,5,80,21,0,0 // movaps 0x1550(%rip),%xmm0 # 3a6f0 <_sk_srcover_bgra_8888_sse2_lowp+0x119c> + .byte 15,40,5,92,21,0,0 // movaps 0x155c(%rip),%xmm0 # 3b110 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8> .byte 68,15,88,224 // addps %xmm0,%xmm12 .byte 68,15,88,232 // addps %xmm0,%xmm13 .byte 69,15,89,235 // mulps %xmm11,%xmm13 .byte 69,15,89,224 // mulps %xmm8,%xmm12 - .byte 15,40,5,73,21,0,0 // movaps 0x1549(%rip),%xmm0 # 3a700 <_sk_srcover_bgra_8888_sse2_lowp+0x11ac> + .byte 15,40,5,85,21,0,0 // movaps 0x1555(%rip),%xmm0 # 3b120 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8> .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 65,15,92,197 // subps %xmm13,%xmm0 .byte 65,15,84,194 // andps %xmm10,%xmm0 @@ -56721,7 +57264,7 @@ _sk_xy_to_unit_angle_sse2_lowp: .byte 69,15,86,200 // orps %xmm8,%xmm9 .byte 69,15,87,192 // xorps %xmm8,%xmm8 .byte 65,15,194,200,1 // cmpltps %xmm8,%xmm1 - .byte 15,40,5,53,15,0,0 // movaps 0xf35(%rip),%xmm0 # 3a120 <_sk_srcover_bgra_8888_sse2_lowp+0xbcc> + .byte 15,40,5,65,15,0,0 // movaps 0xf41(%rip),%xmm0 # 3ab40 <_sk_srcover_bgra_8888_sse2_lowp+0xbd8> .byte 68,15,40,216 // movaps %xmm0,%xmm11 .byte 65,15,92,194 // subps %xmm10,%xmm0 .byte 15,84,193 // andps %xmm1,%xmm0 @@ -56734,7 +57277,7 @@ _sk_xy_to_unit_angle_sse2_lowp: .byte 65,15,86,211 // orps %xmm11,%xmm2 .byte 68,15,40,219 // movaps %xmm3,%xmm11 .byte 69,15,194,216,1 // cmpltps %xmm8,%xmm11 - .byte 68,15,40,13,13,15,0,0 // movaps 0xf0d(%rip),%xmm9 # 3a130 <_sk_srcover_bgra_8888_sse2_lowp+0xbdc> + .byte 68,15,40,13,25,15,0,0 // movaps 0xf19(%rip),%xmm9 # 3ab50 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8> .byte 69,15,40,209 // movaps %xmm9,%xmm10 .byte 68,15,92,201 // subps %xmm1,%xmm9 .byte 69,15,84,203 // andps %xmm11,%xmm9 @@ -56792,26 +57335,26 @@ _sk_srcover_rgba_8888_sse2_lowp: .byte 65,254,202 // dec %r10b .byte 69,15,182,202 // movzbl %r10b,%r9d .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,38 // ja 392f3 <_sk_srcover_rgba_8888_sse2_lowp+0x4b> + .byte 119,38 // ja 39d07 <_sk_srcover_rgba_8888_sse2_lowp+0x4b> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 - .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 3951c <_sk_srcover_rgba_8888_sse2_lowp+0x274> + .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 39f30 <_sk_srcover_rgba_8888_sse2_lowp+0x274> .byte 75,99,4,139 // movslq (%r11,%r9,4),%rax .byte 76,1,216 // add %r11,%rax .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 255,224 // jmpq *%rax .byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7 .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 - .byte 235,102 // jmp 39359 <_sk_srcover_rgba_8888_sse2_lowp+0xb1> + .byte 235,102 // jmp 39d6d <_sk_srcover_rgba_8888_sse2_lowp+0xb1> .byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7 .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8 - .byte 235,87 // jmp 39359 <_sk_srcover_rgba_8888_sse2_lowp+0xb1> + .byte 235,87 // jmp 39d6d <_sk_srcover_rgba_8888_sse2_lowp+0xb1> .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8 .byte 102,65,15,40,248 // movapd %xmm8,%xmm7 .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8 - .byte 235,52 // jmp 39359 <_sk_srcover_rgba_8888_sse2_lowp+0xb1> + .byte 235,52 // jmp 39d6d <_sk_srcover_rgba_8888_sse2_lowp+0xb1> .byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4 @@ -56828,7 +57371,7 @@ _sk_srcover_rgba_8888_sse2_lowp: .byte 102,15,114,244,16 // pslld $0x10,%xmm4 .byte 102,15,114,228,16 // psrad $0x10,%xmm4 .byte 102,15,107,236 // packssdw %xmm4,%xmm5 - .byte 102,68,15,111,37,77,13,0,0 // movdqa 0xd4d(%rip),%xmm12 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,37,89,13,0,0 // movdqa 0xd59(%rip),%xmm12 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,229 // movdqa %xmm5,%xmm4 .byte 102,65,15,219,228 // pand %xmm12,%xmm4 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 @@ -56886,20 +57429,20 @@ _sk_srcover_rgba_8888_sse2_lowp: .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0 .byte 102,15,235,194 // por %xmm2,%xmm0 .byte 65,128,250,6 // cmp $0x6,%r10b - .byte 119,24 // ja 394bb <_sk_srcover_rgba_8888_sse2_lowp+0x213> - .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 39538 <_sk_srcover_rgba_8888_sse2_lowp+0x290> + .byte 119,24 // ja 39ecf <_sk_srcover_rgba_8888_sse2_lowp+0x213> + .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 39f4c <_sk_srcover_rgba_8888_sse2_lowp+0x290> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4) - .byte 235,73 // jmp 39504 <_sk_srcover_rgba_8888_sse2_lowp+0x25c> + .byte 235,73 // jmp 39f18 <_sk_srcover_rgba_8888_sse2_lowp+0x25c> .byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4) .byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4) - .byte 235,58 // jmp 39504 <_sk_srcover_rgba_8888_sse2_lowp+0x25c> + .byte 235,58 // jmp 39f18 <_sk_srcover_rgba_8888_sse2_lowp+0x25c> .byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0 .byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4) .byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4) - .byte 235,37 // jmp 39504 <_sk_srcover_rgba_8888_sse2_lowp+0x25c> + .byte 235,37 // jmp 39f18 <_sk_srcover_rgba_8888_sse2_lowp+0x25c> .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4) .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 @@ -56932,7 +57475,7 @@ _sk_srcover_rgba_8888_sse2_lowp: .byte 254 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 123,255 // jnp 39539 <_sk_srcover_rgba_8888_sse2_lowp+0x291> + .byte 123,255 // jnp 39f4d <_sk_srcover_rgba_8888_sse2_lowp+0x291> .byte 255 // (bad) .byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi) .byte 255 // (bad) @@ -56964,26 +57507,26 @@ _sk_srcover_bgra_8888_sse2_lowp: .byte 65,254,202 // dec %r10b .byte 69,15,182,202 // movzbl %r10b,%r9d .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,38 // ja 3959f <_sk_srcover_bgra_8888_sse2_lowp+0x4b> + .byte 119,38 // ja 39fb3 <_sk_srcover_bgra_8888_sse2_lowp+0x4b> .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 - .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 397c8 <_sk_srcover_bgra_8888_sse2_lowp+0x274> + .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 3a1dc <_sk_srcover_bgra_8888_sse2_lowp+0x274> .byte 75,99,4,139 // movslq (%r11,%r9,4),%rax .byte 76,1,216 // add %r11,%rax .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 255,224 // jmpq *%rax .byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7 .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 - .byte 235,102 // jmp 39605 <_sk_srcover_bgra_8888_sse2_lowp+0xb1> + .byte 235,102 // jmp 3a019 <_sk_srcover_bgra_8888_sse2_lowp+0xb1> .byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7 .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8 - .byte 235,87 // jmp 39605 <_sk_srcover_bgra_8888_sse2_lowp+0xb1> + .byte 235,87 // jmp 3a019 <_sk_srcover_bgra_8888_sse2_lowp+0xb1> .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8 .byte 102,65,15,40,248 // movapd %xmm8,%xmm7 .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8 - .byte 235,52 // jmp 39605 <_sk_srcover_bgra_8888_sse2_lowp+0xb1> + .byte 235,52 // jmp 3a019 <_sk_srcover_bgra_8888_sse2_lowp+0xb1> .byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4 @@ -57000,7 +57543,7 @@ _sk_srcover_bgra_8888_sse2_lowp: .byte 102,15,114,244,16 // pslld $0x10,%xmm4 .byte 102,15,114,228,16 // psrad $0x10,%xmm4 .byte 102,15,107,236 // packssdw %xmm4,%xmm5 - .byte 102,68,15,111,37,161,10,0,0 // movdqa 0xaa1(%rip),%xmm12 # 3a0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c> + .byte 102,68,15,111,37,173,10,0,0 // movdqa 0xaad(%rip),%xmm12 # 3aaf0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88> .byte 102,15,111,245 // movdqa %xmm5,%xmm6 .byte 102,65,15,219,244 // pand %xmm12,%xmm6 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 @@ -57058,20 +57601,20 @@ _sk_srcover_bgra_8888_sse2_lowp: .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0 .byte 102,15,235,194 // por %xmm2,%xmm0 .byte 65,128,250,6 // cmp $0x6,%r10b - .byte 119,24 // ja 39767 <_sk_srcover_bgra_8888_sse2_lowp+0x213> - .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 397e4 <_sk_srcover_bgra_8888_sse2_lowp+0x290> + .byte 119,24 // ja 3a17b <_sk_srcover_bgra_8888_sse2_lowp+0x213> + .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 3a1f8 <_sk_srcover_bgra_8888_sse2_lowp+0x290> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4) - .byte 235,73 // jmp 397b0 <_sk_srcover_bgra_8888_sse2_lowp+0x25c> + .byte 235,73 // jmp 3a1c4 <_sk_srcover_bgra_8888_sse2_lowp+0x25c> .byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4) .byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4) - .byte 235,58 // jmp 397b0 <_sk_srcover_bgra_8888_sse2_lowp+0x25c> + .byte 235,58 // jmp 3a1c4 <_sk_srcover_bgra_8888_sse2_lowp+0x25c> .byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0 .byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4) .byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4) - .byte 235,37 // jmp 397b0 <_sk_srcover_bgra_8888_sse2_lowp+0x25c> + .byte 235,37 // jmp 3a1c4 <_sk_srcover_bgra_8888_sse2_lowp+0x25c> .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4) .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 @@ -57104,7 +57647,7 @@ _sk_srcover_bgra_8888_sse2_lowp: .byte 254 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 123,255 // jnp 397e5 <_sk_srcover_bgra_8888_sse2_lowp+0x291> + .byte 123,255 // jnp 3a1f9 <_sk_srcover_bgra_8888_sse2_lowp+0x291> .byte 255 // (bad) .byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi) .byte 255 // (bad) @@ -57137,14 +57680,14 @@ BALIGN4 .byte 252 // cld .byte 190,0,0,128,191 // mov $0xbf800000,%esi .byte 0,0 // add %al,(%rax) - .byte 224,64 // loopne 39864 <.literal4+0x64> + .byte 224,64 // loopne 3a278 <.literal4+0x64> .byte 154 // (bad) .byte 153 // cltd .byte 153 // cltd .byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax - .byte 71,225,61 // rex.RXB loope 3986d <.literal4+0x6d> + .byte 71,225,61 // rex.RXB loope 3a281 <.literal4+0x6d> .byte 0,0 // add %al,(%rax) - .byte 127,67 // jg 39877 <.literal4+0x77> + .byte 127,67 // jg 3a28b <.literal4+0x77> .byte 0,0 // add %al,(%rax) .byte 128,127,145,131 // cmpb $0x83,-0x6f(%rdi) .byte 158 // sahf @@ -57181,7 +57724,7 @@ BALIGN4 .byte 0,0 // add %al,(%rax) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) - .byte 224,7 // loopne 39891 <.literal4+0x91> + .byte 224,7 // loopne 3a2a5 <.literal4+0x91> .byte 0,0 // add %al,(%rax) .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh @@ -57192,8 +57735,8 @@ BALIGN4 .byte 0,0 // add %al,(%rax) .byte 0,52,255 // add %dh,(%rdi,%rdi,8) .byte 255 // (bad) - .byte 127,0 // jg 398a4 <.literal4+0xa4> - .byte 119,115 // ja 39919 <.literal4+0x119> + .byte 127,0 // jg 3a2b8 <.literal4+0xa4> + .byte 119,115 // ja 3a32d <.literal4+0x119> .byte 248 // clc .byte 194,117,191 // retq $0xbf75 .byte 191,63,249,68,180 // mov $0xb444f93f,%edi @@ -57216,12 +57759,12 @@ BALIGN4 .byte 190,80,128,3,62 // mov $0x3e038050,%esi .byte 31 // (bad) .byte 215 // xlat %ds:(%rbx) - .byte 118,63 // jbe 3992f <.literal4+0x12f> + .byte 118,63 // jbe 3a343 <.literal4+0x12f> .byte 246,64,83,63 // testb $0x3f,0x53(%rax) .byte 0,0 // add %al,(%rax) .byte 248 // clc .byte 65,0,0 // add %al,(%r8) - .byte 124,66 // jl 3993e <.literal4+0x13e> + .byte 124,66 // jl 3a352 <.literal4+0x13e> .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax) @@ -57231,9 +57774,9 @@ BALIGN4 .byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax) .byte 0,0 // add %al,(%rax) .byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax) - .byte 112,65 // jo 39961 <.literal4+0x161> + .byte 112,65 // jo 3a375 <.literal4+0x161> .byte 0,255 // add %bh,%bh - .byte 127,71 // jg 3996b <.literal4+0x16b> + .byte 127,71 // jg 3a37f <.literal4+0x16b> .byte 89 // pop %rcx .byte 23 // (bad) .byte 55 // (bad) @@ -57254,18 +57797,18 @@ BALIGN4 .byte 0,0 // add %al,(%rax) .byte 128,0,0 // addb $0x0,(%rax) .byte 0,191,0,0,192,191 // add %bh,-0x40400000(%rdi) - .byte 114,28 // jb 39976 <.literal4+0x176> + .byte 114,28 // jb 3a38a <.literal4+0x176> .byte 199 // (bad) .byte 62,85 // ds push %rbp .byte 85 // push %rbp .byte 149 // xchg %eax,%ebp .byte 191,0,0,192,63 // mov $0x3fc00000,%edi .byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi) - .byte 127,63 // jg 399ab <_sk_srcover_bgra_8888_sse2_lowp+0x457> + .byte 127,63 // jg 3a3bf <_sk_srcover_bgra_8888_sse2_lowp+0x457> .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 45,16,17,192,18 // sub $0x12c01110,%eax - .byte 120,57 // js 399b0 <_sk_srcover_bgra_8888_sse2_lowp+0x45c> + .byte 120,57 // js 3a3c4 <_sk_srcover_bgra_8888_sse2_lowp+0x45c> .byte 64,32,148,90,62,4,157,30 // and %dl,0x1e9d043e(%rdx,%rbx,2) .byte 62,0,24 // add %bl,%ds:(%rax) .byte 161,57,109,165,144,63,252,191,16 // movabs 0x10bffc3f90a56d39,%eax @@ -57275,7 +57818,7 @@ BALIGN4 .byte 56,255 // cmp %bh,%bh .byte 255 // (bad) .byte 255 // (bad) - .byte 127,0 // jg 39999 <.literal4+0x199> + .byte 127,0 // jg 3a3ad <.literal4+0x199> .byte 0,128,56,0,64,254 // add %al,-0x1bfffc8(%rax) .byte 255 // .byte 0xff @@ -57327,16 +57870,16 @@ BALIGN32 .byte 0,1 // add %al,(%rcx) .byte 255 // (bad) .byte 255 // (bad) - .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039a08 <_sk_srcover_bgra_8888_sse2_lowp+0xa0004b4> + .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a428 <_sk_srcover_bgra_8888_sse2_lowp+0xa0004c0> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039a10 <_sk_srcover_bgra_8888_sse2_lowp+0x120004bc> + .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a430 <_sk_srcover_bgra_8888_sse2_lowp+0x120004c8> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039a18 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0004c4> + .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a438 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0004d0> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039a20 <_sk_srcover_bgra_8888_sse2_lowp+0x30004cc> + .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a440 <_sk_srcover_bgra_8888_sse2_lowp+0x30004d8> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) @@ -57379,16 +57922,16 @@ BALIGN32 .byte 0,0 // add %al,(%rax) .byte 1,255 // add %edi,%edi .byte 255 // (bad) - .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039a68 <_sk_srcover_bgra_8888_sse2_lowp+0xa000514> + .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a488 <_sk_srcover_bgra_8888_sse2_lowp+0xa000520> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039a70 <_sk_srcover_bgra_8888_sse2_lowp+0x1200051c> + .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a490 <_sk_srcover_bgra_8888_sse2_lowp+0x12000528> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039a78 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000524> + .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a498 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000530> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039a80 <_sk_srcover_bgra_8888_sse2_lowp+0x300052c> + .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000538> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) @@ -57431,16 +57974,16 @@ BALIGN32 .byte 0,0 // add %al,(%rax) .byte 1,255 // add %edi,%edi .byte 255 // (bad) - .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039ac8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000574> + .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a4e8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000580> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x1200057c> + .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000588> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039ad8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000584> + .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000590> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x300058c> + .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a500 <_sk_srcover_bgra_8888_sse2_lowp+0x3000598> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) @@ -57483,16 +58026,16 @@ BALIGN32 .byte 0,0 // add %al,(%rax) .byte 1,255 // add %edi,%edi .byte 255 // (bad) - .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039b28 <_sk_srcover_bgra_8888_sse2_lowp+0xa0005d4> + .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a548 <_sk_srcover_bgra_8888_sse2_lowp+0xa0005e0> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039b30 <_sk_srcover_bgra_8888_sse2_lowp+0x120005dc> + .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a550 <_sk_srcover_bgra_8888_sse2_lowp+0x120005e8> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039b38 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0005e4> + .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a558 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0005f0> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039b40 <_sk_srcover_bgra_8888_sse2_lowp+0x30005ec> + .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a560 <_sk_srcover_bgra_8888_sse2_lowp+0x30005f8> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) @@ -57535,16 +58078,16 @@ BALIGN32 .byte 0,0 // add %al,(%rax) .byte 1,255 // add %edi,%edi .byte 255 // (bad) - .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039b88 <_sk_srcover_bgra_8888_sse2_lowp+0xa000634> + .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a5a8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000640> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039b90 <_sk_srcover_bgra_8888_sse2_lowp+0x1200063c> + .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000648> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039b98 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000644> + .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000650> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039ba0 <_sk_srcover_bgra_8888_sse2_lowp+0x300064c> + .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000658> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) @@ -57587,16 +58130,16 @@ BALIGN32 .byte 0,0 // add %al,(%rax) .byte 1,255 // add %edi,%edi .byte 255 // (bad) - .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039be8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000694> + .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a608 <_sk_srcover_bgra_8888_sse2_lowp+0xa0006a0> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x1200069c> + .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a610 <_sk_srcover_bgra_8888_sse2_lowp+0x120006a8> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039bf8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0006a4> + .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a618 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0006b0> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039c00 <_sk_srcover_bgra_8888_sse2_lowp+0x30006ac> + .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a620 <_sk_srcover_bgra_8888_sse2_lowp+0x30006b8> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) @@ -57639,16 +58182,16 @@ BALIGN32 .byte 0,0 // add %al,(%rax) .byte 1,255 // add %edi,%edi .byte 255 // (bad) - .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039c48 <_sk_srcover_bgra_8888_sse2_lowp+0xa0006f4> + .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a668 <_sk_srcover_bgra_8888_sse2_lowp+0xa000700> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039c50 <_sk_srcover_bgra_8888_sse2_lowp+0x120006fc> + .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a670 <_sk_srcover_bgra_8888_sse2_lowp+0x12000708> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039c58 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000704> + .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a678 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000710> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039c60 <_sk_srcover_bgra_8888_sse2_lowp+0x300070c> + .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a680 <_sk_srcover_bgra_8888_sse2_lowp+0x3000718> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) @@ -57691,16 +58234,16 @@ BALIGN32 .byte 0,0 // add %al,(%rax) .byte 1,255 // add %edi,%edi .byte 255 // (bad) - .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039ca8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000754> + .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a6c8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000760> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039cb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1200075c> + .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000768> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039cb8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000764> + .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a6d8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000770> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039cc0 <_sk_srcover_bgra_8888_sse2_lowp+0x300076c> + .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000778> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) @@ -57743,16 +58286,16 @@ BALIGN32 .byte 0,0 // add %al,(%rax) .byte 1,255 // add %edi,%edi .byte 255 // (bad) - .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a039d08 <_sk_srcover_bgra_8888_sse2_lowp+0xa0007b4> + .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a728 <_sk_srcover_bgra_8888_sse2_lowp+0xa0007c0> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12039d10 <_sk_srcover_bgra_8888_sse2_lowp+0x120007bc> + .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203a730 <_sk_srcover_bgra_8888_sse2_lowp+0x120007c8> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a039d18 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0007c4> + .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03a738 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0007d0> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3039d20 <_sk_srcover_bgra_8888_sse2_lowp+0x30007cc> + .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303a740 <_sk_srcover_bgra_8888_sse2_lowp+0x30007d8> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) @@ -58057,7 +58600,7 @@ BALIGN32 .byte 0,255 // add %bh,%bh .byte 0,0 // add %al,(%rax) .byte 248 // clc - .byte 224,255 // loopne 39f73 <.const+0x5d3> + .byte 224,255 // loopne 3a993 <.const+0x5d3> .byte 248 // clc .byte 0,63 // add %bh,(%rdi) .byte 0,31 // add %bl,(%rdi) @@ -58318,11 +58861,11 @@ BALIGN16 .byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%rax) .byte 191,0,0,224,64 // mov $0x40e00000,%edi .byte 0,0 // add %al,(%rax) - .byte 224,64 // loopne 3a1e8 <.literal16+0x118> + .byte 224,64 // loopne 3ac08 <.literal16+0x118> .byte 0,0 // add %al,(%rax) - .byte 224,64 // loopne 3a1ec <.literal16+0x11c> + .byte 224,64 // loopne 3ac0c <.literal16+0x11c> .byte 0,0 // add %al,(%rax) - .byte 224,64 // loopne 3a1f0 <.literal16+0x120> + .byte 224,64 // loopne 3ac10 <.literal16+0x120> .byte 154 // (bad) .byte 153 // cltd .byte 153 // cltd @@ -58342,13 +58885,13 @@ BALIGN16 .byte 10,23 // or (%rdi),%dl .byte 63 // (bad) .byte 174 // scas %es:(%rdi),%al - .byte 71,225,61 // rex.RXB loope 3a211 <.literal16+0x141> + .byte 71,225,61 // rex.RXB loope 3ac31 <.literal16+0x141> .byte 174 // scas %es:(%rdi),%al - .byte 71,225,61 // rex.RXB loope 3a215 <.literal16+0x145> + .byte 71,225,61 // rex.RXB loope 3ac35 <.literal16+0x145> .byte 174 // scas %es:(%rdi),%al - .byte 71,225,61 // rex.RXB loope 3a219 <.literal16+0x149> + .byte 71,225,61 // rex.RXB loope 3ac39 <.literal16+0x149> .byte 174 // scas %es:(%rdi),%al - .byte 71,225,61 // rex.RXB loope 3a21d <.literal16+0x14d> + .byte 71,225,61 // rex.RXB loope 3ac3d <.literal16+0x14d> .byte 255,0 // incl (%rax) .byte 0,0 // add %al,(%rax) .byte 255,0 // incl (%rax) @@ -58359,10 +58902,10 @@ BALIGN16 .byte 0,0 // add %al,(%rax) .byte 1,255 // add %edi,%edi .byte 255 // (bad) - .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03a1f8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000ca4> + .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03ac18 <_sk_srcover_bgra_8888_sse2_lowp+0xa000cb0> .byte 255 // (bad) .byte 255 // (bad) - .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 303a200 <_sk_srcover_bgra_8888_sse2_lowp+0x3000cac> + .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 303ac20 <_sk_srcover_bgra_8888_sse2_lowp+0x3000cb8> .byte 255 // (bad) .byte 255 // (bad) .byte 255,6 // incl (%rsi) @@ -58377,11 +58920,11 @@ BALIGN16 .byte 255,0 // incl (%rax) .byte 0,127,67 // add %bh,0x43(%rdi) .byte 0,0 // add %al,(%rax) - .byte 127,67 // jg 3a25b <.literal16+0x18b> + .byte 127,67 // jg 3ac7b <.literal16+0x18b> .byte 0,0 // add %al,(%rax) - .byte 127,67 // jg 3a25f <.literal16+0x18f> + .byte 127,67 // jg 3ac7f <.literal16+0x18f> .byte 0,0 // add %al,(%rax) - .byte 127,67 // jg 3a263 <.literal16+0x193> + .byte 127,67 // jg 3ac83 <.literal16+0x193> .byte 0,0 // add %al,(%rax) .byte 128,127,0,0 // cmpb $0x0,0x0(%rdi) .byte 128,127,0,0 // cmpb $0x0,0x0(%rdi) @@ -58537,13 +59080,13 @@ BALIGN16 .byte 132,55 // test %dh,(%rdi) .byte 8,33 // or %ah,(%rcx) .byte 132,55 // test %dh,(%rdi) - .byte 224,7 // loopne 3a379 <.literal16+0x2a9> + .byte 224,7 // loopne 3ad99 <.literal16+0x2a9> .byte 0,0 // add %al,(%rax) - .byte 224,7 // loopne 3a37d <.literal16+0x2ad> + .byte 224,7 // loopne 3ad9d <.literal16+0x2ad> .byte 0,0 // add %al,(%rax) - .byte 224,7 // loopne 3a381 <.literal16+0x2b1> + .byte 224,7 // loopne 3ada1 <.literal16+0x2b1> .byte 0,0 // add %al,(%rax) - .byte 224,7 // loopne 3a385 <.literal16+0x2b5> + .byte 224,7 // loopne 3ada5 <.literal16+0x2b5> .byte 0,0 // add %al,(%rax) .byte 33,8 // and %ecx,(%rax) .byte 2,58 // add (%rdx),%bh @@ -58597,17 +59140,17 @@ BALIGN16 .byte 0,0 // add %al,(%rax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) - .byte 127,0 // jg 3a3f4 <.literal16+0x324> + .byte 127,0 // jg 3ae14 <.literal16+0x324> .byte 255 // (bad) .byte 255 // (bad) - .byte 127,0 // jg 3a3f8 <.literal16+0x328> + .byte 127,0 // jg 3ae18 <.literal16+0x328> .byte 255 // (bad) .byte 255 // (bad) - .byte 127,0 // jg 3a3fc <.literal16+0x32c> + .byte 127,0 // jg 3ae1c <.literal16+0x32c> .byte 255 // (bad) .byte 255 // (bad) - .byte 127,0 // jg 3a400 <.literal16+0x330> - .byte 119,115 // ja 3a475 <.literal16+0x3a5> + .byte 127,0 // jg 3ae20 <.literal16+0x330> + .byte 119,115 // ja 3ae95 <.literal16+0x3a5> .byte 248 // clc .byte 194,119,115 // retq $0x7377 .byte 248 // clc @@ -58618,7 +59161,7 @@ BALIGN16 .byte 194,117,191 // retq $0xbf75 .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) - .byte 117,191 // jne 3a3d9 <.literal16+0x309> + .byte 117,191 // jne 3adf9 <.literal16+0x309> .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // (bad) .byte 249 // stc @@ -58630,7 +59173,7 @@ BALIGN16 .byte 249 // stc .byte 68,180,62 // rex.R mov $0x3e,%spl .byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9 - .byte 233,220,63,163,233 // jmpq ffffffffe9a6e41a <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe9a34ec6> + .byte 233,220,63,163,233 // jmpq ffffffffe9a6ee3a <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe9a34ed2> .byte 220,63 // fdivrl (%rdi) .byte 81 // push %rcx .byte 140,242 // mov %?,%edx @@ -58720,16 +59263,16 @@ BALIGN16 .byte 128,3,62 // addb $0x3e,(%rbx) .byte 31 // (bad) .byte 215 // xlat %ds:(%rbx) - .byte 118,63 // jbe 3a563 <.literal16+0x493> + .byte 118,63 // jbe 3af83 <.literal16+0x493> .byte 31 // (bad) .byte 215 // xlat %ds:(%rbx) - .byte 118,63 // jbe 3a567 <.literal16+0x497> + .byte 118,63 // jbe 3af87 <.literal16+0x497> .byte 31 // (bad) .byte 215 // xlat %ds:(%rbx) - .byte 118,63 // jbe 3a56b <.literal16+0x49b> + .byte 118,63 // jbe 3af8b <.literal16+0x49b> .byte 31 // (bad) .byte 215 // xlat %ds:(%rbx) - .byte 118,63 // jbe 3a56f <.literal16+0x49f> + .byte 118,63 // jbe 3af8f <.literal16+0x49f> .byte 246,64,83,63 // testb $0x3f,0x53(%rax) .byte 246,64,83,63 // testb $0x3f,0x53(%rax) .byte 246,64,83,63 // testb $0x3f,0x53(%rax) @@ -58750,13 +59293,13 @@ BALIGN16 .byte 65,0,0 // add %al,(%r8) .byte 248 // clc .byte 65,0,0 // add %al,(%r8) - .byte 124,66 // jl 3a5a6 <.literal16+0x4d6> + .byte 124,66 // jl 3afc6 <.literal16+0x4d6> .byte 0,0 // add %al,(%rax) - .byte 124,66 // jl 3a5aa <.literal16+0x4da> + .byte 124,66 // jl 3afca <.literal16+0x4da> .byte 0,0 // add %al,(%rax) - .byte 124,66 // jl 3a5ae <.literal16+0x4de> + .byte 124,66 // jl 3afce <.literal16+0x4de> .byte 0,0 // add %al,(%rax) - .byte 124,66 // jl 3a5b2 <.literal16+0x4e2> + .byte 124,66 // jl 3afd2 <.literal16+0x4e2> .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%rax) .byte 0,240 // add %dh,%al @@ -58802,25 +59345,25 @@ BALIGN16 .byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax) .byte 61,137,136,136,61 // cmp $0x3d888889,%eax .byte 0,0 // add %al,(%rax) - .byte 112,65 // jo 3a635 <.literal16+0x565> + .byte 112,65 // jo 3b055 <.literal16+0x565> .byte 0,0 // add %al,(%rax) - .byte 112,65 // jo 3a639 <.literal16+0x569> + .byte 112,65 // jo 3b059 <.literal16+0x569> .byte 0,0 // add %al,(%rax) - .byte 112,65 // jo 3a63d <.literal16+0x56d> + .byte 112,65 // jo 3b05d <.literal16+0x56d> .byte 0,0 // add %al,(%rax) - .byte 112,65 // jo 3a641 <.literal16+0x571> + .byte 112,65 // jo 3b061 <.literal16+0x571> .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax) .byte 0,0 // add %al,(%rax) .byte 255 // (bad) - .byte 127,0 // jg 3a613 <.literal16+0x543> + .byte 127,0 // jg 3b033 <.literal16+0x543> .byte 0,255 // add %bh,%bh - .byte 127,0 // jg 3a617 <.literal16+0x547> + .byte 127,0 // jg 3b037 <.literal16+0x547> .byte 0,255 // add %bh,%bh - .byte 127,0 // jg 3a61b <.literal16+0x54b> + .byte 127,0 // jg 3b03b <.literal16+0x54b> .byte 0,255 // add %bh,%bh - .byte 127,0 // jg 3a61f <.literal16+0x54f> + .byte 127,0 // jg 3b03f <.literal16+0x54f> .byte 0,0 // add %al,(%rax) .byte 4,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) @@ -58846,13 +59389,13 @@ BALIGN16 .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 127,255 // jg 3a658 <.literal16+0x588> + .byte 127,255 // jg 3b078 <.literal16+0x588> .byte 255 // (bad) .byte 255 // (bad) - .byte 127,255 // jg 3a65c <.literal16+0x58c> + .byte 127,255 // jg 3b07c <.literal16+0x58c> .byte 255 // (bad) .byte 255 // (bad) - .byte 127,0 // jg 3a661 <.literal16+0x591> + .byte 127,0 // jg 3b081 <.literal16+0x591> .byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax) .byte 56,0 // cmp %al,(%rax) .byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax) @@ -58866,13 +59409,13 @@ BALIGN16 .byte 64,254 // rex (bad) .byte 255,0 // incl (%rax) .byte 255 // (bad) - .byte 127,71 // jg 3a6cb <.literal16+0x5fb> + .byte 127,71 // jg 3b0eb <.literal16+0x5fb> .byte 0,255 // add %bh,%bh - .byte 127,71 // jg 3a6cf <.literal16+0x5ff> + .byte 127,71 // jg 3b0ef <.literal16+0x5ff> .byte 0,255 // add %bh,%bh - .byte 127,71 // jg 3a6d3 <.literal16+0x603> + .byte 127,71 // jg 3b0f3 <.literal16+0x603> .byte 0,255 // add %bh,%bh - .byte 127,71 // jg 3a6d7 <.literal16+0x607> + .byte 127,71 // jg 3b0f7 <.literal16+0x607> .byte 208 // (bad) .byte 179,89 // mov $0x59,%bl .byte 62,208 // ds (bad) @@ -58949,13 +59492,13 @@ BALIGN16 .byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi) .byte 0,192 // add %al,%al .byte 191,0,0,192,191 // mov $0xbfc00000,%edi - .byte 114,28 // jb 3a76e <.literal16+0x69e> + .byte 114,28 // jb 3b18e <.literal16+0x69e> .byte 199 // (bad) - .byte 62,114,28 // jb,pt 3a772 <.literal16+0x6a2> + .byte 62,114,28 // jb,pt 3b192 <.literal16+0x6a2> .byte 199 // (bad) - .byte 62,114,28 // jb,pt 3a776 <.literal16+0x6a6> + .byte 62,114,28 // jb,pt 3b196 <.literal16+0x6a6> .byte 199 // (bad) - .byte 62,114,28 // jb,pt 3a77a <.literal16+0x6aa> + .byte 62,114,28 // jb,pt 3b19a <.literal16+0x6aa> .byte 199 // (bad) .byte 62,85 // ds push %rbp .byte 85 // push %rbp @@ -58974,15 +59517,15 @@ BALIGN16 .byte 0,192 // add %al,%al .byte 63 // (bad) .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi) - .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d6735c5 <_sk_srcover_bgra_8888_sse2_lowp+0x3d63a071> + .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d673fe5 <_sk_srcover_bgra_8888_sse2_lowp+0x3d63a07d> .byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi) - .byte 127,63 // jg 3a7d3 <.literal16+0x703> - .byte 114,249 // jb 3a78f <.literal16+0x6bf> - .byte 127,63 // jg 3a7d7 <.literal16+0x707> - .byte 114,249 // jb 3a793 <.literal16+0x6c3> - .byte 127,63 // jg 3a7db <.literal16+0x70b> - .byte 114,249 // jb 3a797 <.literal16+0x6c7> - .byte 127,63 // jg 3a7df <.literal16+0x70f> + .byte 127,63 // jg 3b1f3 <.literal16+0x703> + .byte 114,249 // jb 3b1af <.literal16+0x6bf> + .byte 127,63 // jg 3b1f7 <.literal16+0x707> + .byte 114,249 // jb 3b1b3 <.literal16+0x6c3> + .byte 127,63 // jg 3b1fb <.literal16+0x70b> + .byte 114,249 // jb 3b1b7 <.literal16+0x6c7> + .byte 127,63 // jg 3b1ff <.literal16+0x70f> .byte 3,0 // add (%rax),%eax .byte 0,0 // add %al,(%rax) .byte 3,0 // add (%rax),%eax @@ -59006,9 +59549,9 @@ BALIGN16 .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 255,45,16,17,192,45 // ljmp *0x2dc01110(%rip) # 2dc3b8d5 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc02381> + .byte 255,45,16,17,192,45 // ljmp *0x2dc01110(%rip) # 2dc3c2f5 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc0238d> .byte 16,17 // adc %dl,(%rcx) - .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc3b8de <_sk_srcover_bgra_8888_sse2_lowp+0x2dc0238a> + .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc3c2fe <_sk_srcover_bgra_8888_sse2_lowp+0x2dc02396> .byte 17,192 // adc %eax,%eax .byte 18,120,57 // adc 0x39(%rax),%bh .byte 64,18,120,57 // adc 0x39(%rax),%dil @@ -59112,14 +59655,14 @@ BALIGN16 .byte 0,248 // add %bh,%al .byte 0,248 // add %bh,%al .byte 0,248 // add %bh,%al - .byte 224,255 // loopne 3a8c1 <.literal16+0x7f1> - .byte 224,255 // loopne 3a8c3 <.literal16+0x7f3> - .byte 224,255 // loopne 3a8c5 <.literal16+0x7f5> - .byte 224,255 // loopne 3a8c7 <.literal16+0x7f7> - .byte 224,255 // loopne 3a8c9 <.literal16+0x7f9> - .byte 224,255 // loopne 3a8cb <.literal16+0x7fb> - .byte 224,255 // loopne 3a8cd <.literal16+0x7fd> - .byte 224,255 // loopne 3a8cf <.literal16+0x7ff> + .byte 224,255 // loopne 3b2e1 <.literal16+0x7f1> + .byte 224,255 // loopne 3b2e3 <.literal16+0x7f3> + .byte 224,255 // loopne 3b2e5 <.literal16+0x7f5> + .byte 224,255 // loopne 3b2e7 <.literal16+0x7f7> + .byte 224,255 // loopne 3b2e9 <.literal16+0x7f9> + .byte 224,255 // loopne 3b2eb <.literal16+0x7fb> + .byte 224,255 // loopne 3b2ed <.literal16+0x7fd> + .byte 224,255 // loopne 3b2ef <.literal16+0x7ff> .byte 15,0,15 // str (%rdi) .byte 0,15 // add %cl,(%rdi) .byte 0,15 // add %cl,(%rdi) @@ -59192,9 +59735,9 @@ BALIGN8 .byte 4,0 // add $0x0,%al .byte 0,0 // add %al,(%rax) .byte 255 // (bad) - .byte 127,0 // jg 3a96b <.literal8+0x1b> + .byte 127,0 // jg 3b38b <.literal8+0x1b> .byte 0,255 // add %bh,%bh - .byte 127,0 // jg 3a96f <.literal8+0x1f> + .byte 127,0 // jg 3b38f <.literal8+0x1f> .byte 0,0 // add %al,(%rax) .byte 128,0,0 // addb $0x0,(%rax) .byte 0 // .byte 0x0 @@ -59306,7 +59849,7 @@ _sk_seed_shader_sse2: .byte 102,15,110,73,4 // movd 0x4(%ecx),%xmm1 .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 - .byte 15,88,136,87,248,0,0 // addps 0xf857(%eax),%xmm1 + .byte 15,88,136,71,250,0,0 // addps 0xfa47(%eax),%xmm1 .byte 141,114,8 // lea 0x8(%edx),%esi .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 15,41,81,64 // movaps %xmm2,0x40(%ecx) @@ -59314,7 +59857,7 @@ _sk_seed_shader_sse2: .byte 15,41,81,32 // movaps %xmm2,0x20(%ecx) .byte 15,41,81,16 // movaps %xmm2,0x10(%ecx) .byte 131,236,8 // sub $0x8,%esp - .byte 15,40,144,103,248,0,0 // movaps 0xf867(%eax),%xmm2 + .byte 15,40,144,87,250,0,0 // movaps 0xfa57(%eax),%xmm2 .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 86 // push %esi .byte 81 // push %ecx @@ -59341,15 +59884,15 @@ _sk_dither_sse2: .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 102,15,110,32 // movd (%eax),%xmm4 .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4 - .byte 102,15,254,161,0,248,0,0 // paddd 0xf800(%ecx),%xmm4 + .byte 102,15,254,161,240,249,0,0 // paddd 0xf9f0(%ecx),%xmm4 .byte 102,15,110,104,4 // movd 0x4(%eax),%xmm5 .byte 102,15,112,253,0 // pshufd $0x0,%xmm5,%xmm7 .byte 102,15,239,252 // pxor %xmm4,%xmm7 - .byte 102,15,111,177,16,248,0,0 // movdqa 0xf810(%ecx),%xmm6 + .byte 102,15,111,177,0,250,0,0 // movdqa 0xfa00(%ecx),%xmm6 .byte 102,15,111,207 // movdqa %xmm7,%xmm1 .byte 102,15,219,206 // pand %xmm6,%xmm1 .byte 102,15,114,241,5 // pslld $0x5,%xmm1 - .byte 102,15,111,129,48,248,0,0 // movdqa 0xf830(%ecx),%xmm0 + .byte 102,15,111,129,32,250,0,0 // movdqa 0xfa20(%ecx),%xmm0 .byte 102,15,111,239 // movdqa %xmm7,%xmm5 .byte 102,15,219,232 // pand %xmm0,%xmm5 .byte 102,15,114,245,2 // pslld $0x2,%xmm5 @@ -59359,7 +59902,7 @@ _sk_dither_sse2: .byte 102,15,219,196 // pand %xmm4,%xmm0 .byte 102,15,254,192 // paddd %xmm0,%xmm0 .byte 102,15,235,198 // por %xmm6,%xmm0 - .byte 102,15,111,137,32,248,0,0 // movdqa 0xf820(%ecx),%xmm1 + .byte 102,15,111,137,16,250,0,0 // movdqa 0xfa10(%ecx),%xmm1 .byte 102,15,219,249 // pand %xmm1,%xmm7 .byte 102,15,219,225 // pand %xmm1,%xmm4 .byte 102,15,114,212,2 // psrld $0x2,%xmm4 @@ -59370,8 +59913,8 @@ _sk_dither_sse2: .byte 102,15,114,215,1 // psrld $0x1,%xmm7 .byte 102,15,235,231 // por %xmm7,%xmm4 .byte 15,91,196 // cvtdq2ps %xmm4,%xmm0 - .byte 15,89,129,64,248,0,0 // mulps 0xf840(%ecx),%xmm0 - .byte 15,88,129,80,248,0,0 // addps 0xf850(%ecx),%xmm0 + .byte 15,89,129,48,250,0,0 // mulps 0xfa30(%ecx),%xmm0 + .byte 15,88,129,64,250,0,0 // addps 0xfa40(%ecx),%xmm0 .byte 243,15,16,14 // movss (%esi),%xmm1 .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1 .byte 15,89,200 // mulps %xmm0,%xmm1 @@ -59439,7 +59982,7 @@ _sk_black_color_sse2: .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 141,81,4 // lea 0x4(%ecx),%edx .byte 131,236,8 // sub $0x8,%esp - .byte 15,40,152,180,246,0,0 // movaps 0xf6b4(%eax),%xmm3 + .byte 15,40,152,164,248,0,0 // movaps 0xf8a4(%eax),%xmm3 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 @@ -59462,7 +60005,7 @@ _sk_white_color_sse2: .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 141,81,4 // lea 0x4(%ecx),%edx .byte 131,236,8 // sub $0x8,%esp - .byte 15,40,128,132,246,0,0 // movaps 0xf684(%eax),%xmm0 + .byte 15,40,128,116,248,0,0 // movaps 0xf874(%eax),%xmm0 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,40,216 // movaps %xmm0,%xmm3 @@ -59552,7 +60095,7 @@ _sk_srcatop_sse2: .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 - .byte 15,40,170,213,245,0,0 // movaps 0xf5d5(%edx),%xmm5 + .byte 15,40,170,197,247,0,0 // movaps 0xf7c5(%edx),%xmm5 .byte 15,92,235 // subps %xmm3,%xmm5 .byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6 .byte 15,89,245 // mulps %xmm5,%xmm6 @@ -59591,7 +60134,7 @@ _sk_dstatop_sse2: .byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5 .byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6 .byte 15,89,243 // mulps %xmm3,%xmm6 - .byte 15,40,162,118,245,0,0 // movaps 0xf576(%edx),%xmm4 + .byte 15,40,162,102,247,0,0 // movaps 0xf766(%edx),%xmm4 .byte 15,92,229 // subps %xmm5,%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 @@ -59675,7 +60218,7 @@ _sk_srcout_sse2: .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,85,8 // mov 0x8(%ebp),%edx - .byte 15,40,160,181,244,0,0 // movaps 0xf4b5(%eax),%xmm4 + .byte 15,40,160,165,246,0,0 // movaps 0xf6a5(%eax),%xmm4 .byte 15,92,98,64 // subps 0x40(%edx),%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,89,204 // mulps %xmm4,%xmm1 @@ -59701,7 +60244,7 @@ _sk_dstout_sse2: .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,85,8 // mov 0x8(%ebp),%edx - .byte 15,40,160,125,244,0,0 // movaps 0xf47d(%eax),%xmm4 + .byte 15,40,160,109,246,0,0 // movaps 0xf66d(%eax),%xmm4 .byte 15,92,227 // subps %xmm3,%xmm4 .byte 15,40,66,16 // movaps 0x10(%edx),%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 @@ -59731,7 +60274,7 @@ _sk_srcover_sse2: .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,85,8 // mov 0x8(%ebp),%edx - .byte 15,40,160,54,244,0,0 // movaps 0xf436(%eax),%xmm4 + .byte 15,40,160,38,246,0,0 // movaps 0xf626(%eax),%xmm4 .byte 15,92,227 // subps %xmm3,%xmm4 .byte 15,40,106,16 // movaps 0x10(%edx),%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 @@ -59765,7 +60308,7 @@ _sk_dstover_sse2: .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,85,8 // mov 0x8(%ebp),%edx .byte 15,40,106,64 // movaps 0x40(%edx),%xmm5 - .byte 15,40,160,230,243,0,0 // movaps 0xf3e6(%eax),%xmm4 + .byte 15,40,160,214,245,0,0 // movaps 0xf5d6(%eax),%xmm4 .byte 15,92,229 // subps %xmm5,%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,88,66,16 // addps 0x10(%edx),%xmm0 @@ -59821,7 +60364,7 @@ _sk_multiply_sse2: .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 15,40,80,64 // movaps 0x40(%eax),%xmm2 .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp) - .byte 15,40,129,103,243,0,0 // movaps 0xf367(%ecx),%xmm0 + .byte 15,40,129,87,245,0,0 // movaps 0xf557(%ecx),%xmm0 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,92,242 // subps %xmm2,%xmm6 .byte 15,40,254 // movaps %xmm6,%xmm7 @@ -59881,7 +60424,7 @@ _sk_plus__sse2: .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,85,8 // mov 0x8(%ebp),%edx .byte 15,88,66,16 // addps 0x10(%edx),%xmm0 - .byte 15,40,160,193,242,0,0 // movaps 0xf2c1(%eax),%xmm4 + .byte 15,40,160,177,244,0,0 // movaps 0xf4b1(%eax),%xmm4 .byte 15,93,196 // minps %xmm4,%xmm0 .byte 15,88,74,32 // addps 0x20(%edx),%xmm1 .byte 15,93,204 // minps %xmm4,%xmm1 @@ -59953,7 +60496,7 @@ _sk_xor__sse2: .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5 - .byte 15,40,154,19,242,0,0 // movaps 0xf213(%edx),%xmm3 + .byte 15,40,154,3,244,0,0 // movaps 0xf403(%edx),%xmm3 .byte 15,40,243 // movaps %xmm3,%xmm6 .byte 15,92,245 // subps %xmm5,%xmm6 .byte 15,89,198 // mulps %xmm6,%xmm0 @@ -60015,7 +60558,7 @@ _sk_darken_sse2: .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 15,95,209 // maxps %xmm1,%xmm2 .byte 15,92,234 // subps %xmm2,%xmm5 - .byte 15,40,138,171,241,0,0 // movaps 0xf1ab(%edx),%xmm1 + .byte 15,40,138,155,243,0,0 // movaps 0xf39b(%edx),%xmm1 .byte 15,92,203 // subps %xmm3,%xmm1 .byte 15,89,206 // mulps %xmm6,%xmm1 .byte 15,88,217 // addps %xmm1,%xmm3 @@ -60064,7 +60607,7 @@ _sk_lighten_sse2: .byte 15,89,203 // mulps %xmm3,%xmm1 .byte 15,93,209 // minps %xmm1,%xmm2 .byte 15,92,234 // subps %xmm2,%xmm5 - .byte 15,40,138,43,241,0,0 // movaps 0xf12b(%edx),%xmm1 + .byte 15,40,138,27,243,0,0 // movaps 0xf31b(%edx),%xmm1 .byte 15,92,203 // subps %xmm3,%xmm1 .byte 15,89,206 // mulps %xmm6,%xmm1 .byte 15,88,217 // addps %xmm1,%xmm3 @@ -60117,7 +60660,7 @@ _sk_difference_sse2: .byte 15,93,214 // minps %xmm6,%xmm2 .byte 15,88,210 // addps %xmm2,%xmm2 .byte 15,92,226 // subps %xmm2,%xmm4 - .byte 15,40,146,168,240,0,0 // movaps 0xf0a8(%edx),%xmm2 + .byte 15,40,146,152,242,0,0 // movaps 0xf298(%edx),%xmm2 .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,89,213 // mulps %xmm5,%xmm2 .byte 15,88,218 // addps %xmm2,%xmm3 @@ -60161,7 +60704,7 @@ _sk_exclusion_sse2: .byte 15,89,202 // mulps %xmm2,%xmm1 .byte 15,88,201 // addps %xmm1,%xmm1 .byte 15,92,233 // subps %xmm1,%xmm5 - .byte 15,40,138,34,240,0,0 // movaps 0xf022(%edx),%xmm1 + .byte 15,40,138,18,242,0,0 // movaps 0xf212(%edx),%xmm1 .byte 15,92,203 // subps %xmm3,%xmm1 .byte 15,89,73,64 // mulps 0x40(%ecx),%xmm1 .byte 15,88,217 // addps %xmm1,%xmm3 @@ -60202,7 +60745,7 @@ _sk_colorburn_sse2: .byte 15,93,198 // minps %xmm6,%xmm0 .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 15,92,232 // subps %xmm0,%xmm5 - .byte 15,40,177,163,239,0,0 // movaps 0xefa3(%ecx),%xmm6 + .byte 15,40,177,147,241,0,0 // movaps 0xf193(%ecx),%xmm6 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,92,193 // subps %xmm1,%xmm0 .byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp) @@ -60319,7 +60862,7 @@ _sk_colordodge_sse2: .byte 89 // pop %ecx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 15,40,72,16 // movaps 0x10(%eax),%xmm1 - .byte 15,40,145,26,238,0,0 // movaps 0xee1a(%ecx),%xmm2 + .byte 15,40,145,10,240,0,0 // movaps 0xf00a(%ecx),%xmm2 .byte 15,40,226 // movaps %xmm2,%xmm4 .byte 15,92,214 // subps %xmm6,%xmm2 .byte 15,40,250 // movaps %xmm2,%xmm7 @@ -60436,7 +60979,7 @@ _sk_hardlight_sse2: .byte 89 // pop %ecx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 15,40,72,64 // movaps 0x40(%eax),%xmm1 - .byte 15,40,145,185,236,0,0 // movaps 0xecb9(%ecx),%xmm2 + .byte 15,40,145,169,238,0,0 // movaps 0xeea9(%ecx),%xmm2 .byte 15,40,234 // movaps %xmm2,%xmm5 .byte 15,92,233 // subps %xmm1,%xmm5 .byte 15,40,225 // movaps %xmm1,%xmm4 @@ -60546,7 +61089,7 @@ _sk_overlay_sse2: .byte 89 // pop %ecx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 15,40,80,64 // movaps 0x40(%eax),%xmm2 - .byte 15,40,161,110,235,0,0 // movaps 0xeb6e(%ecx),%xmm4 + .byte 15,40,161,94,237,0,0 // movaps 0xed5e(%ecx),%xmm4 .byte 15,40,244 // movaps %xmm4,%xmm6 .byte 15,92,242 // subps %xmm2,%xmm6 .byte 15,40,206 // movaps %xmm6,%xmm1 @@ -60674,17 +61217,17 @@ _sk_softlight_sse2: .byte 232,0,0,0,0 // call f52 <_sk_softlight_sse2+0x52> .byte 89 // pop %ecx .byte 15,40,194 // movaps %xmm2,%xmm0 - .byte 15,40,137,78,234,0,0 // movaps 0xea4e(%ecx),%xmm1 + .byte 15,40,137,62,236,0,0 // movaps 0xec3e(%ecx),%xmm1 .byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp) .byte 15,88,193 // addps %xmm1,%xmm0 .byte 15,89,198 // mulps %xmm6,%xmm0 - .byte 15,40,185,222,233,0,0 // movaps 0xe9de(%ecx),%xmm7 + .byte 15,40,185,206,235,0,0 // movaps 0xebce(%ecx),%xmm7 .byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp) .byte 15,92,250 // subps %xmm2,%xmm7 .byte 15,82,242 // rsqrtps %xmm2,%xmm6 .byte 15,83,206 // rcpps %xmm6,%xmm1 .byte 15,92,202 // subps %xmm2,%xmm1 - .byte 15,40,161,94,234,0,0 // movaps 0xea5e(%ecx),%xmm4 + .byte 15,40,161,78,236,0,0 // movaps 0xec4e(%ecx),%xmm4 .byte 15,41,101,152 // movaps %xmm4,-0x68(%ebp) .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 15,88,208 // addps %xmm0,%xmm2 @@ -60890,7 +61433,7 @@ _sk_hue_sse2: .byte 15,40,226 // movaps %xmm2,%xmm4 .byte 15,40,72,64 // movaps 0x40(%eax),%xmm1 .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp) - .byte 15,40,169,29,231,0,0 // movaps 0xe71d(%ecx),%xmm5 + .byte 15,40,169,13,233,0,0 // movaps 0xe90d(%ecx),%xmm5 .byte 15,92,233 // subps %xmm1,%xmm5 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp) @@ -60923,17 +61466,17 @@ _sk_hue_sse2: .byte 15,89,233 // mulps %xmm1,%xmm5 .byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp) .byte 15,89,193 // mulps %xmm1,%xmm0 - .byte 15,40,153,173,231,0,0 // movaps 0xe7ad(%ecx),%xmm3 + .byte 15,40,153,157,233,0,0 // movaps 0xe99d(%ecx),%xmm3 .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 15,40,117,152 // movaps -0x68(%ebp),%xmm6 .byte 15,40,206 // movaps %xmm6,%xmm1 .byte 15,89,203 // mulps %xmm3,%xmm1 - .byte 15,40,153,189,231,0,0 // movaps 0xe7bd(%ecx),%xmm3 + .byte 15,40,153,173,233,0,0 // movaps 0xe9ad(%ecx),%xmm3 .byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5 .byte 15,40,253 // movaps %xmm5,%xmm7 .byte 15,89,251 // mulps %xmm3,%xmm7 .byte 15,88,249 // addps %xmm1,%xmm7 - .byte 15,40,137,29,231,0,0 // movaps 0xe71d(%ecx),%xmm1 + .byte 15,40,137,13,233,0,0 // movaps 0xe90d(%ecx),%xmm1 .byte 15,92,77,184 // subps -0x48(%ebp),%xmm1 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 15,41,117,152 // movaps %xmm6,-0x68(%ebp) @@ -60943,7 +61486,7 @@ _sk_hue_sse2: .byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 15,41,117,168 // movaps %xmm6,-0x58(%ebp) - .byte 15,40,169,205,231,0,0 // movaps 0xe7cd(%ecx),%xmm5 + .byte 15,40,169,189,233,0,0 // movaps 0xe9bd(%ecx),%xmm5 .byte 15,89,205 // mulps %xmm5,%xmm1 .byte 15,88,207 // addps %xmm7,%xmm1 .byte 15,94,212 // divps %xmm4,%xmm2 @@ -61136,17 +61679,17 @@ _sk_saturation_sse2: .byte 15,89,253 // mulps %xmm5,%xmm7 .byte 232,0,0,0,0 // call 1567 <_sk_saturation_sse2+0xb0> .byte 89 // pop %ecx - .byte 15,40,153,89,228,0,0 // movaps 0xe459(%ecx),%xmm3 + .byte 15,40,153,73,230,0,0 // movaps 0xe649(%ecx),%xmm3 .byte 15,41,157,88,255,255,255 // movaps %xmm3,-0xa8(%ebp) .byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 - .byte 15,40,153,105,228,0,0 // movaps 0xe469(%ecx),%xmm3 + .byte 15,40,153,89,230,0,0 // movaps 0xe659(%ecx),%xmm3 .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 15,40,238 // movaps %xmm6,%xmm5 .byte 15,89,235 // mulps %xmm3,%xmm5 .byte 15,88,232 // addps %xmm0,%xmm5 - .byte 15,40,129,201,227,0,0 // movaps 0xe3c9(%ecx),%xmm0 + .byte 15,40,129,185,229,0,0 // movaps 0xe5b9(%ecx),%xmm0 .byte 15,41,133,104,255,255,255 // movaps %xmm0,-0x98(%ebp) .byte 15,92,69,216 // subps -0x28(%ebp),%xmm0 .byte 15,89,200 // mulps %xmm0,%xmm1 @@ -61158,7 +61701,7 @@ _sk_saturation_sse2: .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp) .byte 15,40,200 // movaps %xmm0,%xmm1 - .byte 15,40,129,121,228,0,0 // movaps 0xe479(%ecx),%xmm0 + .byte 15,40,129,105,230,0,0 // movaps 0xe669(%ecx),%xmm0 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5 @@ -61317,16 +61860,16 @@ _sk_color_sse2: .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 15,40,80,16 // movaps 0x10(%eax),%xmm2 .byte 15,40,72,32 // movaps 0x20(%eax),%xmm1 - .byte 15,40,177,254,225,0,0 // movaps 0xe1fe(%ecx),%xmm6 + .byte 15,40,177,238,227,0,0 // movaps 0xe3ee(%ecx),%xmm6 .byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp) .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 15,89,198 // mulps %xmm6,%xmm0 - .byte 15,40,153,14,226,0,0 // movaps 0xe20e(%ecx),%xmm3 + .byte 15,40,153,254,227,0,0 // movaps 0xe3fe(%ecx),%xmm3 .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp) .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,89,243 // mulps %xmm3,%xmm6 .byte 15,88,240 // addps %xmm0,%xmm6 - .byte 15,40,129,110,225,0,0 // movaps 0xe16e(%ecx),%xmm0 + .byte 15,40,129,94,227,0,0 // movaps 0xe35e(%ecx),%xmm0 .byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp) .byte 15,92,69,200 // subps -0x38(%ebp),%xmm0 .byte 15,89,208 // mulps %xmm0,%xmm2 @@ -61336,7 +61879,7 @@ _sk_color_sse2: .byte 15,40,80,48 // movaps 0x30(%eax),%xmm2 .byte 15,89,194 // mulps %xmm2,%xmm0 .byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp) - .byte 15,40,137,30,226,0,0 // movaps 0xe21e(%ecx),%xmm1 + .byte 15,40,137,14,228,0,0 // movaps 0xe40e(%ecx),%xmm1 .byte 15,89,209 // mulps %xmm1,%xmm2 .byte 15,88,214 // addps %xmm6,%xmm2 .byte 15,40,88,64 // movaps 0x40(%eax),%xmm3 @@ -61495,18 +62038,18 @@ _sk_luminosity_sse2: .byte 232,0,0,0,0 // call 1a25 <_sk_luminosity_sse2+0x11> .byte 89 // pop %ecx .byte 139,69,8 // mov 0x8(%ebp),%eax - .byte 15,40,161,155,223,0,0 // movaps 0xdf9b(%ecx),%xmm4 + .byte 15,40,161,139,225,0,0 // movaps 0xe18b(%ecx),%xmm4 .byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp) .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,89,212 // mulps %xmm4,%xmm2 - .byte 15,40,161,171,223,0,0 // movaps 0xdfab(%ecx),%xmm4 + .byte 15,40,161,155,225,0,0 // movaps 0xe19b(%ecx),%xmm4 .byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp) .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,88,234 // addps %xmm2,%xmm5 .byte 15,40,80,64 // movaps 0x40(%eax),%xmm2 .byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp) - .byte 15,40,161,11,223,0,0 // movaps 0xdf0b(%ecx),%xmm4 + .byte 15,40,161,251,224,0,0 // movaps 0xe0fb(%ecx),%xmm4 .byte 15,40,252 // movaps %xmm4,%xmm7 .byte 15,92,250 // subps %xmm2,%xmm7 .byte 15,89,199 // mulps %xmm7,%xmm0 @@ -61516,7 +62059,7 @@ _sk_luminosity_sse2: .byte 15,89,254 // mulps %xmm6,%xmm7 .byte 15,41,189,104,255,255,255 // movaps %xmm7,-0x98(%ebp) .byte 15,40,214 // movaps %xmm6,%xmm2 - .byte 15,40,137,187,223,0,0 // movaps 0xdfbb(%ecx),%xmm1 + .byte 15,40,137,171,225,0,0 // movaps 0xe1ab(%ecx),%xmm1 .byte 15,89,209 // mulps %xmm1,%xmm2 .byte 15,88,213 // addps %xmm5,%xmm2 .byte 15,40,104,16 // movaps 0x10(%eax),%xmm5 @@ -61676,9 +62219,10 @@ _sk_srcover_rgba_8888_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,44 // sub $0x2c,%esp - .byte 102,15,127,85,200 // movdqa %xmm2,-0x38(%ebp) - .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp) - .byte 232,0,0,0,0 // call 1c90 <_sk_srcover_rgba_8888_sse2+0x17> + .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp) + .byte 102,15,127,77,216 // movdqa %xmm1,-0x28(%ebp) + .byte 102,15,111,232 // movdqa %xmm0,%xmm5 + .byte 232,0,0,0,0 // call 1c94 <_sk_srcover_rgba_8888_sse2+0x1b> .byte 95 // pop %edi .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -61690,62 +62234,73 @@ _sk_srcover_rgba_8888_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,49 // mov (%ecx),%esi - .byte 15,133,224,0,0,0 // jne 1d92 <_sk_srcover_rgba_8888_sse2+0x119> - .byte 243,15,111,20,178 // movdqu (%edx,%esi,4),%xmm2 - .byte 102,15,111,167,96,221,0,0 // movdqa 0xdd60(%edi),%xmm4 - .byte 102,15,111,234 // movdqa %xmm2,%xmm5 - .byte 102,15,219,236 // pand %xmm4,%xmm5 - .byte 102,15,111,242 // movdqa %xmm2,%xmm6 + .byte 15,133,2,1,0,0 // jne 1db8 <_sk_srcover_rgba_8888_sse2+0x13f> + .byte 243,15,111,12,178 // movdqu (%edx,%esi,4),%xmm1 + .byte 102,15,111,135,76,223,0,0 // movdqa 0xdf4c(%edi),%xmm0 + .byte 102,15,111,209 // movdqa %xmm1,%xmm2 + .byte 102,15,219,208 // pand %xmm0,%xmm2 + .byte 102,15,111,241 // movdqa %xmm1,%xmm6 .byte 102,15,114,214,8 // psrld $0x8,%xmm6 - .byte 102,15,219,244 // pand %xmm4,%xmm6 - .byte 102,15,111,250 // movdqa %xmm2,%xmm7 + .byte 102,15,219,240 // pand %xmm0,%xmm6 + .byte 102,15,111,249 // movdqa %xmm1,%xmm7 .byte 102,15,114,215,16 // psrld $0x10,%xmm7 - .byte 102,15,219,252 // pand %xmm4,%xmm7 - .byte 15,91,229 // cvtdq2ps %xmm5,%xmm4 - .byte 15,41,97,16 // movaps %xmm4,0x10(%ecx) - .byte 15,40,175,160,220,0,0 // movaps 0xdca0(%edi),%xmm5 - .byte 15,92,235 // subps %xmm3,%xmm5 - .byte 15,40,143,112,221,0,0 // movaps 0xdd70(%edi),%xmm1 - .byte 15,89,193 // mulps %xmm1,%xmm0 - .byte 15,89,229 // mulps %xmm5,%xmm4 - .byte 15,88,224 // addps %xmm0,%xmm4 - .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 - .byte 15,41,113,32 // movaps %xmm6,0x20(%ecx) - .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0 - .byte 15,89,193 // mulps %xmm1,%xmm0 - .byte 15,89,245 // mulps %xmm5,%xmm6 - .byte 15,88,240 // addps %xmm0,%xmm6 - .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7 - .byte 15,41,121,48 // movaps %xmm7,0x30(%ecx) - .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0 - .byte 15,89,193 // mulps %xmm1,%xmm0 - .byte 15,89,253 // mulps %xmm5,%xmm7 - .byte 15,88,248 // addps %xmm0,%xmm7 - .byte 102,15,114,210,24 // psrld $0x18,%xmm2 + .byte 102,15,219,248 // pand %xmm0,%xmm7 .byte 15,91,194 // cvtdq2ps %xmm2,%xmm0 - .byte 15,41,65,64 // movaps %xmm0,0x40(%ecx) - .byte 15,89,217 // mulps %xmm1,%xmm3 - .byte 15,89,232 // mulps %xmm0,%xmm5 - .byte 15,88,235 // addps %xmm3,%xmm5 - .byte 102,15,91,196 // cvtps2dq %xmm4,%xmm0 - .byte 102,15,91,206 // cvtps2dq %xmm6,%xmm1 - .byte 102,15,114,241,8 // pslld $0x8,%xmm1 - .byte 102,15,235,200 // por %xmm0,%xmm1 - .byte 102,15,91,215 // cvtps2dq %xmm7,%xmm2 + .byte 15,41,65,16 // movaps %xmm0,0x10(%ecx) + .byte 15,40,167,140,222,0,0 // movaps 0xde8c(%edi),%xmm4 + .byte 15,92,227 // subps %xmm3,%xmm4 + .byte 15,40,151,92,223,0,0 // movaps 0xdf5c(%edi),%xmm2 + .byte 15,89,234 // mulps %xmm2,%xmm5 + .byte 15,89,196 // mulps %xmm4,%xmm0 + .byte 15,88,197 // addps %xmm5,%xmm0 + .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5 + .byte 15,41,105,32 // movaps %xmm5,0x20(%ecx) + .byte 15,40,117,216 // movaps -0x28(%ebp),%xmm6 + .byte 15,89,242 // mulps %xmm2,%xmm6 + .byte 15,89,236 // mulps %xmm4,%xmm5 + .byte 15,88,238 // addps %xmm6,%xmm5 + .byte 15,91,247 // cvtdq2ps %xmm7,%xmm6 + .byte 15,41,113,48 // movaps %xmm6,0x30(%ecx) + .byte 15,40,125,200 // movaps -0x38(%ebp),%xmm7 + .byte 15,89,250 // mulps %xmm2,%xmm7 + .byte 15,89,244 // mulps %xmm4,%xmm6 + .byte 15,88,247 // addps %xmm7,%xmm6 + .byte 15,87,255 // xorps %xmm7,%xmm7 + .byte 102,15,114,209,24 // psrld $0x18,%xmm1 + .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 + .byte 15,41,73,64 // movaps %xmm1,0x40(%ecx) + .byte 15,89,218 // mulps %xmm2,%xmm3 + .byte 15,89,225 // mulps %xmm1,%xmm4 + .byte 15,88,227 // addps %xmm3,%xmm4 + .byte 15,87,201 // xorps %xmm1,%xmm1 + .byte 15,95,200 // maxps %xmm0,%xmm1 + .byte 15,93,202 // minps %xmm2,%xmm1 + .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 + .byte 15,87,219 // xorps %xmm3,%xmm3 + .byte 15,95,221 // maxps %xmm5,%xmm3 + .byte 15,93,218 // minps %xmm2,%xmm3 + .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3 + .byte 102,15,114,243,8 // pslld $0x8,%xmm3 + .byte 102,15,235,217 // por %xmm1,%xmm3 + .byte 102,15,87,201 // xorpd %xmm1,%xmm1 + .byte 15,95,206 // maxps %xmm6,%xmm1 + .byte 15,93,202 // minps %xmm2,%xmm1 + .byte 15,95,252 // maxps %xmm4,%xmm7 + .byte 15,93,250 // minps %xmm2,%xmm7 + .byte 102,15,91,209 // cvtps2dq %xmm1,%xmm2 .byte 102,15,114,242,16 // pslld $0x10,%xmm2 - .byte 102,15,91,197 // cvtps2dq %xmm5,%xmm0 - .byte 102,15,114,240,24 // pslld $0x18,%xmm0 - .byte 102,15,235,194 // por %xmm2,%xmm0 - .byte 102,15,235,193 // por %xmm1,%xmm0 + .byte 102,15,91,207 // cvtps2dq %xmm7,%xmm1 + .byte 102,15,114,241,24 // pslld $0x18,%xmm1 + .byte 102,15,235,202 // por %xmm2,%xmm1 + .byte 102,15,235,203 // por %xmm3,%xmm1 .byte 133,219 // test %ebx,%ebx - .byte 117,95 // jne 1dcd <_sk_srcover_rgba_8888_sse2+0x154> - .byte 243,15,127,4,178 // movdqu %xmm0,(%edx,%esi,4) + .byte 117,92 // jne 1df3 <_sk_srcover_rgba_8888_sse2+0x17a> + .byte 243,15,127,12,178 // movdqu %xmm1,(%edx,%esi,4) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp - .byte 15,40,196 // movaps %xmm4,%xmm0 - .byte 15,40,206 // movaps %xmm6,%xmm1 - .byte 15,40,215 // movaps %xmm7,%xmm2 - .byte 15,40,221 // movaps %xmm5,%xmm3 + .byte 15,40,205 // movaps %xmm5,%xmm1 + .byte 15,40,214 // movaps %xmm6,%xmm2 + .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) @@ -61759,33 +62314,33 @@ _sk_srcover_rgba_8888_sse2: .byte 136,69,243 // mov %al,-0xd(%ebp) .byte 128,101,243,3 // andb $0x3,-0xd(%ebp) .byte 128,125,243,1 // cmpb $0x1,-0xd(%ebp) - .byte 116,80 // je 1df1 <_sk_srcover_rgba_8888_sse2+0x178> - .byte 102,15,239,210 // pxor %xmm2,%xmm2 + .byte 116,80 // je 1e17 <_sk_srcover_rgba_8888_sse2+0x19e> + .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 128,125,243,2 // cmpb $0x2,-0xd(%ebp) .byte 139,69,12 // mov 0xc(%ebp),%eax - .byte 116,21 // je 1dc3 <_sk_srcover_rgba_8888_sse2+0x14a> + .byte 116,21 // je 1de9 <_sk_srcover_rgba_8888_sse2+0x170> .byte 128,125,243,3 // cmpb $0x3,-0xd(%ebp) - .byte 15,133,255,254,255,255 // jne 1cb7 <_sk_srcover_rgba_8888_sse2+0x3e> - .byte 102,15,110,84,178,8 // movd 0x8(%edx,%esi,4),%xmm2 - .byte 102,15,112,210,69 // pshufd $0x45,%xmm2,%xmm2 - .byte 102,15,18,20,178 // movlpd (%edx,%esi,4),%xmm2 - .byte 233,234,254,255,255 // jmp 1cb7 <_sk_srcover_rgba_8888_sse2+0x3e> + .byte 15,133,221,254,255,255 // jne 1cbb <_sk_srcover_rgba_8888_sse2+0x42> + .byte 102,15,110,68,178,8 // movd 0x8(%edx,%esi,4),%xmm0 + .byte 102,15,112,200,69 // pshufd $0x45,%xmm0,%xmm1 + .byte 102,15,18,12,178 // movlpd (%edx,%esi,4),%xmm1 + .byte 233,200,254,255,255 // jmp 1cbb <_sk_srcover_rgba_8888_sse2+0x42> .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,41 // je 1dfe <_sk_srcover_rgba_8888_sse2+0x185> + .byte 116,41 // je 1e24 <_sk_srcover_rgba_8888_sse2+0x1ab> .byte 128,251,2 // cmp $0x2,%bl - .byte 116,16 // je 1dea <_sk_srcover_rgba_8888_sse2+0x171> + .byte 116,16 // je 1e10 <_sk_srcover_rgba_8888_sse2+0x197> .byte 128,251,3 // cmp $0x3,%bl - .byte 117,148 // jne 1d73 <_sk_srcover_rgba_8888_sse2+0xfa> - .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 - .byte 102,15,126,76,178,8 // movd %xmm1,0x8(%edx,%esi,4) - .byte 102,15,214,4,178 // movq %xmm0,(%edx,%esi,4) - .byte 235,130 // jmp 1d73 <_sk_srcover_rgba_8888_sse2+0xfa> - .byte 102,15,110,20,178 // movd (%edx,%esi,4),%xmm2 + .byte 117,151 // jne 1d9c <_sk_srcover_rgba_8888_sse2+0x123> + .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 + .byte 102,15,126,84,178,8 // movd %xmm2,0x8(%edx,%esi,4) + .byte 102,15,214,12,178 // movq %xmm1,(%edx,%esi,4) + .byte 235,133 // jmp 1d9c <_sk_srcover_rgba_8888_sse2+0x123> + .byte 102,15,110,12,178 // movd (%edx,%esi,4),%xmm1 .byte 139,69,12 // mov 0xc(%ebp),%eax - .byte 233,185,254,255,255 // jmp 1cb7 <_sk_srcover_rgba_8888_sse2+0x3e> - .byte 102,15,126,4,178 // movd %xmm0,(%edx,%esi,4) - .byte 233,107,255,255,255 // jmp 1d73 <_sk_srcover_rgba_8888_sse2+0xfa> + .byte 233,151,254,255,255 // jmp 1cbb <_sk_srcover_rgba_8888_sse2+0x42> + .byte 102,15,126,12,178 // movd %xmm1,(%edx,%esi,4) + .byte 233,110,255,255,255 // jmp 1d9c <_sk_srcover_rgba_8888_sse2+0x123> HIDDEN _sk_srcover_bgra_8888_sse2 .globl _sk_srcover_bgra_8888_sse2 @@ -61797,9 +62352,10 @@ _sk_srcover_bgra_8888_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,44 // sub $0x2c,%esp - .byte 102,15,127,85,200 // movdqa %xmm2,-0x38(%ebp) + .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp) .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp) - .byte 232,0,0,0,0 // call 1e1f <_sk_srcover_bgra_8888_sse2+0x17> + .byte 102,15,111,248 // movdqa %xmm0,%xmm7 + .byte 232,0,0,0,0 // call 1e48 <_sk_srcover_bgra_8888_sse2+0x1a> .byte 95 // pop %edi .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -61811,61 +62367,71 @@ _sk_srcover_bgra_8888_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,49 // mov (%ecx),%esi - .byte 15,133,221,0,0,0 // jne 1f1e <_sk_srcover_bgra_8888_sse2+0x116> + .byte 15,133,252,0,0,0 // jne 1f66 <_sk_srcover_bgra_8888_sse2+0x138> .byte 243,15,111,36,178 // movdqu (%edx,%esi,4),%xmm4 - .byte 102,15,111,151,209,219,0,0 // movdqa 0xdbd1(%edi),%xmm2 + .byte 102,15,111,135,152,221,0,0 // movdqa 0xdd98(%edi),%xmm0 + .byte 102,15,111,204 // movdqa %xmm4,%xmm1 + .byte 102,15,219,200 // pand %xmm0,%xmm1 .byte 102,15,111,236 // movdqa %xmm4,%xmm5 - .byte 102,15,219,234 // pand %xmm2,%xmm5 + .byte 102,15,114,213,8 // psrld $0x8,%xmm5 + .byte 102,15,219,232 // pand %xmm0,%xmm5 .byte 102,15,111,244 // movdqa %xmm4,%xmm6 - .byte 102,15,114,214,8 // psrld $0x8,%xmm6 - .byte 102,15,219,242 // pand %xmm2,%xmm6 - .byte 102,15,111,252 // movdqa %xmm4,%xmm7 - .byte 102,15,114,215,16 // psrld $0x10,%xmm7 - .byte 102,15,219,250 // pand %xmm2,%xmm7 - .byte 15,91,213 // cvtdq2ps %xmm5,%xmm2 + .byte 102,15,114,214,16 // psrld $0x10,%xmm6 + .byte 102,15,219,240 // pand %xmm0,%xmm6 + .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2 .byte 15,41,81,48 // movaps %xmm2,0x30(%ecx) - .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5 - .byte 15,41,105,32 // movaps %xmm5,0x20(%ecx) - .byte 15,91,247 // cvtdq2ps %xmm7,%xmm6 - .byte 15,41,113,16 // movaps %xmm6,0x10(%ecx) - .byte 15,40,191,17,219,0,0 // movaps 0xdb11(%edi),%xmm7 - .byte 15,92,251 // subps %xmm3,%xmm7 - .byte 15,40,143,225,219,0,0 // movaps 0xdbe1(%edi),%xmm1 - .byte 15,89,193 // mulps %xmm1,%xmm0 - .byte 15,89,247 // mulps %xmm7,%xmm6 - .byte 15,88,240 // addps %xmm0,%xmm6 - .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0 - .byte 15,89,193 // mulps %xmm1,%xmm0 - .byte 15,89,239 // mulps %xmm7,%xmm5 - .byte 15,88,232 // addps %xmm0,%xmm5 - .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0 - .byte 15,89,193 // mulps %xmm1,%xmm0 - .byte 15,89,215 // mulps %xmm7,%xmm2 - .byte 15,88,208 // addps %xmm0,%xmm2 + .byte 15,91,205 // cvtdq2ps %xmm5,%xmm1 + .byte 15,41,73,32 // movaps %xmm1,0x20(%ecx) + .byte 15,91,198 // cvtdq2ps %xmm6,%xmm0 + .byte 15,41,65,16 // movaps %xmm0,0x10(%ecx) + .byte 15,40,175,216,220,0,0 // movaps 0xdcd8(%edi),%xmm5 + .byte 15,92,235 // subps %xmm3,%xmm5 + .byte 15,40,183,168,221,0,0 // movaps 0xdda8(%edi),%xmm6 + .byte 15,89,254 // mulps %xmm6,%xmm7 + .byte 15,89,197 // mulps %xmm5,%xmm0 + .byte 15,88,199 // addps %xmm7,%xmm0 + .byte 15,40,125,216 // movaps -0x28(%ebp),%xmm7 + .byte 15,89,254 // mulps %xmm6,%xmm7 + .byte 15,89,205 // mulps %xmm5,%xmm1 + .byte 15,88,207 // addps %xmm7,%xmm1 + .byte 15,40,125,200 // movaps -0x38(%ebp),%xmm7 + .byte 15,89,254 // mulps %xmm6,%xmm7 + .byte 15,89,213 // mulps %xmm5,%xmm2 + .byte 15,88,215 // addps %xmm7,%xmm2 + .byte 15,87,255 // xorps %xmm7,%xmm7 .byte 102,15,114,212,24 // psrld $0x18,%xmm4 - .byte 15,91,196 // cvtdq2ps %xmm4,%xmm0 - .byte 15,41,65,64 // movaps %xmm0,0x40(%ecx) - .byte 15,89,217 // mulps %xmm1,%xmm3 - .byte 15,89,248 // mulps %xmm0,%xmm7 - .byte 15,88,251 // addps %xmm3,%xmm7 - .byte 102,15,91,194 // cvtps2dq %xmm2,%xmm0 - .byte 102,15,91,205 // cvtps2dq %xmm5,%xmm1 - .byte 102,15,114,241,8 // pslld $0x8,%xmm1 - .byte 102,15,235,200 // por %xmm0,%xmm1 - .byte 102,15,91,222 // cvtps2dq %xmm6,%xmm3 - .byte 102,15,114,243,16 // pslld $0x10,%xmm3 - .byte 102,15,91,199 // cvtps2dq %xmm7,%xmm0 - .byte 102,15,114,240,24 // pslld $0x18,%xmm0 - .byte 102,15,235,195 // por %xmm3,%xmm0 - .byte 102,15,235,193 // por %xmm1,%xmm0 + .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 + .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx) + .byte 15,89,222 // mulps %xmm6,%xmm3 + .byte 15,89,236 // mulps %xmm4,%xmm5 + .byte 15,88,235 // addps %xmm3,%xmm5 + .byte 15,87,219 // xorps %xmm3,%xmm3 + .byte 15,95,218 // maxps %xmm2,%xmm3 + .byte 15,93,222 // minps %xmm6,%xmm3 + .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3 + .byte 15,87,228 // xorps %xmm4,%xmm4 + .byte 15,95,225 // maxps %xmm1,%xmm4 + .byte 15,93,230 // minps %xmm6,%xmm4 + .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4 + .byte 102,15,114,244,8 // pslld $0x8,%xmm4 + .byte 102,15,235,227 // por %xmm3,%xmm4 + .byte 102,15,87,219 // xorpd %xmm3,%xmm3 + .byte 15,95,216 // maxps %xmm0,%xmm3 + .byte 15,93,222 // minps %xmm6,%xmm3 + .byte 15,95,253 // maxps %xmm5,%xmm7 + .byte 15,93,254 // minps %xmm6,%xmm7 + .byte 102,15,91,243 // cvtps2dq %xmm3,%xmm6 + .byte 102,15,114,246,16 // pslld $0x10,%xmm6 + .byte 102,15,91,223 // cvtps2dq %xmm7,%xmm3 + .byte 102,15,114,243,24 // pslld $0x18,%xmm3 + .byte 102,15,235,222 // por %xmm6,%xmm3 + .byte 102,15,235,220 // por %xmm4,%xmm3 .byte 133,219 // test %ebx,%ebx - .byte 117,92 // jne 1f59 <_sk_srcover_bgra_8888_sse2+0x151> - .byte 243,15,127,4,178 // movdqu %xmm0,(%edx,%esi,4) + .byte 117,86 // jne 1fa1 <_sk_srcover_bgra_8888_sse2+0x173> + .byte 243,15,127,28,178 // movdqu %xmm3,(%edx,%esi,4) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp - .byte 15,40,198 // movaps %xmm6,%xmm0 - .byte 15,40,205 // movaps %xmm5,%xmm1 - .byte 15,40,223 // movaps %xmm7,%xmm3 + .byte 15,40,221 // movaps %xmm5,%xmm3 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) @@ -61879,33 +62445,33 @@ _sk_srcover_bgra_8888_sse2: .byte 136,69,243 // mov %al,-0xd(%ebp) .byte 128,101,243,3 // andb $0x3,-0xd(%ebp) .byte 128,125,243,1 // cmpb $0x1,-0xd(%ebp) - .byte 116,80 // je 1f7d <_sk_srcover_bgra_8888_sse2+0x175> + .byte 116,80 // je 1fc5 <_sk_srcover_bgra_8888_sse2+0x197> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 128,125,243,2 // cmpb $0x2,-0xd(%ebp) .byte 139,69,12 // mov 0xc(%ebp),%eax - .byte 116,21 // je 1f4f <_sk_srcover_bgra_8888_sse2+0x147> + .byte 116,21 // je 1f97 <_sk_srcover_bgra_8888_sse2+0x169> .byte 128,125,243,3 // cmpb $0x3,-0xd(%ebp) - .byte 15,133,2,255,255,255 // jne 1e46 <_sk_srcover_bgra_8888_sse2+0x3e> - .byte 102,15,110,84,178,8 // movd 0x8(%edx,%esi,4),%xmm2 - .byte 102,15,112,226,69 // pshufd $0x45,%xmm2,%xmm4 + .byte 15,133,227,254,255,255 // jne 1e6f <_sk_srcover_bgra_8888_sse2+0x41> + .byte 102,15,110,68,178,8 // movd 0x8(%edx,%esi,4),%xmm0 + .byte 102,15,112,224,69 // pshufd $0x45,%xmm0,%xmm4 .byte 102,15,18,36,178 // movlpd (%edx,%esi,4),%xmm4 - .byte 233,237,254,255,255 // jmp 1e46 <_sk_srcover_bgra_8888_sse2+0x3e> + .byte 233,206,254,255,255 // jmp 1e6f <_sk_srcover_bgra_8888_sse2+0x41> .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,41 // je 1f8a <_sk_srcover_bgra_8888_sse2+0x182> + .byte 116,41 // je 1fd2 <_sk_srcover_bgra_8888_sse2+0x1a4> .byte 128,251,2 // cmp $0x2,%bl - .byte 116,16 // je 1f76 <_sk_srcover_bgra_8888_sse2+0x16e> + .byte 116,16 // je 1fbe <_sk_srcover_bgra_8888_sse2+0x190> .byte 128,251,3 // cmp $0x3,%bl - .byte 117,151 // jne 1f02 <_sk_srcover_bgra_8888_sse2+0xfa> - .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 - .byte 102,15,126,76,178,8 // movd %xmm1,0x8(%edx,%esi,4) - .byte 102,15,214,4,178 // movq %xmm0,(%edx,%esi,4) - .byte 235,133 // jmp 1f02 <_sk_srcover_bgra_8888_sse2+0xfa> + .byte 117,157 // jne 1f50 <_sk_srcover_bgra_8888_sse2+0x122> + .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4 + .byte 102,15,126,100,178,8 // movd %xmm4,0x8(%edx,%esi,4) + .byte 102,15,214,28,178 // movq %xmm3,(%edx,%esi,4) + .byte 235,139 // jmp 1f50 <_sk_srcover_bgra_8888_sse2+0x122> .byte 102,15,110,36,178 // movd (%edx,%esi,4),%xmm4 .byte 139,69,12 // mov 0xc(%ebp),%eax - .byte 233,188,254,255,255 // jmp 1e46 <_sk_srcover_bgra_8888_sse2+0x3e> - .byte 102,15,126,4,178 // movd %xmm0,(%edx,%esi,4) - .byte 233,110,255,255,255 // jmp 1f02 <_sk_srcover_bgra_8888_sse2+0xfa> + .byte 233,157,254,255,255 // jmp 1e6f <_sk_srcover_bgra_8888_sse2+0x41> + .byte 102,15,126,28,178 // movd %xmm3,(%edx,%esi,4) + .byte 233,116,255,255,255 // jmp 1f50 <_sk_srcover_bgra_8888_sse2+0x122> HIDDEN _sk_clamp_0_sse2 .globl _sk_clamp_0_sse2 @@ -61936,10 +62502,10 @@ _sk_clamp_1_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp - .byte 232,0,0,0,0 // call 1fc8 <_sk_clamp_1_sse2+0xb> + .byte 232,0,0,0,0 // call 2010 <_sk_clamp_1_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx - .byte 15,40,160,104,217,0,0 // movaps 0xd968(%eax),%xmm4 + .byte 15,40,160,16,219,0,0 // movaps 0xdb10(%eax),%xmm4 .byte 15,93,196 // minps %xmm4,%xmm0 .byte 15,93,204 // minps %xmm4,%xmm1 .byte 15,93,212 // minps %xmm4,%xmm2 @@ -61960,10 +62526,10 @@ _sk_clamp_a_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp - .byte 232,0,0,0,0 // call 1ffb <_sk_clamp_a_sse2+0xb> + .byte 232,0,0,0,0 // call 2043 <_sk_clamp_a_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx - .byte 15,93,152,53,217,0,0 // minps 0xd935(%eax),%xmm3 + .byte 15,93,152,221,218,0,0 // minps 0xdadd(%eax),%xmm3 .byte 15,93,195 // minps %xmm3,%xmm0 .byte 15,93,203 // minps %xmm3,%xmm1 .byte 15,93,211 // minps %xmm3,%xmm2 @@ -61983,12 +62549,12 @@ _sk_clamp_a_dst_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp - .byte 232,0,0,0,0 // call 202b <_sk_clamp_a_dst_sse2+0xb> + .byte 232,0,0,0,0 // call 2073 <_sk_clamp_a_dst_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,85,8 // mov 0x8(%ebp),%edx .byte 15,40,98,64 // movaps 0x40(%edx),%xmm4 - .byte 15,93,160,5,217,0,0 // minps 0xd905(%eax),%xmm4 + .byte 15,93,160,173,218,0,0 // minps 0xdaad(%eax),%xmm4 .byte 15,41,98,64 // movaps %xmm4,0x40(%edx) .byte 15,40,106,16 // movaps 0x10(%edx),%xmm5 .byte 15,40,114,32 // movaps 0x20(%edx),%xmm6 @@ -62059,10 +62625,10 @@ _sk_invert_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp - .byte 232,0,0,0,0 // call 20d6 <_sk_invert_sse2+0xb> + .byte 232,0,0,0,0 // call 211e <_sk_invert_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx - .byte 15,40,160,90,216,0,0 // movaps 0xd85a(%eax),%xmm4 + .byte 15,40,160,2,218,0,0 // movaps 0xda02(%eax),%xmm4 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,92,232 // subps %xmm0,%xmm5 .byte 15,40,244 // movaps %xmm4,%xmm6 @@ -62181,13 +62747,13 @@ _sk_unpremul_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp - .byte 232,0,0,0,0 // call 21d4 <_sk_unpremul_sse2+0xb> + .byte 232,0,0,0,0 // call 221c <_sk_unpremul_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx - .byte 15,40,160,92,215,0,0 // movaps 0xd75c(%eax),%xmm4 + .byte 15,40,160,4,217,0,0 // movaps 0xd904(%eax),%xmm4 .byte 15,94,227 // divps %xmm3,%xmm4 .byte 15,40,236 // movaps %xmm4,%xmm5 - .byte 15,194,168,60,216,0,0,1 // cmpltps 0xd83c(%eax),%xmm5 + .byte 15,194,168,228,217,0,0,1 // cmpltps 0xd9e4(%eax),%xmm5 .byte 15,84,236 // andps %xmm4,%xmm5 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 15,89,205 // mulps %xmm5,%xmm1 @@ -62212,23 +62778,23 @@ _sk_from_srgb_sse2: .byte 15,40,234 // movaps %xmm2,%xmm5 .byte 15,40,217 // movaps %xmm1,%xmm3 .byte 15,40,208 // movaps %xmm0,%xmm2 - .byte 232,0,0,0,0 // call 2222 <_sk_from_srgb_sse2+0x18> + .byte 232,0,0,0,0 // call 226a <_sk_from_srgb_sse2+0x18> .byte 88 // pop %eax .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 15,89,201 // mulps %xmm1,%xmm1 - .byte 15,40,160,158,215,0,0 // movaps 0xd79e(%eax),%xmm4 + .byte 15,40,160,70,217,0,0 // movaps 0xd946(%eax),%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 - .byte 15,40,176,14,216,0,0 // movaps 0xd80e(%eax),%xmm6 + .byte 15,40,176,182,217,0,0 // movaps 0xd9b6(%eax),%xmm6 .byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp) .byte 15,88,198 // addps %xmm6,%xmm0 .byte 15,89,193 // mulps %xmm1,%xmm0 - .byte 15,40,176,254,215,0,0 // movaps 0xd7fe(%eax),%xmm6 + .byte 15,40,176,166,217,0,0 // movaps 0xd9a6(%eax),%xmm6 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 15,89,206 // mulps %xmm6,%xmm1 - .byte 15,40,184,30,216,0,0 // movaps 0xd81e(%eax),%xmm7 + .byte 15,40,184,198,217,0,0 // movaps 0xd9c6(%eax),%xmm7 .byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp) .byte 15,88,199 // addps %xmm7,%xmm0 - .byte 15,40,184,46,216,0,0 // movaps 0xd82e(%eax),%xmm7 + .byte 15,40,184,214,217,0,0 // movaps 0xd9d6(%eax),%xmm7 .byte 15,194,215,1 // cmpltps %xmm7,%xmm2 .byte 15,84,202 // andps %xmm2,%xmm1 .byte 15,85,208 // andnps %xmm0,%xmm2 @@ -62282,24 +62848,24 @@ _sk_from_srgb_dst_sse2: .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp) .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp) .byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp) - .byte 232,0,0,0,0 // call 22fd <_sk_from_srgb_dst_sse2+0x1b> + .byte 232,0,0,0,0 // call 2345 <_sk_from_srgb_dst_sse2+0x1b> .byte 89 // pop %ecx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 15,40,72,16 // movaps 0x10(%eax),%xmm1 .byte 15,40,233 // movaps %xmm1,%xmm5 .byte 15,89,237 // mulps %xmm5,%xmm5 - .byte 15,40,161,195,214,0,0 // movaps 0xd6c3(%ecx),%xmm4 + .byte 15,40,161,107,216,0,0 // movaps 0xd86b(%ecx),%xmm4 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 - .byte 15,40,177,51,215,0,0 // movaps 0xd733(%ecx),%xmm6 + .byte 15,40,177,219,216,0,0 // movaps 0xd8db(%ecx),%xmm6 .byte 15,88,198 // addps %xmm6,%xmm0 .byte 15,89,197 // mulps %xmm5,%xmm0 - .byte 15,40,169,35,215,0,0 // movaps 0xd723(%ecx),%xmm5 + .byte 15,40,169,203,216,0,0 // movaps 0xd8cb(%ecx),%xmm5 .byte 15,40,209 // movaps %xmm1,%xmm2 .byte 15,89,213 // mulps %xmm5,%xmm2 - .byte 15,40,185,67,215,0,0 // movaps 0xd743(%ecx),%xmm7 + .byte 15,40,185,235,216,0,0 // movaps 0xd8eb(%ecx),%xmm7 .byte 15,88,199 // addps %xmm7,%xmm0 - .byte 15,40,153,83,215,0,0 // movaps 0xd753(%ecx),%xmm3 + .byte 15,40,153,251,216,0,0 // movaps 0xd8fb(%ecx),%xmm3 .byte 15,194,203,1 // cmpltps %xmm3,%xmm1 .byte 15,84,209 // andps %xmm1,%xmm2 .byte 15,85,200 // andnps %xmm0,%xmm1 @@ -62358,28 +62924,28 @@ _sk_to_srgb_sse2: .byte 15,40,250 // movaps %xmm2,%xmm7 .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,40,208 // movaps %xmm0,%xmm2 - .byte 232,0,0,0,0 // call 23e8 <_sk_to_srgb_sse2+0x18> + .byte 232,0,0,0,0 // call 2430 <_sk_to_srgb_sse2+0x18> .byte 88 // pop %eax .byte 15,82,218 // rsqrtps %xmm2,%xmm3 - .byte 15,40,160,136,214,0,0 // movaps 0xd688(%eax),%xmm4 + .byte 15,40,160,48,216,0,0 // movaps 0xd830(%eax),%xmm4 .byte 15,40,235 // movaps %xmm3,%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 - .byte 15,40,128,152,214,0,0 // movaps 0xd698(%eax),%xmm0 + .byte 15,40,128,64,216,0,0 // movaps 0xd840(%eax),%xmm0 .byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp) .byte 15,88,232 // addps %xmm0,%xmm5 .byte 15,89,235 // mulps %xmm3,%xmm5 - .byte 15,40,128,168,214,0,0 // movaps 0xd6a8(%eax),%xmm0 + .byte 15,40,128,80,216,0,0 // movaps 0xd850(%eax),%xmm0 .byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp) .byte 15,88,232 // addps %xmm0,%xmm5 - .byte 15,40,128,184,214,0,0 // movaps 0xd6b8(%eax),%xmm0 + .byte 15,40,128,96,216,0,0 // movaps 0xd860(%eax),%xmm0 .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp) .byte 15,88,216 // addps %xmm0,%xmm3 .byte 15,83,195 // rcpps %xmm3,%xmm0 .byte 15,89,197 // mulps %xmm5,%xmm0 - .byte 15,40,168,120,214,0,0 // movaps 0xd678(%eax),%xmm5 + .byte 15,40,168,32,216,0,0 // movaps 0xd820(%eax),%xmm5 .byte 15,40,202 // movaps %xmm2,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 - .byte 15,40,152,200,214,0,0 // movaps 0xd6c8(%eax),%xmm3 + .byte 15,40,152,112,216,0,0 // movaps 0xd870(%eax),%xmm3 .byte 15,194,211,1 // cmpltps %xmm3,%xmm2 .byte 15,84,202 // andps %xmm2,%xmm1 .byte 15,85,208 // andnps %xmm0,%xmm2 @@ -62436,7 +63002,7 @@ _sk_rgb_to_hsl_sse2: .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp) .byte 15,40,249 // movaps %xmm1,%xmm7 .byte 15,40,224 // movaps %xmm0,%xmm4 - .byte 232,0,0,0,0 // call 24df <_sk_rgb_to_hsl_sse2+0x15> + .byte 232,0,0,0,0 // call 2527 <_sk_rgb_to_hsl_sse2+0x15> .byte 88 // pop %eax .byte 15,40,199 // movaps %xmm7,%xmm0 .byte 15,95,194 // maxps %xmm2,%xmm0 @@ -62450,14 +63016,14 @@ _sk_rgb_to_hsl_sse2: .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,92,193 // subps %xmm1,%xmm0 .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp) - .byte 15,40,136,81,212,0,0 // movaps 0xd451(%eax),%xmm1 + .byte 15,40,136,249,213,0,0 // movaps 0xd5f9(%eax),%xmm1 .byte 15,94,200 // divps %xmm0,%xmm1 .byte 15,40,199 // movaps %xmm7,%xmm0 .byte 15,92,194 // subps %xmm2,%xmm0 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,40,239 // movaps %xmm7,%xmm5 .byte 15,194,234,1 // cmpltps %xmm2,%xmm5 - .byte 15,84,168,225,213,0,0 // andps 0xd5e1(%eax),%xmm5 + .byte 15,84,168,137,215,0,0 // andps 0xd789(%eax),%xmm5 .byte 15,88,232 // addps %xmm0,%xmm5 .byte 15,40,195 // movaps %xmm3,%xmm0 .byte 15,194,196,0 // cmpeqps %xmm4,%xmm0 @@ -62467,9 +63033,9 @@ _sk_rgb_to_hsl_sse2: .byte 15,92,231 // subps %xmm7,%xmm4 .byte 15,89,209 // mulps %xmm1,%xmm2 .byte 15,89,225 // mulps %xmm1,%xmm4 - .byte 15,40,136,241,213,0,0 // movaps 0xd5f1(%eax),%xmm1 + .byte 15,40,136,153,215,0,0 // movaps 0xd799(%eax),%xmm1 .byte 15,88,209 // addps %xmm1,%xmm2 - .byte 15,88,160,1,214,0,0 // addps 0xd601(%eax),%xmm4 + .byte 15,88,160,169,215,0,0 // addps 0xd7a9(%eax),%xmm4 .byte 15,84,214 // andps %xmm6,%xmm2 .byte 15,85,244 // andnps %xmm4,%xmm6 .byte 15,86,242 // orps %xmm2,%xmm6 @@ -62481,7 +63047,7 @@ _sk_rgb_to_hsl_sse2: .byte 15,194,226,4 // cmpneqps %xmm2,%xmm4 .byte 15,92,203 // subps %xmm3,%xmm1 .byte 15,88,218 // addps %xmm2,%xmm3 - .byte 15,40,168,65,212,0,0 // movaps 0xd441(%eax),%xmm5 + .byte 15,40,168,233,213,0,0 // movaps 0xd5e9(%eax),%xmm5 .byte 15,92,202 // subps %xmm2,%xmm1 .byte 15,40,211 // movaps %xmm3,%xmm2 .byte 15,89,213 // mulps %xmm5,%xmm2 @@ -62491,7 +63057,7 @@ _sk_rgb_to_hsl_sse2: .byte 15,86,233 // orps %xmm1,%xmm5 .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1 .byte 15,94,205 // divps %xmm5,%xmm1 - .byte 15,89,128,17,214,0,0 // mulps 0xd611(%eax),%xmm0 + .byte 15,89,128,185,215,0,0 // mulps 0xd7b9(%eax),%xmm0 .byte 15,84,196 // andps %xmm4,%xmm0 .byte 15,84,204 // andps %xmm4,%xmm1 .byte 139,69,12 // mov 0xc(%ebp),%eax @@ -62514,9 +63080,9 @@ _sk_hsl_to_rgb_sse2: .byte 129,236,200,0,0,0 // sub $0xc8,%esp .byte 15,41,157,56,255,255,255 // movaps %xmm3,-0xc8(%ebp) .byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp) - .byte 232,0,0,0,0 // call 25da <_sk_hsl_to_rgb_sse2+0x19> + .byte 232,0,0,0,0 // call 2622 <_sk_hsl_to_rgb_sse2+0x19> .byte 88 // pop %eax - .byte 15,40,160,70,211,0,0 // movaps 0xd346(%eax),%xmm4 + .byte 15,40,160,238,212,0,0 // movaps 0xd4ee(%eax),%xmm4 .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp) .byte 15,194,218,2 // cmpleps %xmm2,%xmm3 @@ -62529,13 +63095,13 @@ _sk_hsl_to_rgb_sse2: .byte 15,84,243 // andps %xmm3,%xmm6 .byte 15,85,217 // andnps %xmm1,%xmm3 .byte 15,86,222 // orps %xmm6,%xmm3 - .byte 15,40,168,38,213,0,0 // movaps 0xd526(%eax),%xmm5 + .byte 15,40,168,206,214,0,0 // movaps 0xd6ce(%eax),%xmm5 .byte 15,88,232 // addps %xmm0,%xmm5 .byte 243,15,91,205 // cvttps2dq %xmm5,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,194,193,1 // cmpltps %xmm1,%xmm0 - .byte 15,40,176,86,211,0,0 // movaps 0xd356(%eax),%xmm6 + .byte 15,40,176,254,212,0,0 // movaps 0xd4fe(%eax),%xmm6 .byte 15,41,117,136 // movaps %xmm6,-0x78(%ebp) .byte 15,84,198 // andps %xmm6,%xmm0 .byte 15,92,200 // subps %xmm0,%xmm1 @@ -62545,19 +63111,19 @@ _sk_hsl_to_rgb_sse2: .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp) .byte 15,88,210 // addps %xmm2,%xmm2 .byte 15,92,211 // subps %xmm3,%xmm2 - .byte 15,40,184,54,213,0,0 // movaps 0xd536(%eax),%xmm7 + .byte 15,40,184,222,214,0,0 // movaps 0xd6de(%eax),%xmm7 .byte 15,41,189,88,255,255,255 // movaps %xmm7,-0xa8(%ebp) .byte 15,194,253,2 // cmpleps %xmm5,%xmm7 .byte 15,92,218 // subps %xmm2,%xmm3 .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp) .byte 15,40,204 // movaps %xmm4,%xmm1 .byte 15,194,205,2 // cmpleps %xmm5,%xmm1 - .byte 15,40,160,22,213,0,0 // movaps 0xd516(%eax),%xmm4 + .byte 15,40,160,190,214,0,0 // movaps 0xd6be(%eax),%xmm4 .byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp) .byte 15,194,229,2 // cmpleps %xmm5,%xmm4 - .byte 15,40,176,230,212,0,0 // movaps 0xd4e6(%eax),%xmm6 + .byte 15,40,176,142,214,0,0 // movaps 0xd68e(%eax),%xmm6 .byte 15,89,238 // mulps %xmm6,%xmm5 - .byte 15,40,128,6,213,0,0 // movaps 0xd506(%eax),%xmm0 + .byte 15,40,128,174,214,0,0 // movaps 0xd6ae(%eax),%xmm0 .byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp) .byte 15,92,197 // subps %xmm5,%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 @@ -62583,18 +63149,18 @@ _sk_hsl_to_rgb_sse2: .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,194,200,1 // cmpltps %xmm0,%xmm1 - .byte 15,84,136,86,211,0,0 // andps 0xd356(%eax),%xmm1 + .byte 15,84,136,254,212,0,0 // andps 0xd4fe(%eax),%xmm1 .byte 15,92,193 // subps %xmm1,%xmm0 .byte 15,40,203 // movaps %xmm3,%xmm1 .byte 15,92,200 // subps %xmm0,%xmm1 - .byte 15,40,128,54,213,0,0 // movaps 0xd536(%eax),%xmm0 + .byte 15,40,128,222,214,0,0 // movaps 0xd6de(%eax),%xmm0 .byte 15,194,193,2 // cmpleps %xmm1,%xmm0 - .byte 15,40,152,70,211,0,0 // movaps 0xd346(%eax),%xmm3 + .byte 15,40,152,238,212,0,0 // movaps 0xd4ee(%eax),%xmm3 .byte 15,194,217,2 // cmpleps %xmm1,%xmm3 - .byte 15,40,160,22,213,0,0 // movaps 0xd516(%eax),%xmm4 + .byte 15,40,160,190,214,0,0 // movaps 0xd6be(%eax),%xmm4 .byte 15,194,225,2 // cmpleps %xmm1,%xmm4 .byte 15,89,206 // mulps %xmm6,%xmm1 - .byte 15,40,168,6,213,0,0 // movaps 0xd506(%eax),%xmm5 + .byte 15,40,168,174,214,0,0 // movaps 0xd6ae(%eax),%xmm5 .byte 15,92,233 // subps %xmm1,%xmm5 .byte 15,89,239 // mulps %xmm7,%xmm5 .byte 15,88,234 // addps %xmm2,%xmm5 @@ -62614,7 +63180,7 @@ _sk_hsl_to_rgb_sse2: .byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7 .byte 15,85,252 // andnps %xmm4,%xmm7 .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3 - .byte 15,88,152,70,213,0,0 // addps 0xd546(%eax),%xmm3 + .byte 15,88,152,238,214,0,0 // addps 0xd6ee(%eax),%xmm3 .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,40,203 // movaps %xmm3,%xmm1 @@ -62701,7 +63267,7 @@ _sk_scale_u8_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 2854 <_sk_scale_u8_sse2+0xe> + .byte 232,0,0,0,0 // call 289c <_sk_scale_u8_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -62712,13 +63278,13 @@ _sk_scale_u8_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi - .byte 117,65 // jne 28b0 <_sk_scale_u8_sse2+0x6a> + .byte 117,65 // jne 28f8 <_sk_scale_u8_sse2+0x6a> .byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 - .byte 102,15,219,162,156,209,0,0 // pand 0xd19c(%edx),%xmm4 + .byte 102,15,219,162,68,211,0,0 // pand 0xd344(%edx),%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 15,89,162,220,210,0,0 // mulps 0xd2dc(%edx),%xmm4 + .byte 15,89,162,132,212,0,0 // mulps 0xd484(%edx),%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,89,212 // mulps %xmm4,%xmm2 @@ -62737,12 +63303,12 @@ _sk_scale_u8_sse2: .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,50 // je 28ea <_sk_scale_u8_sse2+0xa4> + .byte 116,50 // je 2932 <_sk_scale_u8_sse2+0xa4> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 128,251,2 // cmp $0x2,%bl - .byte 116,19 // je 28d4 <_sk_scale_u8_sse2+0x8e> + .byte 116,19 // je 291c <_sk_scale_u8_sse2+0x8e> .byte 128,251,3 // cmp $0x3,%bl - .byte 117,182 // jne 287c <_sk_scale_u8_sse2+0x36> + .byte 117,182 // jne 28c4 <_sk_scale_u8_sse2+0x36> .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx .byte 102,15,110,227 // movd %ebx,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 @@ -62751,10 +63317,10 @@ _sk_scale_u8_sse2: .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 - .byte 235,146 // jmp 287c <_sk_scale_u8_sse2+0x36> + .byte 235,146 // jmp 28c4 <_sk_scale_u8_sse2+0x36> .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi .byte 102,15,110,230 // movd %esi,%xmm4 - .byte 235,136 // jmp 287c <_sk_scale_u8_sse2+0x36> + .byte 235,136 // jmp 28c4 <_sk_scale_u8_sse2+0x36> HIDDEN _sk_scale_565_sse2 .globl _sk_scale_565_sse2 @@ -62769,7 +63335,7 @@ _sk_scale_565_sse2: .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp) .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp) .byte 102,15,111,200 // movdqa %xmm0,%xmm1 - .byte 232,0,0,0,0 // call 290e <_sk_scale_565_sse2+0x1a> + .byte 232,0,0,0,0 // call 2956 <_sk_scale_565_sse2+0x1a> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -62781,20 +63347,20 @@ _sk_scale_565_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi - .byte 15,133,157,0,0,0 // jne 29cc <_sk_scale_565_sse2+0xd8> + .byte 15,133,157,0,0,0 // jne 2a14 <_sk_scale_565_sse2+0xd8> .byte 243,15,126,52,126 // movq (%esi,%edi,2),%xmm6 .byte 102,15,97,240 // punpcklwd %xmm0,%xmm6 - .byte 102,15,111,162,50,210,0,0 // movdqa 0xd232(%edx),%xmm4 + .byte 102,15,111,162,218,211,0,0 // movdqa 0xd3da(%edx),%xmm4 .byte 102,15,219,230 // pand %xmm6,%xmm4 .byte 15,91,212 // cvtdq2ps %xmm4,%xmm2 - .byte 15,89,146,66,210,0,0 // mulps 0xd242(%edx),%xmm2 - .byte 102,15,111,170,82,210,0,0 // movdqa 0xd252(%edx),%xmm5 + .byte 15,89,146,234,211,0,0 // mulps 0xd3ea(%edx),%xmm2 + .byte 102,15,111,170,250,211,0,0 // movdqa 0xd3fa(%edx),%xmm5 .byte 102,15,219,238 // pand %xmm6,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 - .byte 15,89,170,98,210,0,0 // mulps 0xd262(%edx),%xmm5 - .byte 102,15,219,178,114,210,0,0 // pand 0xd272(%edx),%xmm6 + .byte 15,89,170,10,212,0,0 // mulps 0xd40a(%edx),%xmm5 + .byte 102,15,219,178,26,212,0,0 // pand 0xd41a(%edx),%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 - .byte 15,89,178,130,210,0,0 // mulps 0xd282(%edx),%xmm6 + .byte 15,89,178,42,212,0,0 // mulps 0xd42a(%edx),%xmm6 .byte 15,40,253 // movaps %xmm5,%xmm7 .byte 15,93,254 // minps %xmm6,%xmm7 .byte 15,40,226 // movaps %xmm2,%xmm4 @@ -62829,22 +63395,22 @@ _sk_scale_565_sse2: .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,51 // je 2a07 <_sk_scale_565_sse2+0x113> + .byte 116,51 // je 2a4f <_sk_scale_565_sse2+0x113> .byte 102,15,239,246 // pxor %xmm6,%xmm6 .byte 128,251,2 // cmp $0x2,%bl - .byte 116,23 // je 29f4 <_sk_scale_565_sse2+0x100> + .byte 116,23 // je 2a3c <_sk_scale_565_sse2+0x100> .byte 128,251,3 // cmp $0x3,%bl - .byte 15,133,82,255,255,255 // jne 2938 <_sk_scale_565_sse2+0x44> + .byte 15,133,82,255,255,255 // jne 2980 <_sk_scale_565_sse2+0x44> .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx .byte 102,15,110,227 // movd %ebx,%xmm4 .byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6 .byte 102,15,110,36,126 // movd (%esi,%edi,2),%xmm4 .byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4 .byte 242,15,16,244 // movsd %xmm4,%xmm6 - .byte 233,49,255,255,255 // jmp 2938 <_sk_scale_565_sse2+0x44> + .byte 233,49,255,255,255 // jmp 2980 <_sk_scale_565_sse2+0x44> .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi .byte 102,15,110,246 // movd %esi,%xmm6 - .byte 233,36,255,255,255 // jmp 2938 <_sk_scale_565_sse2+0x44> + .byte 233,36,255,255,255 // jmp 2980 <_sk_scale_565_sse2+0x44> HIDDEN _sk_lerp_1_float_sse2 .globl _sk_lerp_1_float_sse2 @@ -62893,7 +63459,7 @@ _sk_lerp_u8_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 2a7c <_sk_lerp_u8_sse2+0xe> + .byte 232,0,0,0,0 // call 2ac4 <_sk_lerp_u8_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -62904,13 +63470,13 @@ _sk_lerp_u8_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi - .byte 117,102 // jne 2afd <_sk_lerp_u8_sse2+0x8f> + .byte 117,102 // jne 2b45 <_sk_lerp_u8_sse2+0x8f> .byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 - .byte 102,15,219,162,116,207,0,0 // pand 0xcf74(%edx),%xmm4 + .byte 102,15,219,162,28,209,0,0 // pand 0xd11c(%edx),%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 15,89,162,180,208,0,0 // mulps 0xd0b4(%edx),%xmm4 + .byte 15,89,162,92,210,0,0 // mulps 0xd25c(%edx),%xmm4 .byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5 .byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6 .byte 15,92,197 // subps %xmm5,%xmm0 @@ -62940,12 +63506,12 @@ _sk_lerp_u8_sse2: .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,53 // je 2b3a <_sk_lerp_u8_sse2+0xcc> + .byte 116,53 // je 2b82 <_sk_lerp_u8_sse2+0xcc> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 128,251,2 // cmp $0x2,%bl - .byte 116,19 // je 2b21 <_sk_lerp_u8_sse2+0xb3> + .byte 116,19 // je 2b69 <_sk_lerp_u8_sse2+0xb3> .byte 128,251,3 // cmp $0x3,%bl - .byte 117,145 // jne 2aa4 <_sk_lerp_u8_sse2+0x36> + .byte 117,145 // jne 2aec <_sk_lerp_u8_sse2+0x36> .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx .byte 102,15,110,227 // movd %ebx,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 @@ -62954,10 +63520,10 @@ _sk_lerp_u8_sse2: .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 - .byte 233,106,255,255,255 // jmp 2aa4 <_sk_lerp_u8_sse2+0x36> + .byte 233,106,255,255,255 // jmp 2aec <_sk_lerp_u8_sse2+0x36> .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi .byte 102,15,110,230 // movd %esi,%xmm4 - .byte 233,93,255,255,255 // jmp 2aa4 <_sk_lerp_u8_sse2+0x36> + .byte 233,93,255,255,255 // jmp 2aec <_sk_lerp_u8_sse2+0x36> HIDDEN _sk_lerp_565_sse2 .globl _sk_lerp_565_sse2 @@ -62973,7 +63539,7 @@ _sk_lerp_565_sse2: .byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp) .byte 15,41,77,152 // movaps %xmm1,-0x68(%ebp) .byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp) - .byte 232,0,0,0,0 // call 2b66 <_sk_lerp_565_sse2+0x1f> + .byte 232,0,0,0,0 // call 2bae <_sk_lerp_565_sse2+0x1f> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -62985,20 +63551,20 @@ _sk_lerp_565_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi - .byte 15,133,211,0,0,0 // jne 2c5a <_sk_lerp_565_sse2+0x113> + .byte 15,133,211,0,0,0 // jne 2ca2 <_sk_lerp_565_sse2+0x113> .byte 243,15,126,44,126 // movq (%esi,%edi,2),%xmm5 .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5 - .byte 102,15,111,162,218,207,0,0 // movdqa 0xcfda(%edx),%xmm4 + .byte 102,15,111,162,130,209,0,0 // movdqa 0xd182(%edx),%xmm4 .byte 102,15,219,229 // pand %xmm5,%xmm4 .byte 15,91,204 // cvtdq2ps %xmm4,%xmm1 - .byte 15,89,138,234,207,0,0 // mulps 0xcfea(%edx),%xmm1 - .byte 102,15,111,178,250,207,0,0 // movdqa 0xcffa(%edx),%xmm6 + .byte 15,89,138,146,209,0,0 // mulps 0xd192(%edx),%xmm1 + .byte 102,15,111,178,162,209,0,0 // movdqa 0xd1a2(%edx),%xmm6 .byte 102,15,219,245 // pand %xmm5,%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 - .byte 15,89,178,10,208,0,0 // mulps 0xd00a(%edx),%xmm6 - .byte 102,15,219,170,26,208,0,0 // pand 0xd01a(%edx),%xmm5 + .byte 15,89,178,178,209,0,0 // mulps 0xd1b2(%edx),%xmm6 + .byte 102,15,219,170,194,209,0,0 // pand 0xd1c2(%edx),%xmm5 .byte 15,91,213 // cvtdq2ps %xmm5,%xmm2 - .byte 15,89,146,42,208,0,0 // mulps 0xd02a(%edx),%xmm2 + .byte 15,89,146,210,209,0,0 // mulps 0xd1d2(%edx),%xmm2 .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp) .byte 15,40,254 // movaps %xmm6,%xmm7 @@ -63048,22 +63614,22 @@ _sk_lerp_565_sse2: .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,51 // je 2c95 <_sk_lerp_565_sse2+0x14e> + .byte 116,51 // je 2cdd <_sk_lerp_565_sse2+0x14e> .byte 102,15,239,237 // pxor %xmm5,%xmm5 .byte 128,251,2 // cmp $0x2,%bl - .byte 116,23 // je 2c82 <_sk_lerp_565_sse2+0x13b> + .byte 116,23 // je 2cca <_sk_lerp_565_sse2+0x13b> .byte 128,251,3 // cmp $0x3,%bl - .byte 15,133,28,255,255,255 // jne 2b90 <_sk_lerp_565_sse2+0x49> + .byte 15,133,28,255,255,255 // jne 2bd8 <_sk_lerp_565_sse2+0x49> .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx .byte 102,15,110,227 // movd %ebx,%xmm4 .byte 102,15,112,236,69 // pshufd $0x45,%xmm4,%xmm5 .byte 102,15,110,36,126 // movd (%esi,%edi,2),%xmm4 .byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4 .byte 242,15,16,236 // movsd %xmm4,%xmm5 - .byte 233,251,254,255,255 // jmp 2b90 <_sk_lerp_565_sse2+0x49> + .byte 233,251,254,255,255 // jmp 2bd8 <_sk_lerp_565_sse2+0x49> .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi .byte 102,15,110,238 // movd %esi,%xmm5 - .byte 233,238,254,255,255 // jmp 2b90 <_sk_lerp_565_sse2+0x49> + .byte 233,238,254,255,255 // jmp 2bd8 <_sk_lerp_565_sse2+0x49> HIDDEN _sk_load_tables_sse2 .globl _sk_load_tables_sse2 @@ -63075,7 +63641,7 @@ _sk_load_tables_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 2cb0 <_sk_load_tables_sse2+0xe> + .byte 232,0,0,0,0 // call 2cf8 <_sk_load_tables_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -63084,9 +63650,9 @@ _sk_load_tables_sse2: .byte 133,192 // test %eax,%eax .byte 139,57 // mov (%ecx),%edi .byte 139,30 // mov (%esi),%ebx - .byte 15,133,22,1,0,0 // jne 2dde <_sk_load_tables_sse2+0x13c> + .byte 15,133,22,1,0,0 // jne 2e26 <_sk_load_tables_sse2+0x13c> .byte 243,15,111,28,187 // movdqu (%ebx,%edi,4),%xmm3 - .byte 102,15,111,146,64,205,0,0 // movdqa 0xcd40(%edx),%xmm2 + .byte 102,15,111,146,232,206,0,0 // movdqa 0xcee8(%edx),%xmm2 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 @@ -63142,7 +63708,7 @@ _sk_load_tables_sse2: .byte 102,15,20,215 // unpcklpd %xmm7,%xmm2 .byte 102,15,114,211,24 // psrld $0x18,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 - .byte 15,89,154,128,206,0,0 // mulps 0xce80(%edx),%xmm3 + .byte 15,89,154,40,208,0,0 // mulps 0xd028(%edx),%xmm3 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 137,194 // mov %eax,%edx .byte 141,66,8 // lea 0x8(%edx),%eax @@ -63158,18 +63724,18 @@ _sk_load_tables_sse2: .byte 195 // ret .byte 36,3 // and $0x3,%al .byte 60,1 // cmp $0x1,%al - .byte 116,37 // je 2e09 <_sk_load_tables_sse2+0x167> + .byte 116,37 // je 2e51 <_sk_load_tables_sse2+0x167> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 60,2 // cmp $0x2,%al - .byte 116,19 // je 2dff <_sk_load_tables_sse2+0x15d> + .byte 116,19 // je 2e47 <_sk_load_tables_sse2+0x15d> .byte 60,3 // cmp $0x3,%al - .byte 15,133,217,254,255,255 // jne 2ccd <_sk_load_tables_sse2+0x2b> + .byte 15,133,217,254,255,255 // jne 2d15 <_sk_load_tables_sse2+0x2b> .byte 102,15,110,68,187,8 // movd 0x8(%ebx,%edi,4),%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 102,15,18,28,187 // movlpd (%ebx,%edi,4),%xmm3 - .byte 233,196,254,255,255 // jmp 2ccd <_sk_load_tables_sse2+0x2b> + .byte 233,196,254,255,255 // jmp 2d15 <_sk_load_tables_sse2+0x2b> .byte 102,15,110,28,187 // movd (%ebx,%edi,4),%xmm3 - .byte 233,186,254,255,255 // jmp 2ccd <_sk_load_tables_sse2+0x2b> + .byte 233,186,254,255,255 // jmp 2d15 <_sk_load_tables_sse2+0x2b> HIDDEN _sk_load_tables_u16_be_sse2 .globl _sk_load_tables_u16_be_sse2 @@ -63181,7 +63747,7 @@ _sk_load_tables_u16_be_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,44 // sub $0x2c,%esp - .byte 232,0,0,0,0 // call 2e21 <_sk_load_tables_u16_be_sse2+0xe> + .byte 232,0,0,0,0 // call 2e69 <_sk_load_tables_u16_be_sse2+0xe> .byte 90 // pop %edx .byte 139,117,12 // mov 0xc(%ebp),%esi .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -63191,7 +63757,7 @@ _sk_load_tables_u16_be_sse2: .byte 133,192 // test %eax,%eax .byte 139,54 // mov (%esi),%esi .byte 139,30 // mov (%esi),%ebx - .byte 15,133,210,1,0,0 // jne 300e <_sk_load_tables_u16_be_sse2+0x1fb> + .byte 15,133,210,1,0,0 // jne 3056 <_sk_load_tables_u16_be_sse2+0x1fb> .byte 102,15,16,4,123 // movupd (%ebx,%edi,2),%xmm0 .byte 243,15,111,76,123,16 // movdqu 0x10(%ebx,%edi,2),%xmm1 .byte 102,15,40,216 // movapd %xmm0,%xmm3 @@ -63217,7 +63783,7 @@ _sk_load_tables_u16_be_sse2: .byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0 .byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 - .byte 102,15,111,146,127,205,0,0 // movdqa 0xcd7f(%edx),%xmm2 + .byte 102,15,111,146,39,207,0,0 // movdqa 0xcf27(%edx),%xmm2 .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,97,196 // punpcklwd %xmm4,%xmm0 @@ -63289,7 +63855,7 @@ _sk_load_tables_u16_be_sse2: .byte 243,15,126,93,232 // movq -0x18(%ebp),%xmm3 .byte 102,15,97,220 // punpcklwd %xmm4,%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 - .byte 15,89,154,143,205,0,0 // mulps 0xcd8f(%edx),%xmm3 + .byte 15,89,154,55,207,0,0 // mulps 0xcf37(%edx),%xmm3 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 137,194 // mov %eax,%edx .byte 141,66,8 // lea 0x8(%edx),%eax @@ -63306,12 +63872,12 @@ _sk_load_tables_u16_be_sse2: .byte 242,15,16,4,123 // movsd (%ebx,%edi,2),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 131,248,1 // cmp $0x1,%eax - .byte 15,132,39,254,255,255 // je 2e47 <_sk_load_tables_u16_be_sse2+0x34> + .byte 15,132,39,254,255,255 // je 2e8f <_sk_load_tables_u16_be_sse2+0x34> .byte 102,15,22,68,123,8 // movhpd 0x8(%ebx,%edi,2),%xmm0 .byte 131,248,3 // cmp $0x3,%eax - .byte 15,130,24,254,255,255 // jb 2e47 <_sk_load_tables_u16_be_sse2+0x34> + .byte 15,130,24,254,255,255 // jb 2e8f <_sk_load_tables_u16_be_sse2+0x34> .byte 243,15,126,76,123,16 // movq 0x10(%ebx,%edi,2),%xmm1 - .byte 233,13,254,255,255 // jmp 2e47 <_sk_load_tables_u16_be_sse2+0x34> + .byte 233,13,254,255,255 // jmp 2e8f <_sk_load_tables_u16_be_sse2+0x34> HIDDEN _sk_load_tables_rgb_u16_be_sse2 .globl _sk_load_tables_rgb_u16_be_sse2 @@ -63323,7 +63889,7 @@ _sk_load_tables_rgb_u16_be_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,28 // sub $0x1c,%esp - .byte 232,0,0,0,0 // call 3048 <_sk_load_tables_rgb_u16_be_sse2+0xe> + .byte 232,0,0,0,0 // call 3090 <_sk_load_tables_rgb_u16_be_sse2+0xe> .byte 90 // pop %edx .byte 139,117,12 // mov 0xc(%ebp),%esi .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -63332,7 +63898,7 @@ _sk_load_tables_rgb_u16_be_sse2: .byte 133,192 // test %eax,%eax .byte 139,54 // mov (%esi),%esi .byte 139,30 // mov (%esi),%ebx - .byte 15,133,179,1,0,0 // jne 3214 <_sk_load_tables_rgb_u16_be_sse2+0x1da> + .byte 15,133,179,1,0,0 // jne 325c <_sk_load_tables_rgb_u16_be_sse2+0x1da> .byte 243,15,111,4,123 // movdqu (%ebx,%edi,2),%xmm0 .byte 243,15,111,92,123,8 // movdqu 0x8(%ebx,%edi,2),%xmm3 .byte 102,15,115,219,4 // psrldq $0x4,%xmm3 @@ -63362,7 +63928,7 @@ _sk_load_tables_rgb_u16_be_sse2: .byte 242,15,112,194,232 // pshuflw $0xe8,%xmm2,%xmm0 .byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 - .byte 102,15,111,146,88,203,0,0 // movdqa 0xcb58(%edx),%xmm2 + .byte 102,15,111,146,0,205,0,0 // movdqa 0xcd00(%edx),%xmm2 .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,97,195 // punpcklwd %xmm3,%xmm0 @@ -63427,7 +63993,7 @@ _sk_load_tables_rgb_u16_be_sse2: .byte 137,198 // mov %eax,%esi .byte 141,70,8 // lea 0x8(%esi),%eax .byte 131,236,8 // sub $0x8,%esp - .byte 15,40,154,232,200,0,0 // movaps 0xc8e8(%edx),%xmm3 + .byte 15,40,154,144,202,0,0 // movaps 0xca90(%edx),%xmm3 .byte 80 // push %eax .byte 81 // push %ecx .byte 255,86,4 // call *0x4(%esi) @@ -63441,20 +64007,20 @@ _sk_load_tables_rgb_u16_be_sse2: .byte 102,15,196,68,123,4,2 // pinsrw $0x2,0x4(%ebx,%edi,2),%xmm0 .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 131,248,1 // cmp $0x1,%eax - .byte 117,13 // jne 3236 <_sk_load_tables_rgb_u16_be_sse2+0x1fc> + .byte 117,13 // jne 327e <_sk_load_tables_rgb_u16_be_sse2+0x1fc> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,239,201 // pxor %xmm1,%xmm1 - .byte 233,77,254,255,255 // jmp 3083 <_sk_load_tables_rgb_u16_be_sse2+0x49> + .byte 233,77,254,255,255 // jmp 30cb <_sk_load_tables_rgb_u16_be_sse2+0x49> .byte 102,15,110,76,123,6 // movd 0x6(%ebx,%edi,2),%xmm1 .byte 102,15,196,76,123,10,2 // pinsrw $0x2,0xa(%ebx,%edi,2),%xmm1 .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 131,248,3 // cmp $0x3,%eax - .byte 114,18 // jb 325e <_sk_load_tables_rgb_u16_be_sse2+0x224> + .byte 114,18 // jb 32a6 <_sk_load_tables_rgb_u16_be_sse2+0x224> .byte 102,15,110,92,123,12 // movd 0xc(%ebx,%edi,2),%xmm3 .byte 102,15,196,92,123,16,2 // pinsrw $0x2,0x10(%ebx,%edi,2),%xmm3 - .byte 233,37,254,255,255 // jmp 3083 <_sk_load_tables_rgb_u16_be_sse2+0x49> + .byte 233,37,254,255,255 // jmp 30cb <_sk_load_tables_rgb_u16_be_sse2+0x49> .byte 102,15,239,219 // pxor %xmm3,%xmm3 - .byte 233,28,254,255,255 // jmp 3083 <_sk_load_tables_rgb_u16_be_sse2+0x49> + .byte 233,28,254,255,255 // jmp 30cb <_sk_load_tables_rgb_u16_be_sse2+0x49> HIDDEN _sk_byte_tables_sse2 .globl _sk_byte_tables_sse2 @@ -63466,108 +64032,121 @@ _sk_byte_tables_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 3275 <_sk_byte_tables_sse2+0xe> - .byte 90 // pop %edx + .byte 232,0,0,0,0 // call 32bd <_sk_byte_tables_sse2+0xe> + .byte 89 // pop %ecx .byte 139,69,12 // mov 0xc(%ebp),%eax - .byte 139,8 // mov (%eax),%ecx - .byte 15,40,162,139,199,0,0 // movaps 0xc78b(%edx),%xmm4 - .byte 15,89,196 // mulps %xmm4,%xmm0 - .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 - .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5 - .byte 102,15,126,238 // movd %xmm5,%esi - .byte 102,15,112,232,231 // pshufd $0xe7,%xmm0,%xmm5 - .byte 139,57 // mov (%ecx),%edi + .byte 139,16 // mov (%eax),%edx + .byte 15,87,237 // xorps %xmm5,%xmm5 + .byte 15,95,232 // maxps %xmm0,%xmm5 + .byte 15,40,129,99,200,0,0 // movaps 0xc863(%ecx),%xmm0 + .byte 15,93,232 // minps %xmm0,%xmm5 + .byte 15,40,161,51,201,0,0 // movaps 0xc933(%ecx),%xmm4 + .byte 15,89,236 // mulps %xmm4,%xmm5 + .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 + .byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6 + .byte 102,15,126,246 // movd %xmm6,%esi + .byte 102,15,112,245,231 // pshufd $0xe7,%xmm5,%xmm6 + .byte 139,58 // mov (%edx),%edi .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi - .byte 102,15,126,235 // movd %xmm5,%ebx + .byte 102,15,126,243 // movd %xmm6,%ebx .byte 15,182,28,31 // movzbl (%edi,%ebx,1),%ebx .byte 193,227,8 // shl $0x8,%ebx .byte 9,243 // or %esi,%ebx - .byte 102,15,112,232,229 // pshufd $0xe5,%xmm0,%xmm5 - .byte 102,15,126,198 // movd %xmm0,%esi + .byte 102,15,112,245,229 // pshufd $0xe5,%xmm5,%xmm6 + .byte 102,15,126,238 // movd %xmm5,%esi .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi - .byte 102,15,126,232 // movd %xmm5,%eax + .byte 102,15,126,240 // movd %xmm6,%eax .byte 15,182,4,7 // movzbl (%edi,%eax,1),%eax .byte 193,224,8 // shl $0x8,%eax .byte 9,240 // or %esi,%eax - .byte 102,15,110,192 // movd %eax,%xmm0 - .byte 139,65,4 // mov 0x4(%ecx),%eax - .byte 102,15,196,195,1 // pinsrw $0x1,%ebx,%xmm0 - .byte 15,40,170,187,200,0,0 // movaps 0xc8bb(%edx),%xmm5 - .byte 15,89,204 // mulps %xmm4,%xmm1 - .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 + .byte 102,15,110,232 // movd %eax,%xmm5 + .byte 139,66,4 // mov 0x4(%edx),%eax + .byte 102,15,196,235,1 // pinsrw $0x1,%ebx,%xmm5 + .byte 102,15,239,246 // pxor %xmm6,%xmm6 + .byte 15,95,241 // maxps %xmm1,%xmm6 + .byte 15,93,240 // minps %xmm0,%xmm6 + .byte 15,89,244 // mulps %xmm4,%xmm6 + .byte 102,15,91,206 // cvtps2dq %xmm6,%xmm1 .byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6 - .byte 102,15,126,242 // movd %xmm6,%edx - .byte 102,15,112,241,231 // pshufd $0xe7,%xmm1,%xmm6 .byte 102,15,126,246 // movd %xmm6,%esi - .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx + .byte 102,15,112,241,231 // pshufd $0xe7,%xmm1,%xmm6 .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi - .byte 193,230,8 // shl $0x8,%esi - .byte 9,214 // or %edx,%esi - .byte 102,15,126,202 // movd %xmm1,%edx - .byte 102,15,112,201,229 // pshufd $0xe5,%xmm1,%xmm1 - .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx - .byte 102,15,126,207 // movd %xmm1,%edi - .byte 15,182,4,56 // movzbl (%eax,%edi,1),%eax + .byte 102,15,126,247 // movd %xmm6,%edi + .byte 15,182,60,56 // movzbl (%eax,%edi,1),%edi + .byte 193,231,8 // shl $0x8,%edi + .byte 9,247 // or %esi,%edi + .byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6 + .byte 102,15,126,206 // movd %xmm1,%esi + .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi + .byte 102,15,126,243 // movd %xmm6,%ebx + .byte 15,182,4,24 // movzbl (%eax,%ebx,1),%eax .byte 193,224,8 // shl $0x8,%eax - .byte 9,208 // or %edx,%eax + .byte 9,240 // or %esi,%eax .byte 102,15,110,200 // movd %eax,%xmm1 - .byte 102,15,196,206,1 // pinsrw $0x1,%esi,%xmm1 - .byte 139,65,8 // mov 0x8(%ecx),%eax - .byte 15,89,212 // mulps %xmm4,%xmm2 - .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2 + .byte 102,15,196,207,1 // pinsrw $0x1,%edi,%xmm1 + .byte 139,66,8 // mov 0x8(%edx),%eax + .byte 102,15,239,246 // pxor %xmm6,%xmm6 + .byte 15,95,242 // maxps %xmm2,%xmm6 + .byte 15,93,240 // minps %xmm0,%xmm6 + .byte 15,89,244 // mulps %xmm4,%xmm6 + .byte 102,15,91,214 // cvtps2dq %xmm6,%xmm2 .byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6 - .byte 102,15,126,242 // movd %xmm6,%edx - .byte 102,15,112,242,231 // pshufd $0xe7,%xmm2,%xmm6 .byte 102,15,126,246 // movd %xmm6,%esi + .byte 102,15,112,242,231 // pshufd $0xe7,%xmm2,%xmm6 + .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi + .byte 102,15,126,247 // movd %xmm6,%edi + .byte 15,182,60,56 // movzbl (%eax,%edi,1),%edi + .byte 193,231,8 // shl $0x8,%edi + .byte 9,247 // or %esi,%edi + .byte 102,15,112,242,229 // pshufd $0xe5,%xmm2,%xmm6 + .byte 102,15,126,214 // movd %xmm2,%esi + .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi + .byte 102,15,126,243 // movd %xmm6,%ebx + .byte 15,182,4,24 // movzbl (%eax,%ebx,1),%eax + .byte 193,224,8 // shl $0x8,%eax + .byte 9,240 // or %esi,%eax + .byte 102,15,87,210 // xorpd %xmm2,%xmm2 + .byte 15,95,211 // maxps %xmm3,%xmm2 + .byte 15,93,208 // minps %xmm0,%xmm2 + .byte 102,15,110,216 // movd %eax,%xmm3 + .byte 102,15,196,223,1 // pinsrw $0x1,%edi,%xmm3 + .byte 139,66,12 // mov 0xc(%edx),%eax + .byte 15,89,212 // mulps %xmm4,%xmm2 + .byte 102,15,91,194 // cvtps2dq %xmm2,%xmm0 + .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2 + .byte 102,15,126,210 // movd %xmm2,%edx + .byte 102,15,112,208,231 // pshufd $0xe7,%xmm0,%xmm2 + .byte 102,15,126,214 // movd %xmm2,%esi .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi .byte 193,230,8 // shl $0x8,%esi .byte 9,214 // or %edx,%esi - .byte 102,15,126,210 // movd %xmm2,%edx - .byte 102,15,112,210,229 // pshufd $0xe5,%xmm2,%xmm2 + .byte 102,15,126,194 // movd %xmm0,%edx + .byte 102,15,112,192,229 // pshufd $0xe5,%xmm0,%xmm0 .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx - .byte 102,15,126,215 // movd %xmm2,%edi + .byte 102,15,126,199 // movd %xmm0,%edi .byte 15,182,4,56 // movzbl (%eax,%edi,1),%eax .byte 193,224,8 // shl $0x8,%eax .byte 9,208 // or %edx,%eax - .byte 102,15,110,208 // movd %eax,%xmm2 - .byte 102,15,196,214,1 // pinsrw $0x1,%esi,%xmm2 - .byte 139,65,12 // mov 0xc(%ecx),%eax - .byte 15,89,220 // mulps %xmm4,%xmm3 - .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3 - .byte 102,15,126,217 // movd %xmm3,%ecx - .byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4 - .byte 102,15,112,243,78 // pshufd $0x4e,%xmm3,%xmm6 - .byte 102,15,126,242 // movd %xmm6,%edx - .byte 102,15,112,219,231 // pshufd $0xe7,%xmm3,%xmm3 - .byte 102,15,126,222 // movd %xmm3,%esi - .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx - .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi - .byte 193,230,8 // shl $0x8,%esi - .byte 9,214 // or %edx,%esi - .byte 102,15,126,226 // movd %xmm4,%edx - .byte 15,182,12,8 // movzbl (%eax,%ecx,1),%ecx - .byte 15,182,4,16 // movzbl (%eax,%edx,1),%eax - .byte 193,224,8 // shl $0x8,%eax - .byte 9,200 // or %ecx,%eax - .byte 102,15,110,216 // movd %eax,%xmm3 - .byte 102,15,239,228 // pxor %xmm4,%xmm4 - .byte 102,15,96,196 // punpcklbw %xmm4,%xmm0 - .byte 102,15,97,196 // punpcklwd %xmm4,%xmm0 - .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 + .byte 102,15,110,224 // movd %eax,%xmm4 + .byte 102,15,196,230,1 // pinsrw $0x1,%esi,%xmm4 + .byte 102,15,239,210 // pxor %xmm2,%xmm2 + .byte 102,15,96,234 // punpcklbw %xmm2,%xmm5 + .byte 102,15,97,234 // punpcklwd %xmm2,%xmm5 + .byte 15,91,197 // cvtdq2ps %xmm5,%xmm0 + .byte 102,15,96,202 // punpcklbw %xmm2,%xmm1 + .byte 102,15,97,202 // punpcklwd %xmm2,%xmm1 + .byte 102,15,96,218 // punpcklbw %xmm2,%xmm3 + .byte 102,15,97,218 // punpcklwd %xmm2,%xmm3 + .byte 102,15,96,226 // punpcklbw %xmm2,%xmm4 + .byte 102,15,97,226 // punpcklwd %xmm2,%xmm4 + .byte 15,40,169,99,202,0,0 // movaps 0xca63(%ecx),%xmm5 .byte 15,89,197 // mulps %xmm5,%xmm0 - .byte 102,15,96,204 // punpcklbw %xmm4,%xmm1 - .byte 102,15,97,204 // punpcklwd %xmm4,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 - .byte 102,15,96,212 // punpcklbw %xmm4,%xmm2 - .byte 102,15,97,212 // punpcklwd %xmm4,%xmm2 - .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 + .byte 15,91,211 // cvtdq2ps %xmm3,%xmm2 .byte 15,89,213 // mulps %xmm5,%xmm2 - .byte 102,15,196,222,1 // pinsrw $0x1,%esi,%xmm3 - .byte 102,15,96,220 // punpcklbw %xmm4,%xmm3 - .byte 102,15,97,220 // punpcklwd %xmm4,%xmm3 - .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 + .byte 15,91,220 // cvtdq2ps %xmm4,%xmm3 .byte 15,89,221 // mulps %xmm5,%xmm3 .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 141,65,8 // lea 0x8(%ecx),%eax @@ -63592,94 +64171,105 @@ _sk_byte_tables_rgb_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp + .byte 232,0,0,0,0 // call 3490 <_sk_byte_tables_rgb_sse2+0xe> + .byte 89 // pop %ecx .byte 139,69,12 // mov 0xc(%ebp),%eax - .byte 139,8 // mov (%eax),%ecx - .byte 139,81,12 // mov 0xc(%ecx),%edx - .byte 74 // dec %edx - .byte 102,15,110,226 // movd %edx,%xmm4 + .byte 139,16 // mov (%eax),%edx + .byte 139,114,12 // mov 0xc(%edx),%esi + .byte 78 // dec %esi + .byte 102,15,110,230 // movd %esi,%xmm4 .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 15,89,196 // mulps %xmm4,%xmm0 - .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 - .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5 - .byte 102,15,126,234 // movd %xmm5,%edx - .byte 102,15,112,232,231 // pshufd $0xe7,%xmm0,%xmm5 + .byte 15,87,237 // xorps %xmm5,%xmm5 + .byte 15,95,232 // maxps %xmm0,%xmm5 + .byte 15,40,129,144,198,0,0 // movaps 0xc690(%ecx),%xmm0 + .byte 15,93,232 // minps %xmm0,%xmm5 + .byte 15,89,236 // mulps %xmm4,%xmm5 + .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 + .byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6 + .byte 102,15,126,246 // movd %xmm6,%esi + .byte 102,15,112,245,231 // pshufd $0xe7,%xmm5,%xmm6 + .byte 139,58 // mov (%edx),%edi + .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi + .byte 102,15,126,243 // movd %xmm6,%ebx + .byte 15,182,28,31 // movzbl (%edi,%ebx,1),%ebx + .byte 193,227,8 // shl $0x8,%ebx + .byte 9,243 // or %esi,%ebx + .byte 102,15,112,245,229 // pshufd $0xe5,%xmm5,%xmm6 .byte 102,15,126,238 // movd %xmm5,%esi - .byte 139,57 // mov (%ecx),%edi - .byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi - .byte 193,230,8 // shl $0x8,%esi - .byte 9,214 // or %edx,%esi - .byte 102,15,126,194 // movd %xmm0,%edx - .byte 102,15,112,192,229 // pshufd $0xe5,%xmm0,%xmm0 - .byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx - .byte 102,15,126,195 // movd %xmm0,%ebx - .byte 15,182,60,31 // movzbl (%edi,%ebx,1),%edi - .byte 193,231,8 // shl $0x8,%edi - .byte 9,215 // or %edx,%edi - .byte 232,0,0,0,0 // call 3471 <_sk_byte_tables_rgb_sse2+0x65> - .byte 90 // pop %edx - .byte 102,15,110,199 // movd %edi,%xmm0 - .byte 139,121,4 // mov 0x4(%ecx),%edi - .byte 102,15,196,198,1 // pinsrw $0x1,%esi,%xmm0 - .byte 15,40,170,191,198,0,0 // movaps 0xc6bf(%edx),%xmm5 - .byte 15,89,204 // mulps %xmm4,%xmm1 - .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1 + .byte 102,15,126,240 // movd %xmm6,%eax + .byte 15,182,4,7 // movzbl (%edi,%eax,1),%eax + .byte 193,224,8 // shl $0x8,%eax + .byte 9,240 // or %esi,%eax + .byte 102,15,110,232 // movd %eax,%xmm5 + .byte 139,66,4 // mov 0x4(%edx),%eax + .byte 102,15,196,235,1 // pinsrw $0x1,%ebx,%xmm5 + .byte 102,15,239,246 // pxor %xmm6,%xmm6 + .byte 15,95,241 // maxps %xmm1,%xmm6 + .byte 15,93,240 // minps %xmm0,%xmm6 + .byte 15,89,244 // mulps %xmm4,%xmm6 + .byte 102,15,91,206 // cvtps2dq %xmm6,%xmm1 .byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6 - .byte 102,15,126,242 // movd %xmm6,%edx - .byte 102,15,112,241,231 // pshufd $0xe7,%xmm1,%xmm6 - .byte 102,15,126,246 // movd %xmm6,%esi - .byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx - .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi - .byte 193,230,8 // shl $0x8,%esi - .byte 9,214 // or %edx,%esi - .byte 102,15,126,202 // movd %xmm1,%edx - .byte 102,15,112,201,229 // pshufd $0xe5,%xmm1,%xmm1 - .byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx - .byte 102,15,126,203 // movd %xmm1,%ebx - .byte 15,182,60,31 // movzbl (%edi,%ebx,1),%edi - .byte 193,231,8 // shl $0x8,%edi - .byte 9,215 // or %edx,%edi - .byte 102,15,110,207 // movd %edi,%xmm1 - .byte 102,15,196,206,1 // pinsrw $0x1,%esi,%xmm1 - .byte 139,73,8 // mov 0x8(%ecx),%ecx - .byte 15,89,212 // mulps %xmm4,%xmm2 - .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2 - .byte 102,15,126,210 // movd %xmm2,%edx - .byte 102,15,112,226,229 // pshufd $0xe5,%xmm2,%xmm4 - .byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6 .byte 102,15,126,246 // movd %xmm6,%esi - .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2 - .byte 102,15,126,215 // movd %xmm2,%edi - .byte 15,182,52,49 // movzbl (%ecx,%esi,1),%esi - .byte 15,182,60,57 // movzbl (%ecx,%edi,1),%edi + .byte 102,15,112,241,231 // pshufd $0xe7,%xmm1,%xmm6 + .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi + .byte 102,15,126,247 // movd %xmm6,%edi + .byte 15,182,60,56 // movzbl (%eax,%edi,1),%edi .byte 193,231,8 // shl $0x8,%edi .byte 9,247 // or %esi,%edi - .byte 102,15,126,230 // movd %xmm4,%esi - .byte 15,182,20,17 // movzbl (%ecx,%edx,1),%edx - .byte 15,182,12,49 // movzbl (%ecx,%esi,1),%ecx - .byte 193,225,8 // shl $0x8,%ecx - .byte 9,209 // or %edx,%ecx - .byte 102,15,110,209 // movd %ecx,%xmm2 - .byte 102,15,239,228 // pxor %xmm4,%xmm4 - .byte 102,15,96,196 // punpcklbw %xmm4,%xmm0 - .byte 102,15,97,196 // punpcklwd %xmm4,%xmm0 - .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 + .byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6 + .byte 102,15,126,206 // movd %xmm1,%esi + .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi + .byte 102,15,126,243 // movd %xmm6,%ebx + .byte 15,182,4,24 // movzbl (%eax,%ebx,1),%eax + .byte 193,224,8 // shl $0x8,%eax + .byte 9,240 // or %esi,%eax + .byte 102,15,87,201 // xorpd %xmm1,%xmm1 + .byte 15,95,202 // maxps %xmm2,%xmm1 + .byte 15,93,200 // minps %xmm0,%xmm1 + .byte 102,15,110,208 // movd %eax,%xmm2 + .byte 102,15,196,215,1 // pinsrw $0x1,%edi,%xmm2 + .byte 139,66,8 // mov 0x8(%edx),%eax + .byte 15,89,204 // mulps %xmm4,%xmm1 + .byte 102,15,91,193 // cvtps2dq %xmm1,%xmm0 + .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 + .byte 102,15,126,202 // movd %xmm1,%edx + .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1 + .byte 102,15,126,206 // movd %xmm1,%esi + .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx + .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi + .byte 193,230,8 // shl $0x8,%esi + .byte 9,214 // or %edx,%esi + .byte 102,15,126,194 // movd %xmm0,%edx + .byte 102,15,112,192,229 // pshufd $0xe5,%xmm0,%xmm0 + .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx + .byte 102,15,126,199 // movd %xmm0,%edi + .byte 15,182,4,56 // movzbl (%eax,%edi,1),%eax + .byte 193,224,8 // shl $0x8,%eax + .byte 9,208 // or %edx,%eax + .byte 102,15,110,224 // movd %eax,%xmm4 + .byte 102,15,196,230,1 // pinsrw $0x1,%esi,%xmm4 + .byte 102,15,239,201 // pxor %xmm1,%xmm1 + .byte 102,15,96,233 // punpcklbw %xmm1,%xmm5 + .byte 102,15,97,233 // punpcklwd %xmm1,%xmm5 + .byte 15,91,197 // cvtdq2ps %xmm5,%xmm0 + .byte 102,15,96,209 // punpcklbw %xmm1,%xmm2 + .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2 + .byte 102,15,96,225 // punpcklbw %xmm1,%xmm4 + .byte 102,15,97,225 // punpcklwd %xmm1,%xmm4 + .byte 15,40,169,144,200,0,0 // movaps 0xc890(%ecx),%xmm5 .byte 15,89,197 // mulps %xmm5,%xmm0 - .byte 102,15,96,204 // punpcklbw %xmm4,%xmm1 - .byte 102,15,97,204 // punpcklwd %xmm4,%xmm1 - .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 + .byte 15,91,202 // cvtdq2ps %xmm2,%xmm1 .byte 15,89,205 // mulps %xmm5,%xmm1 - .byte 102,15,196,215,1 // pinsrw $0x1,%edi,%xmm2 - .byte 102,15,96,212 // punpcklbw %xmm4,%xmm2 - .byte 102,15,97,212 // punpcklwd %xmm4,%xmm2 - .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 + .byte 15,91,212 // cvtdq2ps %xmm4,%xmm2 .byte 15,89,213 // mulps %xmm5,%xmm2 - .byte 141,72,8 // lea 0x8(%eax),%ecx + .byte 139,77,12 // mov 0xc(%ebp),%ecx + .byte 141,65,8 // lea 0x8(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp - .byte 81 // push %ecx + .byte 80 // push %eax .byte 255,117,8 // pushl 0x8(%ebp) - .byte 255,80,4 // call *0x4(%eax) + .byte 255,81,4 // call *0x4(%ecx) .byte 131,196,28 // add $0x1c,%esp .byte 94 // pop %esi .byte 95 // pop %edi @@ -63696,25 +64286,30 @@ _sk_table_r_sse2: .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx - .byte 139,17 // mov (%ecx),%edx - .byte 139,73,4 // mov 0x4(%ecx),%ecx - .byte 73 // dec %ecx - .byte 102,15,110,225 // movd %ecx,%xmm4 + .byte 139,81,4 // mov 0x4(%ecx),%edx + .byte 74 // dec %edx + .byte 102,15,110,226 // movd %edx,%xmm4 + .byte 232,0,0,0,0 // call 3612 <_sk_table_r_sse2+0x18> + .byte 90 // pop %edx + .byte 139,9 // mov (%ecx),%ecx .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 15,89,224 // mulps %xmm0,%xmm4 - .byte 102,15,91,196 // cvtps2dq %xmm4,%xmm0 + .byte 15,87,237 // xorps %xmm5,%xmm5 + .byte 15,95,232 // maxps %xmm0,%xmm5 + .byte 15,93,170,14,197,0,0 // minps 0xc50e(%edx),%xmm5 + .byte 15,89,236 // mulps %xmm4,%xmm5 + .byte 102,15,91,197 // cvtps2dq %xmm5,%xmm0 .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4 .byte 102,15,112,232,231 // pshufd $0xe7,%xmm0,%xmm5 - .byte 102,15,126,233 // movd %xmm5,%ecx - .byte 243,15,16,44,138 // movss (%edx,%ecx,4),%xmm5 - .byte 102,15,126,225 // movd %xmm4,%ecx - .byte 243,15,16,36,138 // movss (%edx,%ecx,4),%xmm4 - .byte 102,15,126,193 // movd %xmm0,%ecx + .byte 102,15,126,234 // movd %xmm5,%edx + .byte 243,15,16,44,145 // movss (%ecx,%edx,4),%xmm5 + .byte 102,15,126,226 // movd %xmm4,%edx + .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4 + .byte 102,15,126,194 // movd %xmm0,%edx .byte 102,15,112,240,229 // pshufd $0xe5,%xmm0,%xmm6 - .byte 243,15,16,4,138 // movss (%edx,%ecx,4),%xmm0 - .byte 102,15,126,241 // movd %xmm6,%ecx - .byte 243,15,16,52,138 // movss (%edx,%ecx,4),%xmm6 + .byte 243,15,16,4,145 // movss (%ecx,%edx,4),%xmm0 + .byte 102,15,126,242 // movd %xmm6,%edx + .byte 243,15,16,52,145 // movss (%ecx,%edx,4),%xmm6 .byte 15,20,229 // unpcklps %xmm5,%xmm4 .byte 15,20,198 // unpcklps %xmm6,%xmm0 .byte 102,15,20,196 // unpcklpd %xmm4,%xmm0 @@ -63736,25 +64331,30 @@ _sk_table_g_sse2: .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx - .byte 139,17 // mov (%ecx),%edx - .byte 139,73,4 // mov 0x4(%ecx),%ecx - .byte 73 // dec %ecx - .byte 102,15,110,225 // movd %ecx,%xmm4 + .byte 139,81,4 // mov 0x4(%ecx),%edx + .byte 74 // dec %edx + .byte 102,15,110,226 // movd %edx,%xmm4 + .byte 232,0,0,0,0 // call 3698 <_sk_table_g_sse2+0x18> + .byte 90 // pop %edx + .byte 139,9 // mov (%ecx),%ecx .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 15,89,225 // mulps %xmm1,%xmm4 - .byte 102,15,91,204 // cvtps2dq %xmm4,%xmm1 + .byte 15,87,237 // xorps %xmm5,%xmm5 + .byte 15,95,233 // maxps %xmm1,%xmm5 + .byte 15,93,170,136,196,0,0 // minps 0xc488(%edx),%xmm5 + .byte 15,89,236 // mulps %xmm4,%xmm5 + .byte 102,15,91,205 // cvtps2dq %xmm5,%xmm1 .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4 .byte 102,15,112,233,231 // pshufd $0xe7,%xmm1,%xmm5 - .byte 102,15,126,233 // movd %xmm5,%ecx - .byte 243,15,16,44,138 // movss (%edx,%ecx,4),%xmm5 - .byte 102,15,126,225 // movd %xmm4,%ecx - .byte 243,15,16,36,138 // movss (%edx,%ecx,4),%xmm4 - .byte 102,15,126,201 // movd %xmm1,%ecx + .byte 102,15,126,234 // movd %xmm5,%edx + .byte 243,15,16,44,145 // movss (%ecx,%edx,4),%xmm5 + .byte 102,15,126,226 // movd %xmm4,%edx + .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4 + .byte 102,15,126,202 // movd %xmm1,%edx .byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6 - .byte 243,15,16,12,138 // movss (%edx,%ecx,4),%xmm1 - .byte 102,15,126,241 // movd %xmm6,%ecx - .byte 243,15,16,52,138 // movss (%edx,%ecx,4),%xmm6 + .byte 243,15,16,12,145 // movss (%ecx,%edx,4),%xmm1 + .byte 102,15,126,242 // movd %xmm6,%edx + .byte 243,15,16,52,145 // movss (%ecx,%edx,4),%xmm6 .byte 15,20,229 // unpcklps %xmm5,%xmm4 .byte 15,20,206 // unpcklps %xmm6,%xmm1 .byte 102,15,20,204 // unpcklpd %xmm4,%xmm1 @@ -63776,25 +64376,30 @@ _sk_table_b_sse2: .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx - .byte 139,17 // mov (%ecx),%edx - .byte 139,73,4 // mov 0x4(%ecx),%ecx - .byte 73 // dec %ecx - .byte 102,15,110,225 // movd %ecx,%xmm4 + .byte 139,81,4 // mov 0x4(%ecx),%edx + .byte 74 // dec %edx + .byte 102,15,110,226 // movd %edx,%xmm4 + .byte 232,0,0,0,0 // call 371e <_sk_table_b_sse2+0x18> + .byte 90 // pop %edx + .byte 139,9 // mov (%ecx),%ecx .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 15,89,226 // mulps %xmm2,%xmm4 - .byte 102,15,91,212 // cvtps2dq %xmm4,%xmm2 + .byte 15,87,237 // xorps %xmm5,%xmm5 + .byte 15,95,234 // maxps %xmm2,%xmm5 + .byte 15,93,170,2,196,0,0 // minps 0xc402(%edx),%xmm5 + .byte 15,89,236 // mulps %xmm4,%xmm5 + .byte 102,15,91,213 // cvtps2dq %xmm5,%xmm2 .byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4 .byte 102,15,112,234,231 // pshufd $0xe7,%xmm2,%xmm5 - .byte 102,15,126,233 // movd %xmm5,%ecx - .byte 243,15,16,44,138 // movss (%edx,%ecx,4),%xmm5 - .byte 102,15,126,225 // movd %xmm4,%ecx - .byte 243,15,16,36,138 // movss (%edx,%ecx,4),%xmm4 - .byte 102,15,126,209 // movd %xmm2,%ecx + .byte 102,15,126,234 // movd %xmm5,%edx + .byte 243,15,16,44,145 // movss (%ecx,%edx,4),%xmm5 + .byte 102,15,126,226 // movd %xmm4,%edx + .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4 + .byte 102,15,126,210 // movd %xmm2,%edx .byte 102,15,112,242,229 // pshufd $0xe5,%xmm2,%xmm6 - .byte 243,15,16,20,138 // movss (%edx,%ecx,4),%xmm2 - .byte 102,15,126,241 // movd %xmm6,%ecx - .byte 243,15,16,52,138 // movss (%edx,%ecx,4),%xmm6 + .byte 243,15,16,20,145 // movss (%ecx,%edx,4),%xmm2 + .byte 102,15,126,242 // movd %xmm6,%edx + .byte 243,15,16,52,145 // movss (%ecx,%edx,4),%xmm6 .byte 15,20,229 // unpcklps %xmm5,%xmm4 .byte 15,20,214 // unpcklps %xmm6,%xmm2 .byte 102,15,20,212 // unpcklpd %xmm4,%xmm2 @@ -63816,25 +64421,30 @@ _sk_table_a_sse2: .byte 131,236,8 // sub $0x8,%esp .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx - .byte 139,17 // mov (%ecx),%edx - .byte 139,73,4 // mov 0x4(%ecx),%ecx - .byte 73 // dec %ecx - .byte 102,15,110,225 // movd %ecx,%xmm4 + .byte 139,81,4 // mov 0x4(%ecx),%edx + .byte 74 // dec %edx + .byte 102,15,110,226 // movd %edx,%xmm4 + .byte 232,0,0,0,0 // call 37a4 <_sk_table_a_sse2+0x18> + .byte 90 // pop %edx + .byte 139,9 // mov (%ecx),%ecx .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 15,89,227 // mulps %xmm3,%xmm4 - .byte 102,15,91,220 // cvtps2dq %xmm4,%xmm3 + .byte 15,87,237 // xorps %xmm5,%xmm5 + .byte 15,95,235 // maxps %xmm3,%xmm5 + .byte 15,93,170,124,195,0,0 // minps 0xc37c(%edx),%xmm5 + .byte 15,89,236 // mulps %xmm4,%xmm5 + .byte 102,15,91,221 // cvtps2dq %xmm5,%xmm3 .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4 .byte 102,15,112,235,231 // pshufd $0xe7,%xmm3,%xmm5 - .byte 102,15,126,233 // movd %xmm5,%ecx - .byte 243,15,16,44,138 // movss (%edx,%ecx,4),%xmm5 - .byte 102,15,126,225 // movd %xmm4,%ecx - .byte 243,15,16,36,138 // movss (%edx,%ecx,4),%xmm4 - .byte 102,15,126,217 // movd %xmm3,%ecx + .byte 102,15,126,234 // movd %xmm5,%edx + .byte 243,15,16,44,145 // movss (%ecx,%edx,4),%xmm5 + .byte 102,15,126,226 // movd %xmm4,%edx + .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4 + .byte 102,15,126,218 // movd %xmm3,%edx .byte 102,15,112,243,229 // pshufd $0xe5,%xmm3,%xmm6 - .byte 243,15,16,28,138 // movss (%edx,%ecx,4),%xmm3 - .byte 102,15,126,241 // movd %xmm6,%ecx - .byte 243,15,16,52,138 // movss (%edx,%ecx,4),%xmm6 + .byte 243,15,16,28,145 // movss (%ecx,%edx,4),%xmm3 + .byte 102,15,126,242 // movd %xmm6,%edx + .byte 243,15,16,52,145 // movss (%ecx,%edx,4),%xmm6 .byte 15,20,229 // unpcklps %xmm5,%xmm4 .byte 15,20,222 // unpcklps %xmm6,%xmm3 .byte 102,15,20,220 // unpcklpd %xmm4,%xmm3 @@ -63858,7 +64468,7 @@ _sk_parametric_r_sse2: .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp) .byte 15,40,217 // movaps %xmm1,%xmm3 .byte 15,40,200 // movaps %xmm0,%xmm1 - .byte 232,0,0,0,0 // call 3742 <_sk_parametric_r_sse2+0x19> + .byte 232,0,0,0,0 // call 382b <_sk_parametric_r_sse2+0x19> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx @@ -63878,16 +64488,16 @@ _sk_parametric_r_sse2: .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,88,238 // addps %xmm6,%xmm5 .byte 15,91,245 // cvtdq2ps %xmm5,%xmm6 - .byte 15,89,178,126,196,0,0 // mulps 0xc47e(%edx),%xmm6 - .byte 15,40,186,142,196,0,0 // movaps 0xc48e(%edx),%xmm7 + .byte 15,89,178,133,197,0,0 // mulps 0xc585(%edx),%xmm6 + .byte 15,40,186,149,197,0,0 // movaps 0xc595(%edx),%xmm7 .byte 15,84,253 // andps %xmm5,%xmm7 - .byte 15,86,186,222,193,0,0 // orps 0xc1de(%edx),%xmm7 - .byte 15,88,178,158,196,0,0 // addps 0xc49e(%edx),%xmm6 - .byte 15,40,162,174,196,0,0 // movaps 0xc4ae(%edx),%xmm4 + .byte 15,86,186,229,194,0,0 // orps 0xc2e5(%edx),%xmm7 + .byte 15,88,178,165,197,0,0 // addps 0xc5a5(%edx),%xmm6 + .byte 15,40,162,181,197,0,0 // movaps 0xc5b5(%edx),%xmm4 .byte 15,89,231 // mulps %xmm7,%xmm4 .byte 15,92,244 // subps %xmm4,%xmm6 - .byte 15,88,186,190,196,0,0 // addps 0xc4be(%edx),%xmm7 - .byte 15,40,162,206,196,0,0 // movaps 0xc4ce(%edx),%xmm4 + .byte 15,88,186,197,197,0,0 // addps 0xc5c5(%edx),%xmm7 + .byte 15,40,162,213,197,0,0 // movaps 0xc5d5(%edx),%xmm4 .byte 15,94,231 // divps %xmm7,%xmm4 .byte 15,92,244 // subps %xmm4,%xmm6 .byte 243,15,16,33 // movss (%ecx),%xmm4 @@ -63897,21 +64507,21 @@ _sk_parametric_r_sse2: .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,194,196,1 // cmpltps %xmm4,%xmm0 - .byte 15,40,186,238,193,0,0 // movaps 0xc1ee(%edx),%xmm7 + .byte 15,40,186,245,194,0,0 // movaps 0xc2f5(%edx),%xmm7 .byte 15,84,199 // andps %xmm7,%xmm0 .byte 15,92,224 // subps %xmm0,%xmm4 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,92,196 // subps %xmm4,%xmm0 - .byte 15,88,178,222,196,0,0 // addps 0xc4de(%edx),%xmm6 - .byte 15,40,162,238,196,0,0 // movaps 0xc4ee(%edx),%xmm4 + .byte 15,88,178,229,197,0,0 // addps 0xc5e5(%edx),%xmm6 + .byte 15,40,162,245,197,0,0 // movaps 0xc5f5(%edx),%xmm4 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,92,244 // subps %xmm4,%xmm6 - .byte 15,40,162,254,196,0,0 // movaps 0xc4fe(%edx),%xmm4 + .byte 15,40,162,5,198,0,0 // movaps 0xc605(%edx),%xmm4 .byte 15,92,224 // subps %xmm0,%xmm4 - .byte 15,40,130,14,197,0,0 // movaps 0xc50e(%edx),%xmm0 + .byte 15,40,130,21,198,0,0 // movaps 0xc615(%edx),%xmm0 .byte 15,94,196 // divps %xmm4,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 - .byte 15,89,130,30,197,0,0 // mulps 0xc51e(%edx),%xmm0 + .byte 15,89,130,37,198,0,0 // mulps 0xc625(%edx),%xmm0 .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,194,236,4 // cmpneqps %xmm4,%xmm5 @@ -63947,7 +64557,7 @@ _sk_parametric_g_sse2: .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp) .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp) .byte 15,40,216 // movaps %xmm0,%xmm3 - .byte 232,0,0,0,0 // call 3885 <_sk_parametric_g_sse2+0x16> + .byte 232,0,0,0,0 // call 396e <_sk_parametric_g_sse2+0x16> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx @@ -63967,16 +64577,16 @@ _sk_parametric_g_sse2: .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,88,238 // addps %xmm6,%xmm5 .byte 15,91,245 // cvtdq2ps %xmm5,%xmm6 - .byte 15,89,178,59,195,0,0 // mulps 0xc33b(%edx),%xmm6 - .byte 15,40,186,75,195,0,0 // movaps 0xc34b(%edx),%xmm7 + .byte 15,89,178,66,196,0,0 // mulps 0xc442(%edx),%xmm6 + .byte 15,40,186,82,196,0,0 // movaps 0xc452(%edx),%xmm7 .byte 15,84,253 // andps %xmm5,%xmm7 - .byte 15,86,186,155,192,0,0 // orps 0xc09b(%edx),%xmm7 - .byte 15,88,178,91,195,0,0 // addps 0xc35b(%edx),%xmm6 - .byte 15,40,162,107,195,0,0 // movaps 0xc36b(%edx),%xmm4 + .byte 15,86,186,162,193,0,0 // orps 0xc1a2(%edx),%xmm7 + .byte 15,88,178,98,196,0,0 // addps 0xc462(%edx),%xmm6 + .byte 15,40,162,114,196,0,0 // movaps 0xc472(%edx),%xmm4 .byte 15,89,231 // mulps %xmm7,%xmm4 .byte 15,92,244 // subps %xmm4,%xmm6 - .byte 15,88,186,123,195,0,0 // addps 0xc37b(%edx),%xmm7 - .byte 15,40,162,139,195,0,0 // movaps 0xc38b(%edx),%xmm4 + .byte 15,88,186,130,196,0,0 // addps 0xc482(%edx),%xmm7 + .byte 15,40,162,146,196,0,0 // movaps 0xc492(%edx),%xmm4 .byte 15,94,231 // divps %xmm7,%xmm4 .byte 15,92,244 // subps %xmm4,%xmm6 .byte 243,15,16,33 // movss (%ecx),%xmm4 @@ -63986,21 +64596,21 @@ _sk_parametric_g_sse2: .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,194,196,1 // cmpltps %xmm4,%xmm0 - .byte 15,40,186,171,192,0,0 // movaps 0xc0ab(%edx),%xmm7 + .byte 15,40,186,178,193,0,0 // movaps 0xc1b2(%edx),%xmm7 .byte 15,84,199 // andps %xmm7,%xmm0 .byte 15,92,224 // subps %xmm0,%xmm4 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,92,196 // subps %xmm4,%xmm0 - .byte 15,88,178,155,195,0,0 // addps 0xc39b(%edx),%xmm6 - .byte 15,40,162,171,195,0,0 // movaps 0xc3ab(%edx),%xmm4 + .byte 15,88,178,162,196,0,0 // addps 0xc4a2(%edx),%xmm6 + .byte 15,40,162,178,196,0,0 // movaps 0xc4b2(%edx),%xmm4 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,92,244 // subps %xmm4,%xmm6 - .byte 15,40,162,187,195,0,0 // movaps 0xc3bb(%edx),%xmm4 + .byte 15,40,162,194,196,0,0 // movaps 0xc4c2(%edx),%xmm4 .byte 15,92,224 // subps %xmm0,%xmm4 - .byte 15,40,130,203,195,0,0 // movaps 0xc3cb(%edx),%xmm0 + .byte 15,40,130,210,196,0,0 // movaps 0xc4d2(%edx),%xmm0 .byte 15,94,196 // divps %xmm4,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 - .byte 15,89,130,219,195,0,0 // mulps 0xc3db(%edx),%xmm0 + .byte 15,89,130,226,196,0,0 // mulps 0xc4e2(%edx),%xmm0 .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,194,236,4 // cmpneqps %xmm4,%xmm5 @@ -64035,7 +64645,7 @@ _sk_parametric_b_sse2: .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp) .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp) .byte 15,40,216 // movaps %xmm0,%xmm3 - .byte 232,0,0,0,0 // call 39c5 <_sk_parametric_b_sse2+0x16> + .byte 232,0,0,0,0 // call 3aae <_sk_parametric_b_sse2+0x16> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx @@ -64055,16 +64665,16 @@ _sk_parametric_b_sse2: .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,88,238 // addps %xmm6,%xmm5 .byte 15,91,245 // cvtdq2ps %xmm5,%xmm6 - .byte 15,89,178,251,193,0,0 // mulps 0xc1fb(%edx),%xmm6 - .byte 15,40,186,11,194,0,0 // movaps 0xc20b(%edx),%xmm7 + .byte 15,89,178,2,195,0,0 // mulps 0xc302(%edx),%xmm6 + .byte 15,40,186,18,195,0,0 // movaps 0xc312(%edx),%xmm7 .byte 15,84,253 // andps %xmm5,%xmm7 - .byte 15,86,186,91,191,0,0 // orps 0xbf5b(%edx),%xmm7 - .byte 15,88,178,27,194,0,0 // addps 0xc21b(%edx),%xmm6 - .byte 15,40,162,43,194,0,0 // movaps 0xc22b(%edx),%xmm4 + .byte 15,86,186,98,192,0,0 // orps 0xc062(%edx),%xmm7 + .byte 15,88,178,34,195,0,0 // addps 0xc322(%edx),%xmm6 + .byte 15,40,162,50,195,0,0 // movaps 0xc332(%edx),%xmm4 .byte 15,89,231 // mulps %xmm7,%xmm4 .byte 15,92,244 // subps %xmm4,%xmm6 - .byte 15,88,186,59,194,0,0 // addps 0xc23b(%edx),%xmm7 - .byte 15,40,162,75,194,0,0 // movaps 0xc24b(%edx),%xmm4 + .byte 15,88,186,66,195,0,0 // addps 0xc342(%edx),%xmm7 + .byte 15,40,162,82,195,0,0 // movaps 0xc352(%edx),%xmm4 .byte 15,94,231 // divps %xmm7,%xmm4 .byte 15,92,244 // subps %xmm4,%xmm6 .byte 243,15,16,33 // movss (%ecx),%xmm4 @@ -64074,21 +64684,21 @@ _sk_parametric_b_sse2: .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,194,196,1 // cmpltps %xmm4,%xmm0 - .byte 15,40,186,107,191,0,0 // movaps 0xbf6b(%edx),%xmm7 + .byte 15,40,186,114,192,0,0 // movaps 0xc072(%edx),%xmm7 .byte 15,84,199 // andps %xmm7,%xmm0 .byte 15,92,224 // subps %xmm0,%xmm4 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,92,196 // subps %xmm4,%xmm0 - .byte 15,88,178,91,194,0,0 // addps 0xc25b(%edx),%xmm6 - .byte 15,40,162,107,194,0,0 // movaps 0xc26b(%edx),%xmm4 + .byte 15,88,178,98,195,0,0 // addps 0xc362(%edx),%xmm6 + .byte 15,40,162,114,195,0,0 // movaps 0xc372(%edx),%xmm4 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,92,244 // subps %xmm4,%xmm6 - .byte 15,40,162,123,194,0,0 // movaps 0xc27b(%edx),%xmm4 + .byte 15,40,162,130,195,0,0 // movaps 0xc382(%edx),%xmm4 .byte 15,92,224 // subps %xmm0,%xmm4 - .byte 15,40,130,139,194,0,0 // movaps 0xc28b(%edx),%xmm0 + .byte 15,40,130,146,195,0,0 // movaps 0xc392(%edx),%xmm0 .byte 15,94,196 // divps %xmm4,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 - .byte 15,89,130,155,194,0,0 // mulps 0xc29b(%edx),%xmm0 + .byte 15,89,130,162,195,0,0 // mulps 0xc3a2(%edx),%xmm0 .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,194,236,4 // cmpneqps %xmm4,%xmm5 @@ -64123,7 +64733,7 @@ _sk_parametric_a_sse2: .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp) .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp) .byte 15,40,208 // movaps %xmm0,%xmm2 - .byte 232,0,0,0,0 // call 3b05 <_sk_parametric_a_sse2+0x16> + .byte 232,0,0,0,0 // call 3bee <_sk_parametric_a_sse2+0x16> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx @@ -64143,16 +64753,16 @@ _sk_parametric_a_sse2: .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,88,238 // addps %xmm6,%xmm5 .byte 15,91,245 // cvtdq2ps %xmm5,%xmm6 - .byte 15,89,178,187,192,0,0 // mulps 0xc0bb(%edx),%xmm6 - .byte 15,40,186,203,192,0,0 // movaps 0xc0cb(%edx),%xmm7 + .byte 15,89,178,194,193,0,0 // mulps 0xc1c2(%edx),%xmm6 + .byte 15,40,186,210,193,0,0 // movaps 0xc1d2(%edx),%xmm7 .byte 15,84,253 // andps %xmm5,%xmm7 - .byte 15,86,186,27,190,0,0 // orps 0xbe1b(%edx),%xmm7 - .byte 15,88,178,219,192,0,0 // addps 0xc0db(%edx),%xmm6 - .byte 15,40,162,235,192,0,0 // movaps 0xc0eb(%edx),%xmm4 + .byte 15,86,186,34,191,0,0 // orps 0xbf22(%edx),%xmm7 + .byte 15,88,178,226,193,0,0 // addps 0xc1e2(%edx),%xmm6 + .byte 15,40,162,242,193,0,0 // movaps 0xc1f2(%edx),%xmm4 .byte 15,89,231 // mulps %xmm7,%xmm4 .byte 15,92,244 // subps %xmm4,%xmm6 - .byte 15,88,186,251,192,0,0 // addps 0xc0fb(%edx),%xmm7 - .byte 15,40,162,11,193,0,0 // movaps 0xc10b(%edx),%xmm4 + .byte 15,88,186,2,194,0,0 // addps 0xc202(%edx),%xmm7 + .byte 15,40,162,18,194,0,0 // movaps 0xc212(%edx),%xmm4 .byte 15,94,231 // divps %xmm7,%xmm4 .byte 15,92,244 // subps %xmm4,%xmm6 .byte 243,15,16,33 // movss (%ecx),%xmm4 @@ -64162,21 +64772,21 @@ _sk_parametric_a_sse2: .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,194,196,1 // cmpltps %xmm4,%xmm0 - .byte 15,40,186,43,190,0,0 // movaps 0xbe2b(%edx),%xmm7 + .byte 15,40,186,50,191,0,0 // movaps 0xbf32(%edx),%xmm7 .byte 15,84,199 // andps %xmm7,%xmm0 .byte 15,92,224 // subps %xmm0,%xmm4 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,92,196 // subps %xmm4,%xmm0 - .byte 15,88,178,27,193,0,0 // addps 0xc11b(%edx),%xmm6 - .byte 15,40,162,43,193,0,0 // movaps 0xc12b(%edx),%xmm4 + .byte 15,88,178,34,194,0,0 // addps 0xc222(%edx),%xmm6 + .byte 15,40,162,50,194,0,0 // movaps 0xc232(%edx),%xmm4 .byte 15,89,224 // mulps %xmm0,%xmm4 .byte 15,92,244 // subps %xmm4,%xmm6 - .byte 15,40,162,59,193,0,0 // movaps 0xc13b(%edx),%xmm4 + .byte 15,40,162,66,194,0,0 // movaps 0xc242(%edx),%xmm4 .byte 15,92,224 // subps %xmm0,%xmm4 - .byte 15,40,130,75,193,0,0 // movaps 0xc14b(%edx),%xmm0 + .byte 15,40,130,82,194,0,0 // movaps 0xc252(%edx),%xmm0 .byte 15,94,196 // divps %xmm4,%xmm0 .byte 15,88,198 // addps %xmm6,%xmm0 - .byte 15,89,130,91,193,0,0 // mulps 0xc15b(%edx),%xmm0 + .byte 15,89,130,98,194,0,0 // mulps 0xc262(%edx),%xmm0 .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0 .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,194,236,4 // cmpneqps %xmm4,%xmm5 @@ -64212,20 +64822,20 @@ _sk_gamma_sse2: .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp) .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp) .byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp) - .byte 232,0,0,0,0 // call 3c4a <_sk_gamma_sse2+0x1b> + .byte 232,0,0,0,0 // call 3d33 <_sk_gamma_sse2+0x1b> .byte 88 // pop %eax .byte 15,91,232 // cvtdq2ps %xmm0,%xmm5 - .byte 15,89,168,118,191,0,0 // mulps 0xbf76(%eax),%xmm5 - .byte 15,40,160,134,191,0,0 // movaps 0xbf86(%eax),%xmm4 + .byte 15,89,168,125,192,0,0 // mulps 0xc07d(%eax),%xmm5 + .byte 15,40,160,141,192,0,0 // movaps 0xc08d(%eax),%xmm4 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,84,212 // andps %xmm4,%xmm2 - .byte 15,86,144,214,188,0,0 // orps 0xbcd6(%eax),%xmm2 - .byte 15,88,168,150,191,0,0 // addps 0xbf96(%eax),%xmm5 + .byte 15,86,144,221,189,0,0 // orps 0xbddd(%eax),%xmm2 + .byte 15,88,168,157,192,0,0 // addps 0xc09d(%eax),%xmm5 .byte 15,40,202 // movaps %xmm2,%xmm1 - .byte 15,89,136,166,191,0,0 // mulps 0xbfa6(%eax),%xmm1 + .byte 15,89,136,173,192,0,0 // mulps 0xc0ad(%eax),%xmm1 .byte 15,92,233 // subps %xmm1,%xmm5 - .byte 15,88,144,182,191,0,0 // addps 0xbfb6(%eax),%xmm2 - .byte 15,40,136,198,191,0,0 // movaps 0xbfc6(%eax),%xmm1 + .byte 15,88,144,189,192,0,0 // addps 0xc0bd(%eax),%xmm2 + .byte 15,40,136,205,192,0,0 // movaps 0xc0cd(%eax),%xmm1 .byte 15,94,202 // divps %xmm2,%xmm1 .byte 15,92,233 // subps %xmm1,%xmm5 .byte 139,77,12 // mov 0xc(%ebp),%ecx @@ -64238,32 +64848,32 @@ _sk_gamma_sse2: .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 .byte 15,40,205 // movaps %xmm5,%xmm1 .byte 15,194,200,1 // cmpltps %xmm0,%xmm1 - .byte 15,84,136,230,188,0,0 // andps 0xbce6(%eax),%xmm1 + .byte 15,84,136,237,189,0,0 // andps 0xbded(%eax),%xmm1 .byte 15,92,193 // subps %xmm1,%xmm0 .byte 15,40,205 // movaps %xmm5,%xmm1 .byte 15,92,200 // subps %xmm0,%xmm1 - .byte 15,88,168,214,191,0,0 // addps 0xbfd6(%eax),%xmm5 - .byte 15,40,184,246,191,0,0 // movaps 0xbff6(%eax),%xmm7 + .byte 15,88,168,221,192,0,0 // addps 0xc0dd(%eax),%xmm5 + .byte 15,40,184,253,192,0,0 // movaps 0xc0fd(%eax),%xmm7 .byte 15,40,199 // movaps %xmm7,%xmm0 .byte 15,92,193 // subps %xmm1,%xmm0 - .byte 15,40,176,230,191,0,0 // movaps 0xbfe6(%eax),%xmm6 + .byte 15,40,176,237,192,0,0 // movaps 0xc0ed(%eax),%xmm6 .byte 15,89,206 // mulps %xmm6,%xmm1 .byte 15,92,233 // subps %xmm1,%xmm5 - .byte 15,40,144,6,192,0,0 // movaps 0xc006(%eax),%xmm2 + .byte 15,40,144,13,193,0,0 // movaps 0xc10d(%eax),%xmm2 .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,94,216 // divps %xmm0,%xmm3 .byte 15,88,221 // addps %xmm5,%xmm3 .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1 .byte 15,91,193 // cvtdq2ps %xmm1,%xmm0 - .byte 15,89,128,118,191,0,0 // mulps 0xbf76(%eax),%xmm0 + .byte 15,89,128,125,192,0,0 // mulps 0xc07d(%eax),%xmm0 .byte 15,84,204 // andps %xmm4,%xmm1 - .byte 15,86,136,214,188,0,0 // orps 0xbcd6(%eax),%xmm1 - .byte 15,88,128,150,191,0,0 // addps 0xbf96(%eax),%xmm0 + .byte 15,86,136,221,189,0,0 // orps 0xbddd(%eax),%xmm1 + .byte 15,88,128,157,192,0,0 // addps 0xc09d(%eax),%xmm0 .byte 15,40,233 // movaps %xmm1,%xmm5 - .byte 15,89,168,166,191,0,0 // mulps 0xbfa6(%eax),%xmm5 + .byte 15,89,168,173,192,0,0 // mulps 0xc0ad(%eax),%xmm5 .byte 15,92,197 // subps %xmm5,%xmm0 - .byte 15,88,136,182,191,0,0 // addps 0xbfb6(%eax),%xmm1 - .byte 15,40,168,198,191,0,0 // movaps 0xbfc6(%eax),%xmm5 + .byte 15,88,136,189,192,0,0 // addps 0xc0bd(%eax),%xmm1 + .byte 15,40,168,205,192,0,0 // movaps 0xc0cd(%eax),%xmm5 .byte 15,94,233 // divps %xmm1,%xmm5 .byte 15,92,197 // subps %xmm5,%xmm0 .byte 15,89,69,216 // mulps -0x28(%ebp),%xmm0 @@ -64271,11 +64881,11 @@ _sk_gamma_sse2: .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,194,233,1 // cmpltps %xmm1,%xmm5 - .byte 15,84,168,230,188,0,0 // andps 0xbce6(%eax),%xmm5 + .byte 15,84,168,237,189,0,0 // andps 0xbded(%eax),%xmm5 .byte 15,92,205 // subps %xmm5,%xmm1 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,92,233 // subps %xmm1,%xmm5 - .byte 15,88,128,214,191,0,0 // addps 0xbfd6(%eax),%xmm0 + .byte 15,88,128,221,192,0,0 // addps 0xc0dd(%eax),%xmm0 .byte 15,40,207 // movaps %xmm7,%xmm1 .byte 15,92,205 // subps %xmm5,%xmm1 .byte 15,89,238 // mulps %xmm6,%xmm5 @@ -64285,15 +64895,15 @@ _sk_gamma_sse2: .byte 15,88,232 // addps %xmm0,%xmm5 .byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1 .byte 15,91,193 // cvtdq2ps %xmm1,%xmm0 - .byte 15,89,128,118,191,0,0 // mulps 0xbf76(%eax),%xmm0 + .byte 15,89,128,125,192,0,0 // mulps 0xc07d(%eax),%xmm0 .byte 15,84,225 // andps %xmm1,%xmm4 - .byte 15,86,160,214,188,0,0 // orps 0xbcd6(%eax),%xmm4 - .byte 15,88,128,150,191,0,0 // addps 0xbf96(%eax),%xmm0 - .byte 15,40,136,166,191,0,0 // movaps 0xbfa6(%eax),%xmm1 + .byte 15,86,160,221,189,0,0 // orps 0xbddd(%eax),%xmm4 + .byte 15,88,128,157,192,0,0 // addps 0xc09d(%eax),%xmm0 + .byte 15,40,136,173,192,0,0 // movaps 0xc0ad(%eax),%xmm1 .byte 15,89,204 // mulps %xmm4,%xmm1 .byte 15,92,193 // subps %xmm1,%xmm0 - .byte 15,88,160,182,191,0,0 // addps 0xbfb6(%eax),%xmm4 - .byte 15,40,136,198,191,0,0 // movaps 0xbfc6(%eax),%xmm1 + .byte 15,88,160,189,192,0,0 // addps 0xc0bd(%eax),%xmm4 + .byte 15,40,136,205,192,0,0 // movaps 0xc0cd(%eax),%xmm1 .byte 15,94,204 // divps %xmm4,%xmm1 .byte 15,92,193 // subps %xmm1,%xmm0 .byte 15,89,69,216 // mulps -0x28(%ebp),%xmm0 @@ -64301,17 +64911,17 @@ _sk_gamma_sse2: .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,194,225,1 // cmpltps %xmm1,%xmm4 - .byte 15,84,160,230,188,0,0 // andps 0xbce6(%eax),%xmm4 + .byte 15,84,160,237,189,0,0 // andps 0xbded(%eax),%xmm4 .byte 15,92,204 // subps %xmm4,%xmm1 .byte 15,40,224 // movaps %xmm0,%xmm4 .byte 15,92,225 // subps %xmm1,%xmm4 - .byte 15,88,128,214,191,0,0 // addps 0xbfd6(%eax),%xmm0 + .byte 15,88,128,221,192,0,0 // addps 0xc0dd(%eax),%xmm0 .byte 15,89,244 // mulps %xmm4,%xmm6 .byte 15,92,198 // subps %xmm6,%xmm0 .byte 15,92,252 // subps %xmm4,%xmm7 .byte 15,94,215 // divps %xmm7,%xmm2 .byte 15,88,208 // addps %xmm0,%xmm2 - .byte 15,40,128,22,192,0,0 // movaps 0xc016(%eax),%xmm0 + .byte 15,40,128,29,193,0,0 // movaps 0xc11d(%eax),%xmm0 .byte 15,89,216 // mulps %xmm0,%xmm3 .byte 15,89,232 // mulps %xmm0,%xmm5 .byte 15,89,208 // mulps %xmm0,%xmm2 @@ -64352,32 +64962,32 @@ _sk_gamma_dst_sse2: .byte 15,41,149,56,255,255,255 // movaps %xmm2,-0xc8(%ebp) .byte 15,41,141,72,255,255,255 // movaps %xmm1,-0xb8(%ebp) .byte 15,41,133,88,255,255,255 // movaps %xmm0,-0xa8(%ebp) - .byte 232,0,0,0,0 // call 3e71 <_sk_gamma_dst_sse2+0x2b> + .byte 232,0,0,0,0 // call 3f5a <_sk_gamma_dst_sse2+0x2b> .byte 94 // pop %esi .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 15,40,72,16 // movaps 0x10(%eax),%xmm1 .byte 15,91,193 // cvtdq2ps %xmm1,%xmm0 - .byte 15,40,150,79,189,0,0 // movaps 0xbd4f(%esi),%xmm2 + .byte 15,40,150,86,190,0,0 // movaps 0xbe56(%esi),%xmm2 .byte 15,41,149,104,255,255,255 // movaps %xmm2,-0x98(%ebp) .byte 15,89,194 // mulps %xmm2,%xmm0 - .byte 15,40,166,95,189,0,0 // movaps 0xbd5f(%esi),%xmm4 + .byte 15,40,166,102,190,0,0 // movaps 0xbe66(%esi),%xmm4 .byte 15,40,209 // movaps %xmm1,%xmm2 .byte 15,84,212 // andps %xmm4,%xmm2 - .byte 15,40,158,175,186,0,0 // movaps 0xbaaf(%esi),%xmm3 + .byte 15,40,158,182,187,0,0 // movaps 0xbbb6(%esi),%xmm3 .byte 15,41,157,120,255,255,255 // movaps %xmm3,-0x88(%ebp) .byte 15,86,211 // orps %xmm3,%xmm2 - .byte 15,40,158,111,189,0,0 // movaps 0xbd6f(%esi),%xmm3 + .byte 15,40,158,118,190,0,0 // movaps 0xbe76(%esi),%xmm3 .byte 15,41,93,136 // movaps %xmm3,-0x78(%ebp) .byte 15,88,195 // addps %xmm3,%xmm0 - .byte 15,40,174,127,189,0,0 // movaps 0xbd7f(%esi),%xmm5 + .byte 15,40,174,134,190,0,0 // movaps 0xbe86(%esi),%xmm5 .byte 15,41,109,152 // movaps %xmm5,-0x68(%ebp) .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,89,221 // mulps %xmm5,%xmm3 .byte 15,92,195 // subps %xmm3,%xmm0 - .byte 15,40,158,143,189,0,0 // movaps 0xbd8f(%esi),%xmm3 + .byte 15,40,158,150,190,0,0 // movaps 0xbe96(%esi),%xmm3 .byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp) .byte 15,88,211 // addps %xmm3,%xmm2 - .byte 15,40,158,159,189,0,0 // movaps 0xbd9f(%esi),%xmm3 + .byte 15,40,158,166,190,0,0 // movaps 0xbea6(%esi),%xmm3 .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp) .byte 15,94,218 // divps %xmm2,%xmm3 .byte 15,92,195 // subps %xmm3,%xmm0 @@ -64390,27 +65000,27 @@ _sk_gamma_dst_sse2: .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 15,194,218,1 // cmpltps %xmm2,%xmm3 - .byte 15,40,174,191,186,0,0 // movaps 0xbabf(%esi),%xmm5 + .byte 15,40,174,198,187,0,0 // movaps 0xbbc6(%esi),%xmm5 .byte 15,41,109,200 // movaps %xmm5,-0x38(%ebp) .byte 15,84,221 // andps %xmm5,%xmm3 .byte 15,92,211 // subps %xmm3,%xmm2 .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 15,92,218 // subps %xmm2,%xmm3 - .byte 15,40,150,175,189,0,0 // movaps 0xbdaf(%esi),%xmm2 + .byte 15,40,150,182,190,0,0 // movaps 0xbeb6(%esi),%xmm2 .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp) .byte 15,88,194 // addps %xmm2,%xmm0 - .byte 15,40,190,207,189,0,0 // movaps 0xbdcf(%esi),%xmm7 + .byte 15,40,190,214,190,0,0 // movaps 0xbed6(%esi),%xmm7 .byte 15,40,239 // movaps %xmm7,%xmm5 .byte 15,92,235 // subps %xmm3,%xmm5 .byte 15,40,211 // movaps %xmm3,%xmm2 - .byte 15,40,182,191,189,0,0 // movaps 0xbdbf(%esi),%xmm6 + .byte 15,40,182,198,190,0,0 // movaps 0xbec6(%esi),%xmm6 .byte 15,89,214 // mulps %xmm6,%xmm2 .byte 15,92,194 // subps %xmm2,%xmm0 - .byte 15,40,158,223,189,0,0 // movaps 0xbddf(%esi),%xmm3 + .byte 15,40,158,230,190,0,0 // movaps 0xbee6(%esi),%xmm3 .byte 15,40,211 // movaps %xmm3,%xmm2 .byte 15,94,213 // divps %xmm5,%xmm2 .byte 15,88,208 // addps %xmm0,%xmm2 - .byte 15,40,134,239,189,0,0 // movaps 0xbdef(%esi),%xmm0 + .byte 15,40,134,246,190,0,0 // movaps 0xbef6(%esi),%xmm0 .byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp) .byte 15,89,208 // mulps %xmm0,%xmm2 .byte 102,15,91,194 // cvtps2dq %xmm2,%xmm0 @@ -64516,31 +65126,31 @@ _sk_lab_to_xyz_sse2: .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,40,208 // movaps %xmm0,%xmm2 - .byte 232,0,0,0,0 // call 40cd <_sk_lab_to_xyz_sse2+0x15> + .byte 232,0,0,0,0 // call 41b6 <_sk_lab_to_xyz_sse2+0x15> .byte 88 // pop %eax - .byte 15,89,144,163,187,0,0 // mulps 0xbba3(%eax),%xmm2 - .byte 15,40,160,51,185,0,0 // movaps 0xb933(%eax),%xmm4 + .byte 15,89,144,170,188,0,0 // mulps 0xbcaa(%eax),%xmm2 + .byte 15,40,160,58,186,0,0 // movaps 0xba3a(%eax),%xmm4 .byte 15,89,204 // mulps %xmm4,%xmm1 - .byte 15,40,168,179,187,0,0 // movaps 0xbbb3(%eax),%xmm5 + .byte 15,40,168,186,188,0,0 // movaps 0xbcba(%eax),%xmm5 .byte 15,88,205 // addps %xmm5,%xmm1 .byte 15,89,220 // mulps %xmm4,%xmm3 .byte 15,88,221 // addps %xmm5,%xmm3 - .byte 15,88,144,195,187,0,0 // addps 0xbbc3(%eax),%xmm2 - .byte 15,89,144,211,187,0,0 // mulps 0xbbd3(%eax),%xmm2 - .byte 15,89,136,227,187,0,0 // mulps 0xbbe3(%eax),%xmm1 + .byte 15,88,144,202,188,0,0 // addps 0xbcca(%eax),%xmm2 + .byte 15,89,144,218,188,0,0 // mulps 0xbcda(%eax),%xmm2 + .byte 15,89,136,234,188,0,0 // mulps 0xbcea(%eax),%xmm1 .byte 15,88,202 // addps %xmm2,%xmm1 - .byte 15,89,152,243,187,0,0 // mulps 0xbbf3(%eax),%xmm3 + .byte 15,89,152,250,188,0,0 // mulps 0xbcfa(%eax),%xmm3 .byte 15,40,234 // movaps %xmm2,%xmm5 .byte 15,92,235 // subps %xmm3,%xmm5 .byte 15,40,193 // movaps %xmm1,%xmm0 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 15,89,193 // mulps %xmm1,%xmm0 - .byte 15,40,152,3,188,0,0 // movaps 0xbc03(%eax),%xmm3 + .byte 15,40,152,10,189,0,0 // movaps 0xbd0a(%eax),%xmm3 .byte 15,40,227 // movaps %xmm3,%xmm4 .byte 15,194,224,1 // cmpltps %xmm0,%xmm4 - .byte 15,40,176,19,188,0,0 // movaps 0xbc13(%eax),%xmm6 + .byte 15,40,176,26,189,0,0 // movaps 0xbd1a(%eax),%xmm6 .byte 15,88,206 // addps %xmm6,%xmm1 - .byte 15,40,184,35,188,0,0 // movaps 0xbc23(%eax),%xmm7 + .byte 15,40,184,42,189,0,0 // movaps 0xbd2a(%eax),%xmm7 .byte 15,89,207 // mulps %xmm7,%xmm1 .byte 15,84,196 // andps %xmm4,%xmm0 .byte 15,85,225 // andnps %xmm1,%xmm4 @@ -64565,8 +65175,8 @@ _sk_lab_to_xyz_sse2: .byte 15,85,221 // andnps %xmm5,%xmm3 .byte 15,86,216 // orps %xmm0,%xmm3 .byte 139,77,12 // mov 0xc(%ebp),%ecx - .byte 15,89,160,51,188,0,0 // mulps 0xbc33(%eax),%xmm4 - .byte 15,89,152,67,188,0,0 // mulps 0xbc43(%eax),%xmm3 + .byte 15,89,160,58,189,0,0 // mulps 0xbd3a(%eax),%xmm4 + .byte 15,89,152,74,189,0,0 // mulps 0xbd4a(%eax),%xmm3 .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 15,40,196 // movaps %xmm4,%xmm0 @@ -64589,7 +65199,7 @@ _sk_load_a8_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 41bd <_sk_load_a8_sse2+0xe> + .byte 232,0,0,0,0 // call 42a6 <_sk_load_a8_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -64600,13 +65210,13 @@ _sk_load_a8_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi - .byte 117,60 // jne 4214 <_sk_load_a8_sse2+0x65> + .byte 117,60 // jne 42fd <_sk_load_a8_sse2+0x65> .byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0 - .byte 102,15,219,130,51,184,0,0 // pand 0xb833(%edx),%xmm0 + .byte 102,15,219,130,58,185,0,0 // pand 0xb93a(%edx),%xmm0 .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3 - .byte 15,89,154,115,185,0,0 // mulps 0xb973(%edx),%xmm3 + .byte 15,89,154,122,186,0,0 // mulps 0xba7a(%edx),%xmm3 .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 15,87,192 // xorps %xmm0,%xmm0 @@ -64623,12 +65233,12 @@ _sk_load_a8_sse2: .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,50 // je 424e <_sk_load_a8_sse2+0x9f> + .byte 116,50 // je 4337 <_sk_load_a8_sse2+0x9f> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 128,251,2 // cmp $0x2,%bl - .byte 116,19 // je 4238 <_sk_load_a8_sse2+0x89> + .byte 116,19 // je 4321 <_sk_load_a8_sse2+0x89> .byte 128,251,3 // cmp $0x3,%bl - .byte 117,187 // jne 41e5 <_sk_load_a8_sse2+0x36> + .byte 117,187 // jne 42ce <_sk_load_a8_sse2+0x36> .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx .byte 102,15,110,195 // movd %ebx,%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 @@ -64637,10 +65247,10 @@ _sk_load_a8_sse2: .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 242,15,16,193 // movsd %xmm1,%xmm0 - .byte 235,151 // jmp 41e5 <_sk_load_a8_sse2+0x36> + .byte 235,151 // jmp 42ce <_sk_load_a8_sse2+0x36> .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi .byte 102,15,110,198 // movd %esi,%xmm0 - .byte 235,141 // jmp 41e5 <_sk_load_a8_sse2+0x36> + .byte 235,141 // jmp 42ce <_sk_load_a8_sse2+0x36> HIDDEN _sk_load_a8_dst_sse2 .globl _sk_load_a8_dst_sse2 @@ -64665,15 +65275,15 @@ _sk_load_a8_dst_sse2: .byte 102,15,127,97,32 // movdqa %xmm4,0x20(%ecx) .byte 102,15,127,97,16 // movdqa %xmm4,0x10(%ecx) .byte 133,219 // test %ebx,%ebx - .byte 232,0,0,0,0 // call 4291 <_sk_load_a8_dst_sse2+0x39> + .byte 232,0,0,0,0 // call 437a <_sk_load_a8_dst_sse2+0x39> .byte 90 // pop %edx - .byte 117,54 // jne 42ca <_sk_load_a8_dst_sse2+0x72> + .byte 117,54 // jne 43b3 <_sk_load_a8_dst_sse2+0x72> .byte 102,15,110,36,55 // movd (%edi,%esi,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 - .byte 102,15,219,162,95,183,0,0 // pand 0xb75f(%edx),%xmm4 + .byte 102,15,219,162,102,184,0,0 // pand 0xb866(%edx),%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 15,89,162,159,184,0,0 // mulps 0xb89f(%edx),%xmm4 + .byte 15,89,162,166,185,0,0 // mulps 0xb9a6(%edx),%xmm4 .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp @@ -64688,11 +65298,11 @@ _sk_load_a8_dst_sse2: .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,46 // je 4300 <_sk_load_a8_dst_sse2+0xa8> + .byte 116,46 // je 43e9 <_sk_load_a8_dst_sse2+0xa8> .byte 128,251,2 // cmp $0x2,%bl - .byte 116,19 // je 42ea <_sk_load_a8_dst_sse2+0x92> + .byte 116,19 // je 43d3 <_sk_load_a8_dst_sse2+0x92> .byte 128,251,3 // cmp $0x3,%bl - .byte 117,197 // jne 42a1 <_sk_load_a8_dst_sse2+0x49> + .byte 117,197 // jne 438a <_sk_load_a8_dst_sse2+0x49> .byte 15,182,92,55,2 // movzbl 0x2(%edi,%esi,1),%ebx .byte 102,15,110,227 // movd %ebx,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 @@ -64701,10 +65311,10 @@ _sk_load_a8_dst_sse2: .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 - .byte 235,161 // jmp 42a1 <_sk_load_a8_dst_sse2+0x49> + .byte 235,161 // jmp 438a <_sk_load_a8_dst_sse2+0x49> .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi .byte 102,15,110,230 // movd %esi,%xmm4 - .byte 235,151 // jmp 42a1 <_sk_load_a8_dst_sse2+0x49> + .byte 235,151 // jmp 438a <_sk_load_a8_dst_sse2+0x49> HIDDEN _sk_gather_a8_sse2 .globl _sk_gather_a8_sse2 @@ -64758,13 +65368,13 @@ _sk_gather_a8_sse2: .byte 9,202 // or %ecx,%edx .byte 102,15,110,194 // movd %edx,%xmm0 .byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0 - .byte 232,0,0,0,0 // call 43be <_sk_gather_a8_sse2+0xb4> + .byte 232,0,0,0,0 // call 44a7 <_sk_gather_a8_sse2+0xb4> .byte 89 // pop %ecx .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,15,96,193 // punpcklbw %xmm1,%xmm0 .byte 102,15,97,193 // punpcklwd %xmm1,%xmm0 .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3 - .byte 15,89,153,114,183,0,0 // mulps 0xb772(%ecx),%xmm3 + .byte 15,89,153,121,184,0,0 // mulps 0xb879(%ecx),%xmm3 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 15,87,192 // xorps %xmm0,%xmm0 @@ -64789,7 +65399,7 @@ _sk_store_a8_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 4402 <_sk_store_a8_sse2+0xe> + .byte 232,0,0,0,0 // call 44eb <_sk_store_a8_sse2+0xe> .byte 94 // pop %esi .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -64798,8 +65408,10 @@ _sk_store_a8_sse2: .byte 15,175,81,4 // imul 0x4(%ecx),%edx .byte 3,23 // add (%edi),%edx .byte 139,89,8 // mov 0x8(%ecx),%ebx - .byte 15,40,166,254,181,0,0 // movaps 0xb5fe(%esi),%xmm4 - .byte 15,89,227 // mulps %xmm3,%xmm4 + .byte 15,87,228 // xorps %xmm4,%xmm4 + .byte 15,95,227 // maxps %xmm3,%xmm4 + .byte 15,93,166,53,182,0,0 // minps 0xb635(%esi),%xmm4 + .byte 15,89,166,5,183,0,0 // mulps 0xb705(%esi),%xmm4 .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4 .byte 102,15,114,244,16 // pslld $0x10,%xmm4 .byte 102,15,114,228,16 // psrad $0x10,%xmm4 @@ -64807,7 +65419,7 @@ _sk_store_a8_sse2: .byte 102,15,103,224 // packuswb %xmm0,%xmm4 .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi - .byte 117,26 // jne 4457 <_sk_store_a8_sse2+0x63> + .byte 117,26 // jne 454a <_sk_store_a8_sse2+0x6d> .byte 102,15,126,230 // movd %xmm4,%esi .byte 137,52,58 // mov %esi,(%edx,%edi,1) .byte 141,80,8 // lea 0x8(%eax),%edx @@ -64825,24 +65437,24 @@ _sk_store_a8_sse2: .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,54 // je 449d <_sk_store_a8_sse2+0xa9> + .byte 116,54 // je 4590 <_sk_store_a8_sse2+0xb3> .byte 128,251,2 // cmp $0x2,%bl - .byte 116,14 // je 447a <_sk_store_a8_sse2+0x86> + .byte 116,14 // je 456d <_sk_store_a8_sse2+0x90> .byte 128,251,3 // cmp $0x3,%bl - .byte 117,211 // jne 4444 <_sk_store_a8_sse2+0x50> + .byte 117,211 // jne 4537 <_sk_store_a8_sse2+0x5a> .byte 102,15,197,220,4 // pextrw $0x4,%xmm4,%ebx .byte 136,92,58,2 // mov %bl,0x2(%edx,%edi,1) .byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4 - .byte 102,15,219,166,30,185,0,0 // pand 0xb91e(%esi),%xmm4 + .byte 102,15,219,166,37,186,0,0 // pand 0xba25(%esi),%xmm4 .byte 102,15,103,228 // packuswb %xmm4,%xmm4 .byte 102,15,103,228 // packuswb %xmm4,%xmm4 .byte 102,15,103,228 // packuswb %xmm4,%xmm4 .byte 102,15,126,230 // movd %xmm4,%esi .byte 102,137,52,58 // mov %si,(%edx,%edi,1) - .byte 235,167 // jmp 4444 <_sk_store_a8_sse2+0x50> + .byte 235,167 // jmp 4537 <_sk_store_a8_sse2+0x5a> .byte 102,15,126,227 // movd %xmm4,%ebx .byte 136,28,58 // mov %bl,(%edx,%edi,1) - .byte 235,158 // jmp 4444 <_sk_store_a8_sse2+0x50> + .byte 235,158 // jmp 4537 <_sk_store_a8_sse2+0x5a> HIDDEN _sk_load_g8_sse2 .globl _sk_load_g8_sse2 @@ -64854,7 +65466,7 @@ _sk_load_g8_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 44b4 <_sk_load_g8_sse2+0xe> + .byte 232,0,0,0,0 // call 45a7 <_sk_load_g8_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -64865,16 +65477,16 @@ _sk_load_g8_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi - .byte 117,63 // jne 450e <_sk_load_g8_sse2+0x68> + .byte 117,63 // jne 4601 <_sk_load_g8_sse2+0x68> .byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0 - .byte 102,15,219,130,60,181,0,0 // pand 0xb53c(%edx),%xmm0 + .byte 102,15,219,130,57,182,0,0 // pand 0xb639(%edx),%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,89,130,124,182,0,0 // mulps 0xb67c(%edx),%xmm0 + .byte 15,89,130,121,183,0,0 // mulps 0xb779(%edx),%xmm0 .byte 141,112,8 // lea 0x8(%eax),%esi .byte 131,236,8 // sub $0x8,%esp - .byte 15,40,154,124,180,0,0 // movaps 0xb47c(%edx),%xmm3 + .byte 15,40,154,121,181,0,0 // movaps 0xb579(%edx),%xmm3 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 86 // push %esi @@ -64888,12 +65500,12 @@ _sk_load_g8_sse2: .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,50 // je 4548 <_sk_load_g8_sse2+0xa2> + .byte 116,50 // je 463b <_sk_load_g8_sse2+0xa2> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 128,251,2 // cmp $0x2,%bl - .byte 116,19 // je 4532 <_sk_load_g8_sse2+0x8c> + .byte 116,19 // je 4625 <_sk_load_g8_sse2+0x8c> .byte 128,251,3 // cmp $0x3,%bl - .byte 117,184 // jne 44dc <_sk_load_g8_sse2+0x36> + .byte 117,184 // jne 45cf <_sk_load_g8_sse2+0x36> .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx .byte 102,15,110,195 // movd %ebx,%xmm0 .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0 @@ -64902,10 +65514,10 @@ _sk_load_g8_sse2: .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 242,15,16,193 // movsd %xmm1,%xmm0 - .byte 235,148 // jmp 44dc <_sk_load_g8_sse2+0x36> + .byte 235,148 // jmp 45cf <_sk_load_g8_sse2+0x36> .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi .byte 102,15,110,198 // movd %esi,%xmm0 - .byte 235,138 // jmp 44dc <_sk_load_g8_sse2+0x36> + .byte 235,138 // jmp 45cf <_sk_load_g8_sse2+0x36> HIDDEN _sk_load_g8_dst_sse2 .globl _sk_load_g8_dst_sse2 @@ -64917,7 +65529,7 @@ _sk_load_g8_dst_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 4560 <_sk_load_g8_dst_sse2+0xe> + .byte 232,0,0,0,0 // call 4653 <_sk_load_g8_dst_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -64928,17 +65540,17 @@ _sk_load_g8_dst_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi - .byte 117,73 // jne 45c4 <_sk_load_g8_dst_sse2+0x72> + .byte 117,73 // jne 46b7 <_sk_load_g8_dst_sse2+0x72> .byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 - .byte 102,15,219,162,144,180,0,0 // pand 0xb490(%edx),%xmm4 + .byte 102,15,219,162,141,181,0,0 // pand 0xb58d(%edx),%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 15,89,162,208,181,0,0 // mulps 0xb5d0(%edx),%xmm4 + .byte 15,89,162,205,182,0,0 // mulps 0xb6cd(%edx),%xmm4 .byte 15,41,97,48 // movaps %xmm4,0x30(%ecx) .byte 15,41,97,32 // movaps %xmm4,0x20(%ecx) .byte 15,41,97,16 // movaps %xmm4,0x10(%ecx) - .byte 15,40,162,208,179,0,0 // movaps 0xb3d0(%edx),%xmm4 + .byte 15,40,162,205,180,0,0 // movaps 0xb4cd(%edx),%xmm4 .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp @@ -64953,12 +65565,12 @@ _sk_load_g8_dst_sse2: .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,50 // je 45fe <_sk_load_g8_dst_sse2+0xac> + .byte 116,50 // je 46f1 <_sk_load_g8_dst_sse2+0xac> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 128,251,2 // cmp $0x2,%bl - .byte 116,19 // je 45e8 <_sk_load_g8_dst_sse2+0x96> + .byte 116,19 // je 46db <_sk_load_g8_dst_sse2+0x96> .byte 128,251,3 // cmp $0x3,%bl - .byte 117,174 // jne 4588 <_sk_load_g8_dst_sse2+0x36> + .byte 117,174 // jne 467b <_sk_load_g8_dst_sse2+0x36> .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx .byte 102,15,110,227 // movd %ebx,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 @@ -64967,10 +65579,10 @@ _sk_load_g8_dst_sse2: .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 - .byte 235,138 // jmp 4588 <_sk_load_g8_dst_sse2+0x36> + .byte 235,138 // jmp 467b <_sk_load_g8_dst_sse2+0x36> .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi .byte 102,15,110,230 // movd %esi,%xmm4 - .byte 235,128 // jmp 4588 <_sk_load_g8_dst_sse2+0x36> + .byte 235,128 // jmp 467b <_sk_load_g8_dst_sse2+0x36> HIDDEN _sk_gather_g8_sse2 .globl _sk_gather_g8_sse2 @@ -65023,17 +65635,17 @@ _sk_gather_g8_sse2: .byte 193,226,8 // shl $0x8,%edx .byte 9,202 // or %ecx,%edx .byte 102,15,110,194 // movd %edx,%xmm0 - .byte 232,0,0,0,0 // call 46b7 <_sk_gather_g8_sse2+0xaf> + .byte 232,0,0,0,0 // call 47aa <_sk_gather_g8_sse2+0xaf> .byte 89 // pop %ecx .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0 .byte 102,15,96,193 // punpcklbw %xmm1,%xmm0 .byte 102,15,97,193 // punpcklwd %xmm1,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,89,129,121,180,0,0 // mulps 0xb479(%ecx),%xmm0 + .byte 15,89,129,118,181,0,0 // mulps 0xb576(%ecx),%xmm0 .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp - .byte 15,40,153,121,178,0,0 // movaps 0xb279(%ecx),%xmm3 + .byte 15,40,153,118,179,0,0 // movaps 0xb376(%ecx),%xmm3 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 82 // push %edx @@ -65055,7 +65667,7 @@ _sk_load_565_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 4702 <_sk_load_565_sse2+0xe> + .byte 232,0,0,0,0 // call 47f5 <_sk_load_565_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -65067,23 +65679,23 @@ _sk_load_565_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi - .byte 117,97 // jne 4780 <_sk_load_565_sse2+0x8c> + .byte 117,97 // jne 4873 <_sk_load_565_sse2+0x8c> .byte 243,15,126,20,126 // movq (%esi,%edi,2),%xmm2 .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2 - .byte 102,15,111,130,62,180,0,0 // movdqa 0xb43e(%edx),%xmm0 + .byte 102,15,111,130,59,181,0,0 // movdqa 0xb53b(%edx),%xmm0 .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,89,130,78,180,0,0 // mulps 0xb44e(%edx),%xmm0 - .byte 102,15,111,138,94,180,0,0 // movdqa 0xb45e(%edx),%xmm1 + .byte 15,89,130,75,181,0,0 // mulps 0xb54b(%edx),%xmm0 + .byte 102,15,111,138,91,181,0,0 // movdqa 0xb55b(%edx),%xmm1 .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 - .byte 15,89,138,110,180,0,0 // mulps 0xb46e(%edx),%xmm1 - .byte 102,15,219,146,126,180,0,0 // pand 0xb47e(%edx),%xmm2 + .byte 15,89,138,107,181,0,0 // mulps 0xb56b(%edx),%xmm1 + .byte 102,15,219,146,123,181,0,0 // pand 0xb57b(%edx),%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 - .byte 15,89,146,142,180,0,0 // mulps 0xb48e(%edx),%xmm2 + .byte 15,89,146,139,181,0,0 // mulps 0xb58b(%edx),%xmm2 .byte 141,112,8 // lea 0x8(%eax),%esi .byte 131,236,8 // sub $0x8,%esp - .byte 15,40,154,46,178,0,0 // movaps 0xb22e(%edx),%xmm3 + .byte 15,40,154,43,179,0,0 // movaps 0xb32b(%edx),%xmm3 .byte 86 // push %esi .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) @@ -65095,22 +65707,22 @@ _sk_load_565_sse2: .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,47 // je 47b7 <_sk_load_565_sse2+0xc3> + .byte 116,47 // je 48aa <_sk_load_565_sse2+0xc3> .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 128,251,2 // cmp $0x2,%bl - .byte 116,19 // je 47a4 <_sk_load_565_sse2+0xb0> + .byte 116,19 // je 4897 <_sk_load_565_sse2+0xb0> .byte 128,251,3 // cmp $0x3,%bl - .byte 117,146 // jne 4728 <_sk_load_565_sse2+0x34> + .byte 117,146 // jne 481b <_sk_load_565_sse2+0x34> .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx .byte 102,15,110,195 // movd %ebx,%xmm0 .byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2 .byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0 .byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0 .byte 242,15,16,208 // movsd %xmm0,%xmm2 - .byte 233,113,255,255,255 // jmp 4728 <_sk_load_565_sse2+0x34> + .byte 233,113,255,255,255 // jmp 481b <_sk_load_565_sse2+0x34> .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi .byte 102,15,110,214 // movd %esi,%xmm2 - .byte 233,100,255,255,255 // jmp 4728 <_sk_load_565_sse2+0x34> + .byte 233,100,255,255,255 // jmp 481b <_sk_load_565_sse2+0x34> HIDDEN _sk_load_565_dst_sse2 .globl _sk_load_565_dst_sse2 @@ -65122,7 +65734,7 @@ _sk_load_565_dst_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 47d2 <_sk_load_565_dst_sse2+0xe> + .byte 232,0,0,0,0 // call 48c5 <_sk_load_565_dst_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -65134,24 +65746,24 @@ _sk_load_565_dst_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi - .byte 117,113 // jne 4860 <_sk_load_565_dst_sse2+0x9c> + .byte 117,113 // jne 4953 <_sk_load_565_dst_sse2+0x9c> .byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 - .byte 102,15,111,170,110,179,0,0 // movdqa 0xb36e(%edx),%xmm5 + .byte 102,15,111,170,107,180,0,0 // movdqa 0xb46b(%edx),%xmm5 .byte 102,15,219,236 // pand %xmm4,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 - .byte 15,89,170,126,179,0,0 // mulps 0xb37e(%edx),%xmm5 + .byte 15,89,170,123,180,0,0 // mulps 0xb47b(%edx),%xmm5 .byte 15,41,105,16 // movaps %xmm5,0x10(%ecx) - .byte 102,15,111,170,142,179,0,0 // movdqa 0xb38e(%edx),%xmm5 + .byte 102,15,111,170,139,180,0,0 // movdqa 0xb48b(%edx),%xmm5 .byte 102,15,219,236 // pand %xmm4,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 - .byte 15,89,170,158,179,0,0 // mulps 0xb39e(%edx),%xmm5 + .byte 15,89,170,155,180,0,0 // mulps 0xb49b(%edx),%xmm5 .byte 15,41,105,32 // movaps %xmm5,0x20(%ecx) - .byte 102,15,219,162,174,179,0,0 // pand 0xb3ae(%edx),%xmm4 + .byte 102,15,219,162,171,180,0,0 // pand 0xb4ab(%edx),%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 15,89,162,190,179,0,0 // mulps 0xb3be(%edx),%xmm4 + .byte 15,89,162,187,180,0,0 // mulps 0xb4bb(%edx),%xmm4 .byte 15,41,97,48 // movaps %xmm4,0x30(%ecx) - .byte 15,40,162,94,177,0,0 // movaps 0xb15e(%edx),%xmm4 + .byte 15,40,162,91,178,0,0 // movaps 0xb25b(%edx),%xmm4 .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp @@ -65166,22 +65778,22 @@ _sk_load_565_dst_sse2: .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,47 // je 4897 <_sk_load_565_dst_sse2+0xd3> + .byte 116,47 // je 498a <_sk_load_565_dst_sse2+0xd3> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 128,251,2 // cmp $0x2,%bl - .byte 116,19 // je 4884 <_sk_load_565_dst_sse2+0xc0> + .byte 116,19 // je 4977 <_sk_load_565_dst_sse2+0xc0> .byte 128,251,3 // cmp $0x3,%bl - .byte 117,130 // jne 47f8 <_sk_load_565_dst_sse2+0x34> + .byte 117,130 // jne 48eb <_sk_load_565_dst_sse2+0x34> .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx .byte 102,15,110,227 // movd %ebx,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 .byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5 .byte 242,15,112,237,212 // pshuflw $0xd4,%xmm5,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 - .byte 233,97,255,255,255 // jmp 47f8 <_sk_load_565_dst_sse2+0x34> + .byte 233,97,255,255,255 // jmp 48eb <_sk_load_565_dst_sse2+0x34> .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi .byte 102,15,110,230 // movd %esi,%xmm4 - .byte 233,84,255,255,255 // jmp 47f8 <_sk_load_565_dst_sse2+0x34> + .byte 233,84,255,255,255 // jmp 48eb <_sk_load_565_dst_sse2+0x34> HIDDEN _sk_gather_565_sse2 .globl _sk_gather_565_sse2 @@ -65231,25 +65843,25 @@ _sk_gather_565_sse2: .byte 102,15,196,209,2 // pinsrw $0x2,%ecx,%xmm2 .byte 102,15,126,193 // movd %xmm0,%ecx .byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx - .byte 232,0,0,0,0 // call 4954 <_sk_gather_565_sse2+0xb0> + .byte 232,0,0,0,0 // call 4a47 <_sk_gather_565_sse2+0xb0> .byte 90 // pop %edx .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,196,209,3 // pinsrw $0x3,%ecx,%xmm2 .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2 - .byte 102,15,111,130,236,177,0,0 // movdqa 0xb1ec(%edx),%xmm0 + .byte 102,15,111,130,233,178,0,0 // movdqa 0xb2e9(%edx),%xmm0 .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,89,130,252,177,0,0 // mulps 0xb1fc(%edx),%xmm0 - .byte 102,15,111,138,12,178,0,0 // movdqa 0xb20c(%edx),%xmm1 + .byte 15,89,130,249,178,0,0 // mulps 0xb2f9(%edx),%xmm0 + .byte 102,15,111,138,9,179,0,0 // movdqa 0xb309(%edx),%xmm1 .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 - .byte 15,89,138,28,178,0,0 // mulps 0xb21c(%edx),%xmm1 - .byte 102,15,219,146,44,178,0,0 // pand 0xb22c(%edx),%xmm2 + .byte 15,89,138,25,179,0,0 // mulps 0xb319(%edx),%xmm1 + .byte 102,15,219,146,41,179,0,0 // pand 0xb329(%edx),%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 - .byte 15,89,146,60,178,0,0 // mulps 0xb23c(%edx),%xmm2 + .byte 15,89,146,57,179,0,0 // mulps 0xb339(%edx),%xmm2 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp - .byte 15,40,154,220,175,0,0 // movaps 0xafdc(%edx),%xmm3 + .byte 15,40,154,217,176,0,0 // movaps 0xb0d9(%edx),%xmm3 .byte 81 // push %ecx .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,80,4 // call *0x4(%eax) @@ -65267,29 +65879,37 @@ _sk_store_565_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 49c7 <_sk_store_565_sse2+0xe> - .byte 95 // pop %edi + .byte 232,0,0,0,0 // call 4aba <_sk_store_565_sse2+0xe> + .byte 94 // pop %esi + .byte 15,87,228 // xorps %xmm4,%xmm4 + .byte 15,87,237 // xorps %xmm5,%xmm5 + .byte 15,95,232 // maxps %xmm0,%xmm5 + .byte 15,40,182,102,176,0,0 // movaps 0xb066(%esi),%xmm6 + .byte 15,93,238 // minps %xmm6,%xmm5 + .byte 15,87,255 // xorps %xmm7,%xmm7 + .byte 15,95,249 // maxps %xmm1,%xmm7 + .byte 15,93,254 // minps %xmm6,%xmm7 + .byte 15,95,226 // maxps %xmm2,%xmm4 + .byte 15,93,230 // minps %xmm6,%xmm4 + .byte 15,40,182,102,180,0,0 // movaps 0xb466(%esi),%xmm6 + .byte 15,89,238 // mulps %xmm6,%xmm5 + .byte 15,89,230 // mulps %xmm6,%xmm4 + .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 + .byte 102,15,114,245,11 // pslld $0xb,%xmm5 + .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4 + .byte 102,15,86,229 // orpd %xmm5,%xmm4 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx - .byte 139,48 // mov (%eax),%esi - .byte 139,86,4 // mov 0x4(%esi),%edx + .byte 139,56 // mov (%eax),%edi + .byte 139,87,4 // mov 0x4(%edi),%edx .byte 15,175,81,4 // imul 0x4(%ecx),%edx .byte 1,210 // add %edx,%edx - .byte 3,22 // add (%esi),%edx - .byte 139,49 // mov (%ecx),%esi - .byte 15,40,167,105,179,0,0 // movaps 0xb369(%edi),%xmm4 - .byte 15,40,175,121,179,0,0 // movaps 0xb379(%edi),%xmm5 + .byte 3,23 // add (%edi),%edx + .byte 139,57 // mov (%ecx),%edi + .byte 15,89,190,118,180,0,0 // mulps 0xb476(%esi),%xmm7 .byte 139,89,8 // mov 0x8(%ecx),%ebx - .byte 15,40,240 // movaps %xmm0,%xmm6 - .byte 15,89,244 // mulps %xmm4,%xmm6 - .byte 102,15,91,246 // cvtps2dq %xmm6,%xmm6 - .byte 102,15,114,246,11 // pslld $0xb,%xmm6 - .byte 15,89,233 // mulps %xmm1,%xmm5 - .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 + .byte 102,15,91,239 // cvtps2dq %xmm7,%xmm5 .byte 102,15,114,245,5 // pslld $0x5,%xmm5 - .byte 102,15,235,238 // por %xmm6,%xmm5 - .byte 15,89,226 // mulps %xmm2,%xmm4 - .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4 .byte 102,15,86,229 // orpd %xmm5,%xmm4 .byte 102,15,114,244,16 // pslld $0x10,%xmm4 .byte 102,15,114,228,16 // psrad $0x10,%xmm4 @@ -65298,11 +65918,11 @@ _sk_store_565_sse2: .byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5 .byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp) .byte 133,219 // test %ebx,%ebx - .byte 117,34 // jne 4a5b <_sk_store_565_sse2+0xa2> - .byte 102,15,126,231 // movd %xmm4,%edi + .byte 117,34 // jne 4b6a <_sk_store_565_sse2+0xbe> + .byte 102,15,126,230 // movd %xmm4,%esi .byte 102,15,126,235 // movd %xmm5,%ebx - .byte 137,60,114 // mov %edi,(%edx,%esi,2) - .byte 137,92,114,4 // mov %ebx,0x4(%edx,%esi,2) + .byte 137,52,122 // mov %esi,(%edx,%edi,2) + .byte 137,92,122,4 // mov %ebx,0x4(%edx,%edi,2) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx @@ -65318,20 +65938,20 @@ _sk_store_565_sse2: .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,37 // je 4a91 <_sk_store_565_sse2+0xd8> + .byte 116,37 // je 4ba0 <_sk_store_565_sse2+0xf4> .byte 128,251,2 // cmp $0x2,%bl - .byte 116,15 // je 4a80 <_sk_store_565_sse2+0xc7> + .byte 116,15 // je 4b8f <_sk_store_565_sse2+0xe3> .byte 128,251,3 // cmp $0x3,%bl - .byte 117,210 // jne 4a48 <_sk_store_565_sse2+0x8f> - .byte 102,15,197,252,4 // pextrw $0x4,%xmm4,%edi - .byte 102,137,124,114,4 // mov %di,0x4(%edx,%esi,2) + .byte 117,210 // jne 4b57 <_sk_store_565_sse2+0xab> + .byte 102,15,197,244,4 // pextrw $0x4,%xmm4,%esi + .byte 102,137,116,122,4 // mov %si,0x4(%edx,%edi,2) .byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4 .byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4 - .byte 102,15,126,36,114 // movd %xmm4,(%edx,%esi,2) - .byte 235,183 // jmp 4a48 <_sk_store_565_sse2+0x8f> - .byte 102,15,126,231 // movd %xmm4,%edi - .byte 102,137,60,114 // mov %di,(%edx,%esi,2) - .byte 235,173 // jmp 4a48 <_sk_store_565_sse2+0x8f> + .byte 102,15,126,36,122 // movd %xmm4,(%edx,%edi,2) + .byte 235,183 // jmp 4b57 <_sk_store_565_sse2+0xab> + .byte 102,15,126,230 // movd %xmm4,%esi + .byte 102,137,52,122 // mov %si,(%edx,%edi,2) + .byte 235,173 // jmp 4b57 <_sk_store_565_sse2+0xab> HIDDEN _sk_load_4444_sse2 .globl _sk_load_4444_sse2 @@ -65343,7 +65963,7 @@ _sk_load_4444_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 4aa9 <_sk_load_4444_sse2+0xe> + .byte 232,0,0,0,0 // call 4bb8 <_sk_load_4444_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -65355,24 +65975,24 @@ _sk_load_4444_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi - .byte 117,112 // jne 4b36 <_sk_load_4444_sse2+0x9b> + .byte 117,112 // jne 4c45 <_sk_load_4444_sse2+0x9b> .byte 243,15,126,28,126 // movq (%esi,%edi,2),%xmm3 .byte 102,15,97,216 // punpcklwd %xmm0,%xmm3 - .byte 102,15,111,130,167,178,0,0 // movdqa 0xb2a7(%edx),%xmm0 + .byte 102,15,111,130,136,179,0,0 // movdqa 0xb388(%edx),%xmm0 .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,89,130,183,178,0,0 // mulps 0xb2b7(%edx),%xmm0 - .byte 102,15,111,138,199,178,0,0 // movdqa 0xb2c7(%edx),%xmm1 + .byte 15,89,130,152,179,0,0 // mulps 0xb398(%edx),%xmm0 + .byte 102,15,111,138,168,179,0,0 // movdqa 0xb3a8(%edx),%xmm1 .byte 102,15,219,203 // pand %xmm3,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 - .byte 15,89,138,215,178,0,0 // mulps 0xb2d7(%edx),%xmm1 - .byte 102,15,111,146,231,178,0,0 // movdqa 0xb2e7(%edx),%xmm2 + .byte 15,89,138,184,179,0,0 // mulps 0xb3b8(%edx),%xmm1 + .byte 102,15,111,146,200,179,0,0 // movdqa 0xb3c8(%edx),%xmm2 .byte 102,15,219,211 // pand %xmm3,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 - .byte 15,89,146,247,178,0,0 // mulps 0xb2f7(%edx),%xmm2 - .byte 102,15,219,154,7,179,0,0 // pand 0xb307(%edx),%xmm3 + .byte 15,89,146,216,179,0,0 // mulps 0xb3d8(%edx),%xmm2 + .byte 102,15,219,154,232,179,0,0 // pand 0xb3e8(%edx),%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 - .byte 15,89,154,23,179,0,0 // mulps 0xb317(%edx),%xmm3 + .byte 15,89,154,248,179,0,0 // mulps 0xb3f8(%edx),%xmm3 .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp .byte 82 // push %edx @@ -65386,22 +66006,22 @@ _sk_load_4444_sse2: .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,47 // je 4b6d <_sk_load_4444_sse2+0xd2> + .byte 116,47 // je 4c7c <_sk_load_4444_sse2+0xd2> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 128,251,2 // cmp $0x2,%bl - .byte 116,19 // je 4b5a <_sk_load_4444_sse2+0xbf> + .byte 116,19 // je 4c69 <_sk_load_4444_sse2+0xbf> .byte 128,251,3 // cmp $0x3,%bl - .byte 117,131 // jne 4acf <_sk_load_4444_sse2+0x34> + .byte 117,131 // jne 4bde <_sk_load_4444_sse2+0x34> .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx .byte 102,15,110,195 // movd %ebx,%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0 .byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0 .byte 242,15,16,216 // movsd %xmm0,%xmm3 - .byte 233,98,255,255,255 // jmp 4acf <_sk_load_4444_sse2+0x34> + .byte 233,98,255,255,255 // jmp 4bde <_sk_load_4444_sse2+0x34> .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi .byte 102,15,110,222 // movd %esi,%xmm3 - .byte 233,85,255,255,255 // jmp 4acf <_sk_load_4444_sse2+0x34> + .byte 233,85,255,255,255 // jmp 4bde <_sk_load_4444_sse2+0x34> HIDDEN _sk_load_4444_dst_sse2 .globl _sk_load_4444_dst_sse2 @@ -65413,7 +66033,7 @@ _sk_load_4444_dst_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 4b88 <_sk_load_4444_dst_sse2+0xe> + .byte 232,0,0,0,0 // call 4c97 <_sk_load_4444_dst_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -65425,27 +66045,27 @@ _sk_load_4444_dst_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi - .byte 15,133,128,0,0,0 // jne 4c29 <_sk_load_4444_dst_sse2+0xaf> + .byte 15,133,128,0,0,0 // jne 4d38 <_sk_load_4444_dst_sse2+0xaf> .byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4 .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 - .byte 102,15,111,170,200,177,0,0 // movdqa 0xb1c8(%edx),%xmm5 + .byte 102,15,111,170,169,178,0,0 // movdqa 0xb2a9(%edx),%xmm5 .byte 102,15,219,236 // pand %xmm4,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 - .byte 15,89,170,216,177,0,0 // mulps 0xb1d8(%edx),%xmm5 + .byte 15,89,170,185,178,0,0 // mulps 0xb2b9(%edx),%xmm5 .byte 15,41,105,16 // movaps %xmm5,0x10(%ecx) - .byte 102,15,111,170,232,177,0,0 // movdqa 0xb1e8(%edx),%xmm5 + .byte 102,15,111,170,201,178,0,0 // movdqa 0xb2c9(%edx),%xmm5 .byte 102,15,219,236 // pand %xmm4,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 - .byte 15,89,170,248,177,0,0 // mulps 0xb1f8(%edx),%xmm5 + .byte 15,89,170,217,178,0,0 // mulps 0xb2d9(%edx),%xmm5 .byte 15,41,105,32 // movaps %xmm5,0x20(%ecx) - .byte 102,15,111,170,8,178,0,0 // movdqa 0xb208(%edx),%xmm5 + .byte 102,15,111,170,233,178,0,0 // movdqa 0xb2e9(%edx),%xmm5 .byte 102,15,219,236 // pand %xmm4,%xmm5 .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5 - .byte 15,89,170,24,178,0,0 // mulps 0xb218(%edx),%xmm5 + .byte 15,89,170,249,178,0,0 // mulps 0xb2f9(%edx),%xmm5 .byte 15,41,105,48 // movaps %xmm5,0x30(%ecx) - .byte 102,15,219,162,40,178,0,0 // pand 0xb228(%edx),%xmm4 + .byte 102,15,219,162,9,179,0,0 // pand 0xb309(%edx),%xmm4 .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 - .byte 15,89,162,56,178,0,0 // mulps 0xb238(%edx),%xmm4 + .byte 15,89,162,25,179,0,0 // mulps 0xb319(%edx),%xmm4 .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp @@ -65460,22 +66080,22 @@ _sk_load_4444_dst_sse2: .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,51 // je 4c64 <_sk_load_4444_dst_sse2+0xea> + .byte 116,51 // je 4d73 <_sk_load_4444_dst_sse2+0xea> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 128,251,2 // cmp $0x2,%bl - .byte 116,23 // je 4c51 <_sk_load_4444_dst_sse2+0xd7> + .byte 116,23 // je 4d60 <_sk_load_4444_dst_sse2+0xd7> .byte 128,251,3 // cmp $0x3,%bl - .byte 15,133,111,255,255,255 // jne 4bb2 <_sk_load_4444_dst_sse2+0x38> + .byte 15,133,111,255,255,255 // jne 4cc1 <_sk_load_4444_dst_sse2+0x38> .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx .byte 102,15,110,227 // movd %ebx,%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 .byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5 .byte 242,15,112,237,212 // pshuflw $0xd4,%xmm5,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 - .byte 233,78,255,255,255 // jmp 4bb2 <_sk_load_4444_dst_sse2+0x38> + .byte 233,78,255,255,255 // jmp 4cc1 <_sk_load_4444_dst_sse2+0x38> .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi .byte 102,15,110,230 // movd %esi,%xmm4 - .byte 233,65,255,255,255 // jmp 4bb2 <_sk_load_4444_dst_sse2+0x38> + .byte 233,65,255,255,255 // jmp 4cc1 <_sk_load_4444_dst_sse2+0x38> HIDDEN _sk_gather_4444_sse2 .globl _sk_gather_4444_sse2 @@ -65526,25 +66146,25 @@ _sk_gather_4444_sse2: .byte 102,15,126,193 // movd %xmm0,%ecx .byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx .byte 102,15,196,217,3 // pinsrw $0x3,%ecx,%xmm3 - .byte 232,0,0,0,0 // call 4d26 <_sk_gather_4444_sse2+0xb5> + .byte 232,0,0,0,0 // call 4e35 <_sk_gather_4444_sse2+0xb5> .byte 89 // pop %ecx .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,97,216 // punpcklwd %xmm0,%xmm3 - .byte 102,15,111,129,42,176,0,0 // movdqa 0xb02a(%ecx),%xmm0 + .byte 102,15,111,129,11,177,0,0 // movdqa 0xb10b(%ecx),%xmm0 .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,89,129,58,176,0,0 // mulps 0xb03a(%ecx),%xmm0 - .byte 102,15,111,137,74,176,0,0 // movdqa 0xb04a(%ecx),%xmm1 + .byte 15,89,129,27,177,0,0 // mulps 0xb11b(%ecx),%xmm0 + .byte 102,15,111,137,43,177,0,0 // movdqa 0xb12b(%ecx),%xmm1 .byte 102,15,219,203 // pand %xmm3,%xmm1 .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1 - .byte 15,89,137,90,176,0,0 // mulps 0xb05a(%ecx),%xmm1 - .byte 102,15,111,145,106,176,0,0 // movdqa 0xb06a(%ecx),%xmm2 + .byte 15,89,137,59,177,0,0 // mulps 0xb13b(%ecx),%xmm1 + .byte 102,15,111,145,75,177,0,0 // movdqa 0xb14b(%ecx),%xmm2 .byte 102,15,219,211 // pand %xmm3,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 - .byte 15,89,145,122,176,0,0 // mulps 0xb07a(%ecx),%xmm2 - .byte 102,15,219,153,138,176,0,0 // pand 0xb08a(%ecx),%xmm3 + .byte 15,89,145,91,177,0,0 // mulps 0xb15b(%ecx),%xmm2 + .byte 102,15,219,153,107,177,0,0 // pand 0xb16b(%ecx),%xmm3 .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3 - .byte 15,89,153,154,176,0,0 // mulps 0xb09a(%ecx),%xmm3 + .byte 15,89,153,123,177,0,0 // mulps 0xb17b(%ecx),%xmm3 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp .byte 81 // push %ecx @@ -65563,36 +66183,48 @@ _sk_store_4444_sse2: .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi - .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 4da3 <_sk_store_4444_sse2+0xe> - .byte 95 // pop %edi + .byte 131,236,44 // sub $0x2c,%esp + .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp) + .byte 232,0,0,0,0 // call 4eb6 <_sk_store_4444_sse2+0x12> + .byte 88 // pop %eax + .byte 15,87,228 // xorps %xmm4,%xmm4 + .byte 15,95,224 // maxps %xmm0,%xmm4 + .byte 15,40,168,106,172,0,0 // movaps 0xac6a(%eax),%xmm5 + .byte 15,93,229 // minps %xmm5,%xmm4 + .byte 15,40,176,10,177,0,0 // movaps 0xb10a(%eax),%xmm6 + .byte 15,89,230 // mulps %xmm6,%xmm4 + .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4 + .byte 102,15,114,244,12 // pslld $0xc,%xmm4 + .byte 15,87,255 // xorps %xmm7,%xmm7 + .byte 15,95,249 // maxps %xmm1,%xmm7 + .byte 15,93,253 // minps %xmm5,%xmm7 + .byte 15,89,254 // mulps %xmm6,%xmm7 + .byte 102,15,91,255 // cvtps2dq %xmm7,%xmm7 + .byte 102,15,114,247,8 // pslld $0x8,%xmm7 + .byte 102,15,235,252 // por %xmm4,%xmm7 + .byte 102,15,239,228 // pxor %xmm4,%xmm4 + .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp) + .byte 15,95,226 // maxps %xmm2,%xmm4 + .byte 15,93,229 // minps %xmm5,%xmm4 + .byte 15,87,219 // xorps %xmm3,%xmm3 + .byte 15,95,93,216 // maxps -0x28(%ebp),%xmm3 + .byte 15,93,221 // minps %xmm5,%xmm3 + .byte 15,89,230 // mulps %xmm6,%xmm4 + .byte 15,89,222 // mulps %xmm6,%xmm3 + .byte 102,15,91,236 // cvtps2dq %xmm4,%xmm5 + .byte 102,15,114,245,4 // pslld $0x4,%xmm5 + .byte 102,15,91,227 // cvtps2dq %xmm3,%xmm4 + .byte 102,15,86,229 // orpd %xmm5,%xmm4 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx - .byte 139,48 // mov (%eax),%esi - .byte 139,86,4 // mov 0x4(%esi),%edx - .byte 15,175,81,4 // imul 0x4(%ecx),%edx - .byte 1,210 // add %edx,%edx - .byte 3,22 // add (%esi),%edx - .byte 139,49 // mov (%ecx),%esi - .byte 15,40,167,45,176,0,0 // movaps 0xb02d(%edi),%xmm4 + .byte 139,56 // mov (%eax),%edi + .byte 139,17 // mov (%ecx),%edx + .byte 139,119,4 // mov 0x4(%edi),%esi + .byte 15,175,113,4 // imul 0x4(%ecx),%esi + .byte 1,246 // add %esi,%esi + .byte 3,55 // add (%edi),%esi .byte 139,89,8 // mov 0x8(%ecx),%ebx - .byte 15,40,232 // movaps %xmm0,%xmm5 - .byte 15,89,236 // mulps %xmm4,%xmm5 - .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 - .byte 102,15,114,245,12 // pslld $0xc,%xmm5 - .byte 15,40,241 // movaps %xmm1,%xmm6 - .byte 15,89,244 // mulps %xmm4,%xmm6 - .byte 102,15,91,246 // cvtps2dq %xmm6,%xmm6 - .byte 102,15,114,246,8 // pslld $0x8,%xmm6 - .byte 102,15,235,245 // por %xmm5,%xmm6 - .byte 15,40,234 // movaps %xmm2,%xmm5 - .byte 15,89,236 // mulps %xmm4,%xmm5 - .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 - .byte 102,15,114,245,4 // pslld $0x4,%xmm5 - .byte 15,89,227 // mulps %xmm3,%xmm4 - .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4 - .byte 102,15,86,229 // orpd %xmm5,%xmm4 - .byte 102,15,86,230 // orpd %xmm6,%xmm4 + .byte 102,15,86,231 // orpd %xmm7,%xmm4 .byte 102,15,114,244,16 // pslld $0x10,%xmm4 .byte 102,15,114,228,16 // psrad $0x10,%xmm4 .byte 102,15,107,224 // packssdw %xmm0,%xmm4 @@ -65600,17 +66232,19 @@ _sk_store_4444_sse2: .byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5 .byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp) .byte 133,219 // test %ebx,%ebx - .byte 117,34 // jne 4e46 <_sk_store_4444_sse2+0xb1> + .byte 117,42 // jne 4f89 <_sk_store_4444_sse2+0xe5> .byte 102,15,126,231 // movd %xmm4,%edi .byte 102,15,126,235 // movd %xmm5,%ebx - .byte 137,60,114 // mov %edi,(%edx,%esi,2) - .byte 137,92,114,4 // mov %ebx,0x4(%edx,%esi,2) + .byte 137,60,86 // mov %edi,(%esi,%edx,2) + .byte 137,92,86,4 // mov %ebx,0x4(%esi,%edx,2) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp + .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2 + .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) - .byte 131,196,28 // add $0x1c,%esp + .byte 131,196,60 // add $0x3c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx @@ -65620,20 +66254,20 @@ _sk_store_4444_sse2: .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4 .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,37 // je 4e7c <_sk_store_4444_sse2+0xe7> + .byte 116,37 // je 4fbf <_sk_store_4444_sse2+0x11b> .byte 128,251,2 // cmp $0x2,%bl - .byte 116,15 // je 4e6b <_sk_store_4444_sse2+0xd6> + .byte 116,15 // je 4fae <_sk_store_4444_sse2+0x10a> .byte 128,251,3 // cmp $0x3,%bl - .byte 117,210 // jne 4e33 <_sk_store_4444_sse2+0x9e> + .byte 117,202 // jne 4f6e <_sk_store_4444_sse2+0xca> .byte 102,15,197,252,4 // pextrw $0x4,%xmm4,%edi - .byte 102,137,124,114,4 // mov %di,0x4(%edx,%esi,2) - .byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4 - .byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4 - .byte 102,15,126,36,114 // movd %xmm4,(%edx,%esi,2) - .byte 235,183 // jmp 4e33 <_sk_store_4444_sse2+0x9e> + .byte 102,137,124,86,4 // mov %di,0x4(%esi,%edx,2) + .byte 102,15,112,220,212 // pshufd $0xd4,%xmm4,%xmm3 + .byte 242,15,112,219,232 // pshuflw $0xe8,%xmm3,%xmm3 + .byte 102,15,126,28,86 // movd %xmm3,(%esi,%edx,2) + .byte 235,175 // jmp 4f6e <_sk_store_4444_sse2+0xca> .byte 102,15,126,231 // movd %xmm4,%edi - .byte 102,137,60,114 // mov %di,(%edx,%esi,2) - .byte 235,173 // jmp 4e33 <_sk_store_4444_sse2+0x9e> + .byte 102,137,60,86 // mov %di,(%esi,%edx,2) + .byte 235,165 // jmp 4f6e <_sk_store_4444_sse2+0xca> HIDDEN _sk_load_8888_sse2 .globl _sk_load_8888_sse2 @@ -65645,7 +66279,7 @@ _sk_load_8888_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 4e94 <_sk_load_8888_sse2+0xe> + .byte 232,0,0,0,0 // call 4fd7 <_sk_load_8888_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -65657,13 +66291,13 @@ _sk_load_8888_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi - .byte 117,102 // jne 4f18 <_sk_load_8888_sse2+0x92> + .byte 117,102 // jne 505b <_sk_load_8888_sse2+0x92> .byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3 - .byte 102,15,111,146,92,171,0,0 // movdqa 0xab5c(%edx),%xmm2 + .byte 102,15,111,146,9,172,0,0 // movdqa 0xac09(%edx),%xmm2 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,40,162,156,172,0,0 // movaps 0xac9c(%edx),%xmm4 + .byte 15,40,162,73,173,0,0 // movaps 0xad49(%edx),%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,114,209,8 // psrld $0x8,%xmm1 @@ -65691,18 +66325,18 @@ _sk_load_8888_sse2: .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,35 // je 4f43 <_sk_load_8888_sse2+0xbd> + .byte 116,35 // je 5086 <_sk_load_8888_sse2+0xbd> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 128,251,2 // cmp $0x2,%bl - .byte 116,16 // je 4f39 <_sk_load_8888_sse2+0xb3> + .byte 116,16 // je 507c <_sk_load_8888_sse2+0xb3> .byte 128,251,3 // cmp $0x3,%bl - .byte 117,137 // jne 4eb7 <_sk_load_8888_sse2+0x31> + .byte 117,137 // jne 4ffa <_sk_load_8888_sse2+0x31> .byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3 - .byte 233,116,255,255,255 // jmp 4eb7 <_sk_load_8888_sse2+0x31> + .byte 233,116,255,255,255 // jmp 4ffa <_sk_load_8888_sse2+0x31> .byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3 - .byte 233,106,255,255,255 // jmp 4eb7 <_sk_load_8888_sse2+0x31> + .byte 233,106,255,255,255 // jmp 4ffa <_sk_load_8888_sse2+0x31> HIDDEN _sk_load_8888_dst_sse2 .globl _sk_load_8888_dst_sse2 @@ -65714,7 +66348,7 @@ _sk_load_8888_dst_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 4f5b <_sk_load_8888_dst_sse2+0xe> + .byte 232,0,0,0,0 // call 509e <_sk_load_8888_dst_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -65726,13 +66360,13 @@ _sk_load_8888_dst_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi - .byte 117,118 // jne 4fef <_sk_load_8888_dst_sse2+0xa2> + .byte 117,118 // jne 5132 <_sk_load_8888_dst_sse2+0xa2> .byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4 - .byte 102,15,111,170,149,170,0,0 // movdqa 0xaa95(%edx),%xmm5 + .byte 102,15,111,170,66,171,0,0 // movdqa 0xab42(%edx),%xmm5 .byte 102,15,111,244 // movdqa %xmm4,%xmm6 .byte 102,15,219,245 // pand %xmm5,%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 - .byte 15,40,186,213,171,0,0 // movaps 0xabd5(%edx),%xmm7 + .byte 15,40,186,130,172,0,0 // movaps 0xac82(%edx),%xmm7 .byte 15,89,247 // mulps %xmm7,%xmm6 .byte 15,41,113,16 // movaps %xmm6,0x10(%ecx) .byte 102,15,111,244 // movdqa %xmm4,%xmm6 @@ -65764,18 +66398,18 @@ _sk_load_8888_dst_sse2: .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,39 // je 501e <_sk_load_8888_dst_sse2+0xd1> + .byte 116,39 // je 5161 <_sk_load_8888_dst_sse2+0xd1> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 128,251,2 // cmp $0x2,%bl - .byte 116,20 // je 5014 <_sk_load_8888_dst_sse2+0xc7> + .byte 116,20 // je 5157 <_sk_load_8888_dst_sse2+0xc7> .byte 128,251,3 // cmp $0x3,%bl - .byte 15,133,117,255,255,255 // jne 4f7e <_sk_load_8888_dst_sse2+0x31> + .byte 15,133,117,255,255,255 // jne 50c1 <_sk_load_8888_dst_sse2+0x31> .byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 .byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4 - .byte 233,96,255,255,255 // jmp 4f7e <_sk_load_8888_dst_sse2+0x31> + .byte 233,96,255,255,255 // jmp 50c1 <_sk_load_8888_dst_sse2+0x31> .byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4 - .byte 233,86,255,255,255 // jmp 4f7e <_sk_load_8888_dst_sse2+0x31> + .byte 233,86,255,255,255 // jmp 50c1 <_sk_load_8888_dst_sse2+0x31> HIDDEN _sk_gather_8888_sse2 .globl _sk_gather_8888_sse2 @@ -65822,16 +66456,16 @@ _sk_gather_8888_sse2: .byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3 .byte 102,15,126,201 // movd %xmm1,%ecx .byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1 - .byte 232,0,0,0,0 // call 50ce <_sk_gather_8888_sse2+0xa6> + .byte 232,0,0,0,0 // call 5211 <_sk_gather_8888_sse2+0xa6> .byte 89 // pop %ecx .byte 102,15,98,194 // punpckldq %xmm2,%xmm0 .byte 102,15,98,217 // punpckldq %xmm1,%xmm3 .byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3 - .byte 102,15,111,145,34,169,0,0 // movdqa 0xa922(%ecx),%xmm2 + .byte 102,15,111,145,207,169,0,0 // movdqa 0xa9cf(%ecx),%xmm2 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 .byte 102,15,219,194 // pand %xmm2,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,40,161,98,170,0,0 // movaps 0xaa62(%ecx),%xmm4 + .byte 15,40,161,15,171,0,0 // movaps 0xab0f(%ecx),%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,114,209,8 // psrld $0x8,%xmm1 @@ -65864,45 +66498,59 @@ _sk_store_8888_sse2: .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi - .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 5149 <_sk_store_8888_sse2+0xe> - .byte 95 // pop %edi - .byte 139,69,12 // mov 0xc(%ebp),%eax - .byte 139,77,8 // mov 0x8(%ebp),%ecx - .byte 139,48 // mov (%eax),%esi - .byte 139,86,4 // mov 0x4(%esi),%edx - .byte 15,175,81,4 // imul 0x4(%ecx),%edx - .byte 193,226,2 // shl $0x2,%edx - .byte 3,22 // add (%esi),%edx - .byte 139,49 // mov (%ecx),%esi - .byte 15,40,167,183,168,0,0 // movaps 0xa8b7(%edi),%xmm4 - .byte 139,89,8 // mov 0x8(%ecx),%ebx - .byte 15,40,232 // movaps %xmm0,%xmm5 - .byte 15,89,236 // mulps %xmm4,%xmm5 - .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 - .byte 15,40,241 // movaps %xmm1,%xmm6 - .byte 15,89,244 // mulps %xmm4,%xmm6 - .byte 102,15,91,246 // cvtps2dq %xmm6,%xmm6 - .byte 102,15,114,246,8 // pslld $0x8,%xmm6 - .byte 102,15,235,245 // por %xmm5,%xmm6 - .byte 15,40,234 // movaps %xmm2,%xmm5 - .byte 15,89,236 // mulps %xmm4,%xmm5 - .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 - .byte 102,15,114,245,16 // pslld $0x10,%xmm5 - .byte 15,89,227 // mulps %xmm3,%xmm4 + .byte 131,236,44 // sub $0x2c,%esp + .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp) + .byte 232,0,0,0,0 // call 5290 <_sk_store_8888_sse2+0x12> + .byte 88 // pop %eax + .byte 15,87,228 // xorps %xmm4,%xmm4 + .byte 15,95,224 // maxps %xmm0,%xmm4 + .byte 15,40,168,144,168,0,0 // movaps 0xa890(%eax),%xmm5 + .byte 15,93,229 // minps %xmm5,%xmm4 + .byte 15,40,176,96,169,0,0 // movaps 0xa960(%eax),%xmm6 + .byte 15,89,230 // mulps %xmm6,%xmm4 .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4 + .byte 15,87,255 // xorps %xmm7,%xmm7 + .byte 15,95,249 // maxps %xmm1,%xmm7 + .byte 15,93,253 // minps %xmm5,%xmm7 + .byte 15,89,254 // mulps %xmm6,%xmm7 + .byte 102,15,91,255 // cvtps2dq %xmm7,%xmm7 + .byte 102,15,114,247,8 // pslld $0x8,%xmm7 + .byte 102,15,235,252 // por %xmm4,%xmm7 + .byte 102,15,87,228 // xorpd %xmm4,%xmm4 + .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp) + .byte 15,95,226 // maxps %xmm2,%xmm4 + .byte 15,93,229 // minps %xmm5,%xmm4 + .byte 15,87,219 // xorps %xmm3,%xmm3 + .byte 15,95,93,216 // maxps -0x28(%ebp),%xmm3 + .byte 15,93,221 // minps %xmm5,%xmm3 + .byte 15,89,230 // mulps %xmm6,%xmm4 + .byte 15,89,222 // mulps %xmm6,%xmm3 + .byte 102,15,91,236 // cvtps2dq %xmm4,%xmm5 + .byte 102,15,114,245,16 // pslld $0x10,%xmm5 + .byte 102,15,91,227 // cvtps2dq %xmm3,%xmm4 .byte 102,15,114,244,24 // pslld $0x18,%xmm4 .byte 102,15,235,229 // por %xmm5,%xmm4 - .byte 102,15,235,230 // por %xmm6,%xmm4 + .byte 102,15,235,231 // por %xmm7,%xmm4 + .byte 139,69,12 // mov 0xc(%ebp),%eax + .byte 139,77,8 // mov 0x8(%ebp),%ecx + .byte 139,56 // mov (%eax),%edi + .byte 139,17 // mov (%ecx),%edx + .byte 139,119,4 // mov 0x4(%edi),%esi + .byte 15,175,113,4 // imul 0x4(%ecx),%esi + .byte 193,230,2 // shl $0x2,%esi + .byte 3,55 // add (%edi),%esi + .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx - .byte 117,24 // jne 51c6 <_sk_store_8888_sse2+0x8b> - .byte 243,15,127,36,178 // movdqu %xmm4,(%edx,%esi,4) + .byte 117,32 // jne 533d <_sk_store_8888_sse2+0xbf> + .byte 243,15,127,36,150 // movdqu %xmm4,(%esi,%edx,4) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp + .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2 + .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) - .byte 131,196,28 // add $0x1c,%esp + .byte 131,196,60 // add $0x3c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx @@ -65910,17 +66558,17 @@ _sk_store_8888_sse2: .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,28 // je 51ea <_sk_store_8888_sse2+0xaf> + .byte 116,28 // je 5361 <_sk_store_8888_sse2+0xe3> .byte 128,251,2 // cmp $0x2,%bl - .byte 116,16 // je 51e3 <_sk_store_8888_sse2+0xa8> + .byte 116,16 // je 535a <_sk_store_8888_sse2+0xdc> .byte 128,251,3 // cmp $0x3,%bl - .byte 117,219 // jne 51b3 <_sk_store_8888_sse2+0x78> - .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5 - .byte 102,15,126,108,178,8 // movd %xmm5,0x8(%edx,%esi,4) - .byte 102,15,214,36,178 // movq %xmm4,(%edx,%esi,4) - .byte 235,201 // jmp 51b3 <_sk_store_8888_sse2+0x78> - .byte 102,15,126,36,178 // movd %xmm4,(%edx,%esi,4) - .byte 235,194 // jmp 51b3 <_sk_store_8888_sse2+0x78> + .byte 117,211 // jne 5322 <_sk_store_8888_sse2+0xa4> + .byte 102,15,112,220,78 // pshufd $0x4e,%xmm4,%xmm3 + .byte 102,15,126,92,150,8 // movd %xmm3,0x8(%esi,%edx,4) + .byte 102,15,214,36,150 // movq %xmm4,(%esi,%edx,4) + .byte 235,193 // jmp 5322 <_sk_store_8888_sse2+0xa4> + .byte 102,15,126,36,150 // movd %xmm4,(%esi,%edx,4) + .byte 235,186 // jmp 5322 <_sk_store_8888_sse2+0xa4> HIDDEN _sk_load_bgra_sse2 .globl _sk_load_bgra_sse2 @@ -65932,7 +66580,7 @@ _sk_load_bgra_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 51ff <_sk_load_bgra_sse2+0xe> + .byte 232,0,0,0,0 // call 5376 <_sk_load_bgra_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -65944,13 +66592,13 @@ _sk_load_bgra_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi - .byte 117,102 // jne 5283 <_sk_load_bgra_sse2+0x92> + .byte 117,102 // jne 53fa <_sk_load_bgra_sse2+0x92> .byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3 - .byte 102,15,111,130,241,167,0,0 // movdqa 0xa7f1(%edx),%xmm0 + .byte 102,15,111,130,106,168,0,0 // movdqa 0xa86a(%edx),%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,219,200 // pand %xmm0,%xmm1 .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2 - .byte 15,40,162,49,169,0,0 // movaps 0xa931(%edx),%xmm4 + .byte 15,40,162,170,169,0,0 // movaps 0xa9aa(%edx),%xmm4 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,114,209,8 // psrld $0x8,%xmm1 @@ -65978,18 +66626,18 @@ _sk_load_bgra_sse2: .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,35 // je 52ae <_sk_load_bgra_sse2+0xbd> + .byte 116,35 // je 5425 <_sk_load_bgra_sse2+0xbd> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 128,251,2 // cmp $0x2,%bl - .byte 116,16 // je 52a4 <_sk_load_bgra_sse2+0xb3> + .byte 116,16 // je 541b <_sk_load_bgra_sse2+0xb3> .byte 128,251,3 // cmp $0x3,%bl - .byte 117,137 // jne 5222 <_sk_load_bgra_sse2+0x31> + .byte 117,137 // jne 5399 <_sk_load_bgra_sse2+0x31> .byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3 - .byte 233,116,255,255,255 // jmp 5222 <_sk_load_bgra_sse2+0x31> + .byte 233,116,255,255,255 // jmp 5399 <_sk_load_bgra_sse2+0x31> .byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3 - .byte 233,106,255,255,255 // jmp 5222 <_sk_load_bgra_sse2+0x31> + .byte 233,106,255,255,255 // jmp 5399 <_sk_load_bgra_sse2+0x31> HIDDEN _sk_load_bgra_dst_sse2 .globl _sk_load_bgra_dst_sse2 @@ -66001,7 +66649,7 @@ _sk_load_bgra_dst_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 52c6 <_sk_load_bgra_dst_sse2+0xe> + .byte 232,0,0,0,0 // call 543d <_sk_load_bgra_dst_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -66013,13 +66661,13 @@ _sk_load_bgra_dst_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi - .byte 117,118 // jne 535a <_sk_load_bgra_dst_sse2+0xa2> + .byte 117,118 // jne 54d1 <_sk_load_bgra_dst_sse2+0xa2> .byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4 - .byte 102,15,111,170,42,167,0,0 // movdqa 0xa72a(%edx),%xmm5 + .byte 102,15,111,170,163,167,0,0 // movdqa 0xa7a3(%edx),%xmm5 .byte 102,15,111,244 // movdqa %xmm4,%xmm6 .byte 102,15,219,245 // pand %xmm5,%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 - .byte 15,40,186,106,168,0,0 // movaps 0xa86a(%edx),%xmm7 + .byte 15,40,186,227,168,0,0 // movaps 0xa8e3(%edx),%xmm7 .byte 15,89,247 // mulps %xmm7,%xmm6 .byte 15,41,113,48 // movaps %xmm6,0x30(%ecx) .byte 102,15,111,244 // movdqa %xmm4,%xmm6 @@ -66051,18 +66699,18 @@ _sk_load_bgra_dst_sse2: .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,39 // je 5389 <_sk_load_bgra_dst_sse2+0xd1> + .byte 116,39 // je 5500 <_sk_load_bgra_dst_sse2+0xd1> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 128,251,2 // cmp $0x2,%bl - .byte 116,20 // je 537f <_sk_load_bgra_dst_sse2+0xc7> + .byte 116,20 // je 54f6 <_sk_load_bgra_dst_sse2+0xc7> .byte 128,251,3 // cmp $0x3,%bl - .byte 15,133,117,255,255,255 // jne 52e9 <_sk_load_bgra_dst_sse2+0x31> + .byte 15,133,117,255,255,255 // jne 5460 <_sk_load_bgra_dst_sse2+0x31> .byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4 .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4 .byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4 - .byte 233,96,255,255,255 // jmp 52e9 <_sk_load_bgra_dst_sse2+0x31> + .byte 233,96,255,255,255 // jmp 5460 <_sk_load_bgra_dst_sse2+0x31> .byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4 - .byte 233,86,255,255,255 // jmp 52e9 <_sk_load_bgra_dst_sse2+0x31> + .byte 233,86,255,255,255 // jmp 5460 <_sk_load_bgra_dst_sse2+0x31> HIDDEN _sk_gather_bgra_sse2 .globl _sk_gather_bgra_sse2 @@ -66109,16 +66757,16 @@ _sk_gather_bgra_sse2: .byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3 .byte 102,15,126,201 // movd %xmm1,%ecx .byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1 - .byte 232,0,0,0,0 // call 5439 <_sk_gather_bgra_sse2+0xa6> + .byte 232,0,0,0,0 // call 55b0 <_sk_gather_bgra_sse2+0xa6> .byte 89 // pop %ecx .byte 102,15,98,194 // punpckldq %xmm2,%xmm0 .byte 102,15,98,217 // punpckldq %xmm1,%xmm3 .byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3 - .byte 102,15,111,129,183,165,0,0 // movdqa 0xa5b7(%ecx),%xmm0 + .byte 102,15,111,129,48,166,0,0 // movdqa 0xa630(%ecx),%xmm0 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,219,200 // pand %xmm0,%xmm1 .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2 - .byte 15,40,161,247,166,0,0 // movaps 0xa6f7(%ecx),%xmm4 + .byte 15,40,161,112,167,0,0 // movaps 0xa770(%ecx),%xmm4 .byte 15,89,212 // mulps %xmm4,%xmm2 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,114,209,8 // psrld $0x8,%xmm1 @@ -66151,45 +66799,59 @@ _sk_store_bgra_sse2: .byte 83 // push %ebx .byte 87 // push %edi .byte 86 // push %esi - .byte 131,236,12 // sub $0xc,%esp - .byte 232,0,0,0,0 // call 54b4 <_sk_store_bgra_sse2+0xe> - .byte 95 // pop %edi - .byte 139,69,12 // mov 0xc(%ebp),%eax - .byte 139,77,8 // mov 0x8(%ebp),%ecx - .byte 139,48 // mov (%eax),%esi - .byte 139,86,4 // mov 0x4(%esi),%edx - .byte 15,175,81,4 // imul 0x4(%ecx),%edx - .byte 193,226,2 // shl $0x2,%edx - .byte 3,22 // add (%esi),%edx - .byte 139,49 // mov (%ecx),%esi - .byte 15,40,167,76,165,0,0 // movaps 0xa54c(%edi),%xmm4 - .byte 139,89,8 // mov 0x8(%ecx),%ebx - .byte 15,40,234 // movaps %xmm2,%xmm5 - .byte 15,89,236 // mulps %xmm4,%xmm5 - .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 - .byte 15,40,241 // movaps %xmm1,%xmm6 - .byte 15,89,244 // mulps %xmm4,%xmm6 - .byte 102,15,91,246 // cvtps2dq %xmm6,%xmm6 - .byte 102,15,114,246,8 // pslld $0x8,%xmm6 - .byte 102,15,235,245 // por %xmm5,%xmm6 - .byte 15,40,232 // movaps %xmm0,%xmm5 - .byte 15,89,236 // mulps %xmm4,%xmm5 - .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 - .byte 102,15,114,245,16 // pslld $0x10,%xmm5 - .byte 15,89,227 // mulps %xmm3,%xmm4 + .byte 131,236,44 // sub $0x2c,%esp + .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp) + .byte 232,0,0,0,0 // call 562f <_sk_store_bgra_sse2+0x12> + .byte 88 // pop %eax + .byte 15,87,228 // xorps %xmm4,%xmm4 + .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp) + .byte 15,95,226 // maxps %xmm2,%xmm4 + .byte 15,40,168,241,164,0,0 // movaps 0xa4f1(%eax),%xmm5 + .byte 15,93,229 // minps %xmm5,%xmm4 + .byte 15,40,176,193,165,0,0 // movaps 0xa5c1(%eax),%xmm6 + .byte 15,89,230 // mulps %xmm6,%xmm4 .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4 + .byte 15,87,255 // xorps %xmm7,%xmm7 + .byte 15,95,249 // maxps %xmm1,%xmm7 + .byte 15,93,253 // minps %xmm5,%xmm7 + .byte 15,89,254 // mulps %xmm6,%xmm7 + .byte 102,15,91,255 // cvtps2dq %xmm7,%xmm7 + .byte 102,15,114,247,8 // pslld $0x8,%xmm7 + .byte 102,15,235,252 // por %xmm4,%xmm7 + .byte 102,15,87,228 // xorpd %xmm4,%xmm4 + .byte 15,95,224 // maxps %xmm0,%xmm4 + .byte 15,93,229 // minps %xmm5,%xmm4 + .byte 15,87,219 // xorps %xmm3,%xmm3 + .byte 15,95,93,216 // maxps -0x28(%ebp),%xmm3 + .byte 15,93,221 // minps %xmm5,%xmm3 + .byte 15,89,230 // mulps %xmm6,%xmm4 + .byte 15,89,222 // mulps %xmm6,%xmm3 + .byte 102,15,91,236 // cvtps2dq %xmm4,%xmm5 + .byte 102,15,114,245,16 // pslld $0x10,%xmm5 + .byte 102,15,91,227 // cvtps2dq %xmm3,%xmm4 .byte 102,15,114,244,24 // pslld $0x18,%xmm4 .byte 102,15,235,229 // por %xmm5,%xmm4 - .byte 102,15,235,230 // por %xmm6,%xmm4 + .byte 102,15,235,231 // por %xmm7,%xmm4 + .byte 139,69,12 // mov 0xc(%ebp),%eax + .byte 139,77,8 // mov 0x8(%ebp),%ecx + .byte 139,56 // mov (%eax),%edi + .byte 139,17 // mov (%ecx),%edx + .byte 139,119,4 // mov 0x4(%edi),%esi + .byte 15,175,113,4 // imul 0x4(%ecx),%esi + .byte 193,230,2 // shl $0x2,%esi + .byte 3,55 // add (%edi),%esi + .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx - .byte 117,24 // jne 5531 <_sk_store_bgra_sse2+0x8b> - .byte 243,15,127,36,178 // movdqu %xmm4,(%edx,%esi,4) + .byte 117,32 // jne 56dc <_sk_store_bgra_sse2+0xbf> + .byte 243,15,127,36,150 // movdqu %xmm4,(%esi,%edx,4) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp + .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2 + .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) - .byte 131,196,28 // add $0x1c,%esp + .byte 131,196,60 // add $0x3c,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 91 // pop %ebx @@ -66197,17 +66859,17 @@ _sk_store_bgra_sse2: .byte 195 // ret .byte 128,227,3 // and $0x3,%bl .byte 128,251,1 // cmp $0x1,%bl - .byte 116,28 // je 5555 <_sk_store_bgra_sse2+0xaf> + .byte 116,28 // je 5700 <_sk_store_bgra_sse2+0xe3> .byte 128,251,2 // cmp $0x2,%bl - .byte 116,16 // je 554e <_sk_store_bgra_sse2+0xa8> + .byte 116,16 // je 56f9 <_sk_store_bgra_sse2+0xdc> .byte 128,251,3 // cmp $0x3,%bl - .byte 117,219 // jne 551e <_sk_store_bgra_sse2+0x78> - .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5 - .byte 102,15,126,108,178,8 // movd %xmm5,0x8(%edx,%esi,4) - .byte 102,15,214,36,178 // movq %xmm4,(%edx,%esi,4) - .byte 235,201 // jmp 551e <_sk_store_bgra_sse2+0x78> - .byte 102,15,126,36,178 // movd %xmm4,(%edx,%esi,4) - .byte 235,194 // jmp 551e <_sk_store_bgra_sse2+0x78> + .byte 117,211 // jne 56c1 <_sk_store_bgra_sse2+0xa4> + .byte 102,15,112,220,78 // pshufd $0x4e,%xmm4,%xmm3 + .byte 102,15,126,92,150,8 // movd %xmm3,0x8(%esi,%edx,4) + .byte 102,15,214,36,150 // movq %xmm4,(%esi,%edx,4) + .byte 235,193 // jmp 56c1 <_sk_store_bgra_sse2+0xa4> + .byte 102,15,126,36,150 // movd %xmm4,(%esi,%edx,4) + .byte 235,186 // jmp 56c1 <_sk_store_bgra_sse2+0xa4> HIDDEN _sk_load_f16_sse2 .globl _sk_load_f16_sse2 @@ -66219,7 +66881,7 @@ _sk_load_f16_sse2: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,108 // sub $0x6c,%esp - .byte 232,0,0,0,0 // call 556a <_sk_load_f16_sse2+0xe> + .byte 232,0,0,0,0 // call 5715 <_sk_load_f16_sse2+0xe> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -66231,7 +66893,7 @@ _sk_load_f16_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi - .byte 15,133,173,1,0,0 // jne 5739 <_sk_load_f16_sse2+0x1dd> + .byte 15,133,173,1,0,0 // jne 58e4 <_sk_load_f16_sse2+0x1dd> .byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0 .byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1 .byte 102,15,40,216 // movapd %xmm0,%xmm3 @@ -66261,11 +66923,11 @@ _sk_load_f16_sse2: .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1 .byte 102,15,239,210 // pxor %xmm2,%xmm2 - .byte 102,15,111,170,118,168,0,0 // movdqa 0xa876(%edx),%xmm5 + .byte 102,15,111,170,187,168,0,0 // movdqa 0xa8bb(%edx),%xmm5 .byte 102,15,111,241 // movdqa %xmm1,%xmm6 .byte 102,15,219,245 // pand %xmm5,%xmm6 - .byte 102,15,219,138,134,168,0,0 // pand 0xa886(%edx),%xmm1 - .byte 102,15,111,130,150,168,0,0 // movdqa 0xa896(%edx),%xmm0 + .byte 102,15,219,138,203,168,0,0 // pand 0xa8cb(%edx),%xmm1 + .byte 102,15,111,130,219,168,0,0 // movdqa 0xa8db(%edx),%xmm0 .byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp) .byte 102,15,114,246,16 // pslld $0x10,%xmm6 .byte 102,15,111,216 // movdqa %xmm0,%xmm3 @@ -66277,7 +66939,7 @@ _sk_load_f16_sse2: .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 102,15,111,212 // movdqa %xmm4,%xmm2 .byte 102,15,219,213 // pand %xmm5,%xmm2 - .byte 102,15,111,154,134,168,0,0 // movdqa 0xa886(%edx),%xmm3 + .byte 102,15,111,154,203,168,0,0 // movdqa 0xa8cb(%edx),%xmm3 .byte 102,15,219,227 // pand %xmm3,%xmm4 .byte 102,15,114,242,16 // pslld $0x10,%xmm2 .byte 102,15,102,196 // pcmpgtd %xmm4,%xmm0 @@ -66290,7 +66952,7 @@ _sk_load_f16_sse2: .byte 102,15,219,253 // pand %xmm5,%xmm7 .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 102,15,114,247,16 // pslld $0x10,%xmm7 - .byte 102,15,111,146,150,168,0,0 // movdqa 0xa896(%edx),%xmm2 + .byte 102,15,111,146,219,168,0,0 // movdqa 0xa8db(%edx),%xmm2 .byte 102,15,102,208 // pcmpgtd %xmm0,%xmm2 .byte 102,15,114,240,13 // pslld $0xd,%xmm0 .byte 102,15,235,199 // por %xmm7,%xmm0 @@ -66305,7 +66967,7 @@ _sk_load_f16_sse2: .byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp) .byte 102,15,114,247,13 // pslld $0xd,%xmm7 .byte 102,15,235,253 // por %xmm5,%xmm7 - .byte 102,15,111,154,166,168,0,0 // movdqa 0xa8a6(%edx),%xmm3 + .byte 102,15,111,154,235,168,0,0 // movdqa 0xa8eb(%edx),%xmm3 .byte 102,15,254,203 // paddd %xmm3,%xmm1 .byte 102,15,254,227 // paddd %xmm3,%xmm4 .byte 102,15,254,195 // paddd %xmm3,%xmm0 @@ -66333,12 +66995,12 @@ _sk_load_f16_sse2: .byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 131,251,1 // cmp $0x1,%ebx - .byte 15,132,76,254,255,255 // je 5597 <_sk_load_f16_sse2+0x3b> + .byte 15,132,76,254,255,255 // je 5742 <_sk_load_f16_sse2+0x3b> .byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0 .byte 131,251,3 // cmp $0x3,%ebx - .byte 15,130,61,254,255,255 // jb 5597 <_sk_load_f16_sse2+0x3b> + .byte 15,130,61,254,255,255 // jb 5742 <_sk_load_f16_sse2+0x3b> .byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1 - .byte 233,50,254,255,255 // jmp 5597 <_sk_load_f16_sse2+0x3b> + .byte 233,50,254,255,255 // jmp 5742 <_sk_load_f16_sse2+0x3b> HIDDEN _sk_load_f16_dst_sse2 .globl _sk_load_f16_dst_sse2 @@ -66354,7 +67016,7 @@ _sk_load_f16_dst_sse2: .byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp) .byte 102,15,127,77,152 // movdqa %xmm1,-0x68(%ebp) .byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp) - .byte 232,0,0,0,0 // call 5787 <_sk_load_f16_dst_sse2+0x22> + .byte 232,0,0,0,0 // call 5932 <_sk_load_f16_dst_sse2+0x22> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,77,8 // mov 0x8(%ebp),%ecx @@ -66366,7 +67028,7 @@ _sk_load_f16_dst_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 133,219 // test %ebx,%ebx .byte 139,57 // mov (%ecx),%edi - .byte 15,133,168,1,0,0 // jne 5951 <_sk_load_f16_dst_sse2+0x1ec> + .byte 15,133,168,1,0,0 // jne 5afc <_sk_load_f16_dst_sse2+0x1ec> .byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0 .byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1 .byte 102,15,40,208 // movapd %xmm0,%xmm2 @@ -66394,18 +67056,18 @@ _sk_load_f16_dst_sse2: .byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp) .byte 102,15,239,210 // pxor %xmm2,%xmm2 .byte 102,15,97,202 // punpcklwd %xmm2,%xmm1 - .byte 102,15,111,186,89,166,0,0 // movdqa 0xa659(%edx),%xmm7 + .byte 102,15,111,186,158,166,0,0 // movdqa 0xa69e(%edx),%xmm7 .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,15,219,215 // pand %xmm7,%xmm2 - .byte 102,15,111,154,105,166,0,0 // movdqa 0xa669(%edx),%xmm3 + .byte 102,15,111,154,174,166,0,0 // movdqa 0xa6ae(%edx),%xmm3 .byte 102,15,219,203 // pand %xmm3,%xmm1 - .byte 102,15,111,162,121,166,0,0 // movdqa 0xa679(%edx),%xmm4 + .byte 102,15,111,162,190,166,0,0 // movdqa 0xa6be(%edx),%xmm4 .byte 102,15,114,242,16 // pslld $0x10,%xmm2 .byte 102,15,111,236 // movdqa %xmm4,%xmm5 .byte 102,15,102,233 // pcmpgtd %xmm1,%xmm5 .byte 102,15,114,241,13 // pslld $0xd,%xmm1 .byte 102,15,235,202 // por %xmm2,%xmm1 - .byte 102,15,111,146,137,166,0,0 // movdqa 0xa689(%edx),%xmm2 + .byte 102,15,111,146,206,166,0,0 // movdqa 0xa6ce(%edx),%xmm2 .byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp) .byte 102,15,254,202 // paddd %xmm2,%xmm1 .byte 102,15,223,233 // pandn %xmm1,%xmm5 @@ -66468,12 +67130,12 @@ _sk_load_f16_dst_sse2: .byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 131,251,1 // cmp $0x1,%ebx - .byte 15,132,81,254,255,255 // je 57b4 <_sk_load_f16_dst_sse2+0x4f> + .byte 15,132,81,254,255,255 // je 595f <_sk_load_f16_dst_sse2+0x4f> .byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0 .byte 131,251,3 // cmp $0x3,%ebx - .byte 15,130,66,254,255,255 // jb 57b4 <_sk_load_f16_dst_sse2+0x4f> + .byte 15,130,66,254,255,255 // jb 595f <_sk_load_f16_dst_sse2+0x4f> .byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1 - .byte 233,55,254,255,255 // jmp 57b4 <_sk_load_f16_dst_sse2+0x4f> + .byte 233,55,254,255,255 // jmp 595f <_sk_load_f16_dst_sse2+0x4f> HIDDEN _sk_gather_f16_sse2 .globl _sk_gather_f16_sse2 @@ -66520,7 +67182,7 @@ _sk_gather_f16_sse2: .byte 243,15,126,28,202 // movq (%edx,%ecx,8),%xmm3 .byte 102,15,126,201 // movd %xmm1,%ecx .byte 243,15,126,12,202 // movq (%edx,%ecx,8),%xmm1 - .byte 232,0,0,0,0 // call 5a23 <_sk_gather_f16_sse2+0xa6> + .byte 232,0,0,0,0 // call 5bce <_sk_gather_f16_sse2+0xa6> .byte 89 // pop %ecx .byte 102,15,239,246 // pxor %xmm6,%xmm6 .byte 102,15,108,194 // punpcklqdq %xmm2,%xmm0 @@ -66551,11 +67213,11 @@ _sk_gather_f16_sse2: .byte 102,15,126,69,248 // movd %xmm0,-0x8(%ebp) .byte 102,15,97,206 // punpcklwd %xmm6,%xmm1 .byte 102,15,239,210 // pxor %xmm2,%xmm2 - .byte 102,15,111,177,189,163,0,0 // movdqa 0xa3bd(%ecx),%xmm6 + .byte 102,15,111,177,2,164,0,0 // movdqa 0xa402(%ecx),%xmm6 .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,15,219,230 // pand %xmm6,%xmm4 - .byte 102,15,219,137,205,163,0,0 // pand 0xa3cd(%ecx),%xmm1 - .byte 102,15,111,129,221,163,0,0 // movdqa 0xa3dd(%ecx),%xmm0 + .byte 102,15,219,137,18,164,0,0 // pand 0xa412(%ecx),%xmm1 + .byte 102,15,111,129,34,164,0,0 // movdqa 0xa422(%ecx),%xmm0 .byte 102,15,114,244,16 // pslld $0x10,%xmm4 .byte 102,15,111,216 // movdqa %xmm0,%xmm3 .byte 102,15,102,217 // pcmpgtd %xmm1,%xmm3 @@ -66566,7 +67228,7 @@ _sk_gather_f16_sse2: .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 102,15,111,213 // movdqa %xmm5,%xmm2 .byte 102,15,219,214 // pand %xmm6,%xmm2 - .byte 102,15,111,153,205,163,0,0 // movdqa 0xa3cd(%ecx),%xmm3 + .byte 102,15,111,153,18,164,0,0 // movdqa 0xa412(%ecx),%xmm3 .byte 102,15,219,235 // pand %xmm3,%xmm5 .byte 102,15,114,242,16 // pslld $0x10,%xmm2 .byte 102,15,111,224 // movdqa %xmm0,%xmm4 @@ -66580,7 +67242,7 @@ _sk_gather_f16_sse2: .byte 102,15,219,254 // pand %xmm6,%xmm7 .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 102,15,114,247,16 // pslld $0x10,%xmm7 - .byte 102,15,111,145,221,163,0,0 // movdqa 0xa3dd(%ecx),%xmm2 + .byte 102,15,111,145,34,164,0,0 // movdqa 0xa422(%ecx),%xmm2 .byte 102,15,111,218 // movdqa %xmm2,%xmm3 .byte 102,15,102,216 // pcmpgtd %xmm0,%xmm3 .byte 102,15,114,240,13 // pslld $0xd,%xmm0 @@ -66589,12 +67251,12 @@ _sk_gather_f16_sse2: .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,97,252 // punpcklwd %xmm4,%xmm7 .byte 102,15,219,247 // pand %xmm7,%xmm6 - .byte 102,15,219,185,205,163,0,0 // pand 0xa3cd(%ecx),%xmm7 + .byte 102,15,219,185,18,164,0,0 // pand 0xa412(%ecx),%xmm7 .byte 102,15,114,246,16 // pslld $0x10,%xmm6 .byte 102,15,102,215 // pcmpgtd %xmm7,%xmm2 .byte 102,15,114,247,13 // pslld $0xd,%xmm7 .byte 102,15,235,254 // por %xmm6,%xmm7 - .byte 102,15,111,161,237,163,0,0 // movdqa 0xa3ed(%ecx),%xmm4 + .byte 102,15,111,161,50,164,0,0 // movdqa 0xa432(%ecx),%xmm4 .byte 102,15,254,204 // paddd %xmm4,%xmm1 .byte 102,15,254,236 // paddd %xmm4,%xmm5 .byte 102,15,254,196 // paddd %xmm4,%xmm0 @@ -66631,24 +67293,24 @@ _sk_store_f16_sse2: .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp) .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp) .byte 102,15,111,209 // movdqa %xmm1,%xmm2 - .byte 232,0,0,0,0 // call 5be7 <_sk_store_f16_sse2+0x19> + .byte 232,0,0,0,0 // call 5d92 <_sk_store_f16_sse2+0x19> .byte 88 // pop %eax - .byte 102,15,111,152,57,162,0,0 // movdqa 0xa239(%eax),%xmm3 + .byte 102,15,111,152,126,162,0,0 // movdqa 0xa27e(%eax),%xmm3 .byte 102,15,111,224 // movdqa %xmm0,%xmm4 .byte 102,15,219,227 // pand %xmm3,%xmm4 - .byte 102,15,111,136,105,162,0,0 // movdqa 0xa269(%eax),%xmm1 + .byte 102,15,111,136,174,162,0,0 // movdqa 0xa2ae(%eax),%xmm1 .byte 102,15,127,77,232 // movdqa %xmm1,-0x18(%ebp) .byte 102,15,111,240 // movdqa %xmm0,%xmm6 .byte 102,15,114,246,3 // pslld $0x3,%xmm6 .byte 102,15,219,241 // pand %xmm1,%xmm6 .byte 102,15,254,244 // paddd %xmm4,%xmm6 - .byte 102,15,111,184,73,162,0,0 // movdqa 0xa249(%eax),%xmm7 + .byte 102,15,111,184,142,162,0,0 // movdqa 0xa28e(%eax),%xmm7 .byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp) .byte 102,15,219,199 // pand %xmm7,%xmm0 - .byte 102,15,111,168,89,162,0,0 // movdqa 0xa259(%eax),%xmm5 + .byte 102,15,111,168,158,162,0,0 // movdqa 0xa29e(%eax),%xmm5 .byte 102,15,111,205 // movdqa %xmm5,%xmm1 .byte 102,15,102,200 // pcmpgtd %xmm0,%xmm1 - .byte 102,15,111,128,233,158,0,0 // movdqa 0x9ee9(%eax),%xmm0 + .byte 102,15,111,128,46,159,0,0 // movdqa 0x9f2e(%eax),%xmm0 .byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp) .byte 102,15,254,240 // paddd %xmm0,%xmm6 .byte 102,15,114,230,16 // psrad $0x10,%xmm6 @@ -66710,7 +67372,7 @@ _sk_store_f16_sse2: .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,98,198 // punpckldq %xmm6,%xmm0 .byte 133,255 // test %edi,%edi - .byte 117,48 // jne 5d68 <_sk_store_f16_sse2+0x19a> + .byte 117,48 // jne 5f13 <_sk_store_f16_sse2+0x19a> .byte 15,17,4,214 // movups %xmm0,(%esi,%edx,8) .byte 102,15,106,206 // punpckhdq %xmm6,%xmm1 .byte 243,15,127,76,214,16 // movdqu %xmm1,0x10(%esi,%edx,8) @@ -66730,13 +67392,13 @@ _sk_store_f16_sse2: .byte 195 // ret .byte 102,15,214,4,214 // movq %xmm0,(%esi,%edx,8) .byte 131,255,1 // cmp $0x1,%edi - .byte 116,212 // je 5d46 <_sk_store_f16_sse2+0x178> + .byte 116,212 // je 5ef1 <_sk_store_f16_sse2+0x178> .byte 102,15,23,68,214,8 // movhpd %xmm0,0x8(%esi,%edx,8) .byte 131,255,3 // cmp $0x3,%edi - .byte 114,201 // jb 5d46 <_sk_store_f16_sse2+0x178> + .byte 114,201 // jb 5ef1 <_sk_store_f16_sse2+0x178> .byte 102,15,106,206 // punpckhdq %xmm6,%xmm1 .byte 102,15,214,76,214,16 // movq %xmm1,0x10(%esi,%edx,8) - .byte 235,189 // jmp 5d46 <_sk_store_f16_sse2+0x178> + .byte 235,189 // jmp 5ef1 <_sk_store_f16_sse2+0x178> HIDDEN _sk_load_u16_be_sse2 .globl _sk_load_u16_be_sse2 @@ -66759,9 +67421,9 @@ _sk_load_u16_be_sse2: .byte 139,89,8 // mov 0x8(%ecx),%ebx .byte 193,230,2 // shl $0x2,%esi .byte 133,219 // test %ebx,%ebx - .byte 232,0,0,0,0 // call 5db4 <_sk_load_u16_be_sse2+0x2b> + .byte 232,0,0,0,0 // call 5f5f <_sk_load_u16_be_sse2+0x2b> .byte 90 // pop %edx - .byte 15,133,11,1,0,0 // jne 5ec6 <_sk_load_u16_be_sse2+0x13d> + .byte 15,133,11,1,0,0 // jne 6071 <_sk_load_u16_be_sse2+0x13d> .byte 102,15,16,4,119 // movupd (%edi,%esi,2),%xmm0 .byte 243,15,111,76,119,16 // movdqu 0x10(%edi,%esi,2),%xmm1 .byte 102,15,40,208 // movapd %xmm0,%xmm2 @@ -66782,7 +67444,7 @@ _sk_load_u16_be_sse2: .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,97,195 // punpcklwd %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,40,162,252,157,0,0 // movaps 0x9dfc(%edx),%xmm4 + .byte 15,40,162,65,158,0,0 // movaps 0x9e41(%edx),%xmm4 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 102,15,111,205 // movdqa %xmm5,%xmm1 .byte 102,15,113,241,8 // psllw $0x8,%xmm1 @@ -66832,12 +67494,12 @@ _sk_load_u16_be_sse2: .byte 242,15,16,4,119 // movsd (%edi,%esi,2),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 131,251,1 // cmp $0x1,%ebx - .byte 15,132,238,254,255,255 // je 5dc6 <_sk_load_u16_be_sse2+0x3d> + .byte 15,132,238,254,255,255 // je 5f71 <_sk_load_u16_be_sse2+0x3d> .byte 102,15,22,68,119,8 // movhpd 0x8(%edi,%esi,2),%xmm0 .byte 131,251,3 // cmp $0x3,%ebx - .byte 15,130,223,254,255,255 // jb 5dc6 <_sk_load_u16_be_sse2+0x3d> + .byte 15,130,223,254,255,255 // jb 5f71 <_sk_load_u16_be_sse2+0x3d> .byte 243,15,126,76,119,16 // movq 0x10(%edi,%esi,2),%xmm1 - .byte 233,212,254,255,255 // jmp 5dc6 <_sk_load_u16_be_sse2+0x3d> + .byte 233,212,254,255,255 // jmp 5f71 <_sk_load_u16_be_sse2+0x3d> HIDDEN _sk_load_rgb_u16_be_sse2 .globl _sk_load_rgb_u16_be_sse2 @@ -66859,9 +67521,9 @@ _sk_load_rgb_u16_be_sse2: .byte 3,50 // add (%edx),%esi .byte 107,25,3 // imul $0x3,(%ecx),%ebx .byte 133,255 // test %edi,%edi - .byte 232,0,0,0,0 // call 5f1b <_sk_load_rgb_u16_be_sse2+0x29> + .byte 232,0,0,0,0 // call 60c6 <_sk_load_rgb_u16_be_sse2+0x29> .byte 90 // pop %edx - .byte 15,133,240,0,0,0 // jne 6012 <_sk_load_rgb_u16_be_sse2+0x120> + .byte 15,133,240,0,0,0 // jne 61bd <_sk_load_rgb_u16_be_sse2+0x120> .byte 243,15,111,20,94 // movdqu (%esi,%ebx,2),%xmm2 .byte 243,15,111,92,94,8 // movdqu 0x8(%esi,%ebx,2),%xmm3 .byte 102,15,115,219,4 // psrldq $0x4,%xmm3 @@ -66886,7 +67548,7 @@ _sk_load_rgb_u16_be_sse2: .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,97,195 // punpcklwd %xmm3,%xmm0 .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0 - .byte 15,40,170,149,156,0,0 // movaps 0x9c95(%edx),%xmm5 + .byte 15,40,170,218,156,0,0 // movaps 0x9cda(%edx),%xmm5 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 102,15,111,204 // movdqa %xmm4,%xmm1 .byte 102,15,113,241,8 // psllw $0x8,%xmm1 @@ -66912,7 +67574,7 @@ _sk_load_rgb_u16_be_sse2: .byte 15,89,213 // mulps %xmm5,%xmm2 .byte 141,112,8 // lea 0x8(%eax),%esi .byte 131,236,8 // sub $0x8,%esp - .byte 15,40,154,21,154,0,0 // movaps 0x9a15(%edx),%xmm3 + .byte 15,40,154,90,154,0,0 // movaps 0x9a5a(%edx),%xmm3 .byte 86 // push %esi .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) @@ -66926,20 +67588,20 @@ _sk_load_rgb_u16_be_sse2: .byte 102,15,196,84,94,4,2 // pinsrw $0x2,0x4(%esi,%ebx,2),%xmm2 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 131,255,1 // cmp $0x1,%edi - .byte 117,13 // jne 6034 <_sk_load_rgb_u16_be_sse2+0x142> + .byte 117,13 // jne 61df <_sk_load_rgb_u16_be_sse2+0x142> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,239,192 // pxor %xmm0,%xmm0 - .byte 233,16,255,255,255 // jmp 5f44 <_sk_load_rgb_u16_be_sse2+0x52> + .byte 233,16,255,255,255 // jmp 60ef <_sk_load_rgb_u16_be_sse2+0x52> .byte 102,15,110,68,94,6 // movd 0x6(%esi,%ebx,2),%xmm0 .byte 102,15,196,68,94,10,2 // pinsrw $0x2,0xa(%esi,%ebx,2),%xmm0 .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 131,255,3 // cmp $0x3,%edi - .byte 114,18 // jb 605c <_sk_load_rgb_u16_be_sse2+0x16a> + .byte 114,18 // jb 6207 <_sk_load_rgb_u16_be_sse2+0x16a> .byte 102,15,110,92,94,12 // movd 0xc(%esi,%ebx,2),%xmm3 .byte 102,15,196,92,94,16,2 // pinsrw $0x2,0x10(%esi,%ebx,2),%xmm3 - .byte 233,232,254,255,255 // jmp 5f44 <_sk_load_rgb_u16_be_sse2+0x52> + .byte 233,232,254,255,255 // jmp 60ef <_sk_load_rgb_u16_be_sse2+0x52> .byte 102,15,239,219 // pxor %xmm3,%xmm3 - .byte 233,223,254,255,255 // jmp 5f44 <_sk_load_rgb_u16_be_sse2+0x52> + .byte 233,223,254,255,255 // jmp 60ef <_sk_load_rgb_u16_be_sse2+0x52> HIDDEN _sk_store_u16_be_sse2 .globl _sk_store_u16_be_sse2 @@ -66949,86 +67611,103 @@ _sk_store_u16_be_sse2: .byte 137,229 // mov %esp,%ebp .byte 87 // push %edi .byte 86 // push %esi - .byte 232,0,0,0,0 // call 606f <_sk_store_u16_be_sse2+0xa> - .byte 95 // pop %edi - .byte 139,69,12 // mov 0xc(%ebp),%eax - .byte 139,77,8 // mov 0x8(%ebp),%ecx - .byte 139,48 // mov (%eax),%esi - .byte 139,86,4 // mov 0x4(%esi),%edx - .byte 15,175,81,4 // imul 0x4(%ecx),%edx - .byte 1,210 // add %edx,%edx - .byte 3,22 // add (%esi),%edx - .byte 139,49 // mov (%ecx),%esi - .byte 15,40,183,241,157,0,0 // movaps 0x9df1(%edi),%xmm6 - .byte 139,121,8 // mov 0x8(%ecx),%edi - .byte 193,230,2 // shl $0x2,%esi - .byte 15,40,224 // movaps %xmm0,%xmm4 + .byte 131,236,32 // sub $0x20,%esp + .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) + .byte 232,0,0,0,0 // call 6221 <_sk_store_u16_be_sse2+0x11> + .byte 88 // pop %eax + .byte 15,87,228 // xorps %xmm4,%xmm4 + .byte 15,95,224 // maxps %xmm0,%xmm4 + .byte 15,40,168,255,152,0,0 // movaps 0x98ff(%eax),%xmm5 + .byte 15,93,229 // minps %xmm5,%xmm4 + .byte 15,40,176,47,158,0,0 // movaps 0x9e2f(%eax),%xmm6 .byte 15,89,230 // mulps %xmm6,%xmm4 .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4 .byte 102,15,114,244,16 // pslld $0x10,%xmm4 .byte 102,15,114,228,16 // psrad $0x10,%xmm4 .byte 102,15,107,224 // packssdw %xmm0,%xmm4 - .byte 102,15,111,236 // movdqa %xmm4,%xmm5 - .byte 102,15,113,245,8 // psllw $0x8,%xmm5 - .byte 102,15,113,212,8 // psrlw $0x8,%xmm4 - .byte 102,15,235,229 // por %xmm5,%xmm4 - .byte 15,40,233 // movaps %xmm1,%xmm5 - .byte 15,89,238 // mulps %xmm6,%xmm5 - .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 - .byte 102,15,114,245,16 // pslld $0x10,%xmm5 - .byte 102,15,114,229,16 // psrad $0x10,%xmm5 - .byte 102,15,107,232 // packssdw %xmm0,%xmm5 - .byte 102,15,111,253 // movdqa %xmm5,%xmm7 - .byte 102,15,113,247,8 // psllw $0x8,%xmm7 - .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 - .byte 102,15,235,239 // por %xmm7,%xmm5 - .byte 102,15,97,229 // punpcklwd %xmm5,%xmm4 - .byte 15,40,234 // movaps %xmm2,%xmm5 - .byte 15,89,238 // mulps %xmm6,%xmm5 - .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5 - .byte 102,15,114,245,16 // pslld $0x10,%xmm5 - .byte 102,15,114,229,16 // psrad $0x10,%xmm5 - .byte 102,15,107,232 // packssdw %xmm0,%xmm5 - .byte 102,15,111,253 // movdqa %xmm5,%xmm7 - .byte 102,15,113,247,8 // psllw $0x8,%xmm7 - .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 - .byte 102,15,235,239 // por %xmm7,%xmm5 - .byte 15,89,243 // mulps %xmm3,%xmm6 - .byte 102,15,91,246 // cvtps2dq %xmm6,%xmm6 - .byte 102,15,114,246,16 // pslld $0x10,%xmm6 - .byte 102,15,114,230,16 // psrad $0x10,%xmm6 - .byte 102,15,107,240 // packssdw %xmm0,%xmm6 - .byte 102,15,111,254 // movdqa %xmm6,%xmm7 + .byte 102,15,111,252 // movdqa %xmm4,%xmm7 .byte 102,15,113,247,8 // psllw $0x8,%xmm7 - .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 - .byte 102,15,235,247 // por %xmm7,%xmm6 - .byte 102,15,97,238 // punpcklwd %xmm6,%xmm5 - .byte 102,15,111,244 // movdqa %xmm4,%xmm6 - .byte 102,15,98,245 // punpckldq %xmm5,%xmm6 + .byte 102,15,113,212,8 // psrlw $0x8,%xmm4 + .byte 102,15,235,231 // por %xmm7,%xmm4 + .byte 102,15,239,255 // pxor %xmm7,%xmm7 + .byte 15,95,249 // maxps %xmm1,%xmm7 + .byte 15,93,253 // minps %xmm5,%xmm7 + .byte 15,89,254 // mulps %xmm6,%xmm7 + .byte 102,15,91,255 // cvtps2dq %xmm7,%xmm7 + .byte 102,15,114,247,16 // pslld $0x10,%xmm7 + .byte 102,15,114,231,16 // psrad $0x10,%xmm7 + .byte 102,15,107,248 // packssdw %xmm0,%xmm7 + .byte 102,15,111,223 // movdqa %xmm7,%xmm3 + .byte 102,15,113,243,8 // psllw $0x8,%xmm3 + .byte 102,15,113,215,8 // psrlw $0x8,%xmm7 + .byte 102,15,235,251 // por %xmm3,%xmm7 + .byte 102,15,97,231 // punpcklwd %xmm7,%xmm4 + .byte 102,15,239,219 // pxor %xmm3,%xmm3 + .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp) + .byte 15,95,218 // maxps %xmm2,%xmm3 + .byte 15,93,221 // minps %xmm5,%xmm3 + .byte 15,89,222 // mulps %xmm6,%xmm3 + .byte 102,15,91,251 // cvtps2dq %xmm3,%xmm7 + .byte 102,15,114,247,16 // pslld $0x10,%xmm7 + .byte 102,15,114,231,16 // psrad $0x10,%xmm7 + .byte 102,15,107,248 // packssdw %xmm0,%xmm7 + .byte 102,15,111,223 // movdqa %xmm7,%xmm3 + .byte 102,15,113,243,8 // psllw $0x8,%xmm3 + .byte 102,15,113,215,8 // psrlw $0x8,%xmm7 + .byte 102,15,235,251 // por %xmm3,%xmm7 + .byte 102,15,239,219 // pxor %xmm3,%xmm3 + .byte 15,95,93,232 // maxps -0x18(%ebp),%xmm3 + .byte 15,93,221 // minps %xmm5,%xmm3 + .byte 15,89,222 // mulps %xmm6,%xmm3 + .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3 + .byte 102,15,114,243,16 // pslld $0x10,%xmm3 + .byte 102,15,114,227,16 // psrad $0x10,%xmm3 + .byte 102,15,107,216 // packssdw %xmm0,%xmm3 + .byte 102,15,111,235 // movdqa %xmm3,%xmm5 + .byte 102,15,113,245,8 // psllw $0x8,%xmm5 + .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 + .byte 102,15,235,221 // por %xmm5,%xmm3 + .byte 102,15,97,251 // punpcklwd %xmm3,%xmm7 + .byte 139,69,12 // mov 0xc(%ebp),%eax + .byte 139,77,8 // mov 0x8(%ebp),%ecx + .byte 139,56 // mov (%eax),%edi + .byte 139,17 // mov (%ecx),%edx + .byte 139,119,4 // mov 0x4(%edi),%esi + .byte 15,175,113,4 // imul 0x4(%ecx),%esi + .byte 1,246 // add %esi,%esi + .byte 3,55 // add (%edi),%esi + .byte 139,121,8 // mov 0x8(%ecx),%edi + .byte 193,226,2 // shl $0x2,%edx .byte 133,255 // test %edi,%edi - .byte 117,32 // jne 616b <_sk_store_u16_be_sse2+0x106> - .byte 15,17,52,114 // movups %xmm6,(%edx,%esi,2) - .byte 102,15,106,229 // punpckhdq %xmm5,%xmm4 - .byte 243,15,127,100,114,16 // movdqu %xmm4,0x10(%edx,%esi,2) + .byte 117,49 // jne 6350 <_sk_store_u16_be_sse2+0x140> + .byte 102,15,111,220 // movdqa %xmm4,%xmm3 + .byte 102,15,98,223 // punpckldq %xmm7,%xmm3 + .byte 243,15,127,28,86 // movdqu %xmm3,(%esi,%edx,2) + .byte 102,15,106,231 // punpckhdq %xmm7,%xmm4 + .byte 243,15,127,100,86,16 // movdqu %xmm4,0x10(%esi,%edx,2) .byte 141,80,8 // lea 0x8(%eax),%edx .byte 131,236,8 // sub $0x8,%esp + .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2 + .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3 .byte 82 // push %edx .byte 81 // push %ecx .byte 255,80,4 // call *0x4(%eax) - .byte 131,196,16 // add $0x10,%esp + .byte 131,196,48 // add $0x30,%esp .byte 94 // pop %esi .byte 95 // pop %edi .byte 93 // pop %ebp .byte 195 // ret - .byte 102,15,214,52,114 // movq %xmm6,(%edx,%esi,2) + .byte 102,15,111,236 // movdqa %xmm4,%xmm5 + .byte 102,15,98,239 // punpckldq %xmm7,%xmm5 + .byte 102,15,214,44,86 // movq %xmm5,(%esi,%edx,2) .byte 131,255,1 // cmp $0x1,%edi - .byte 116,228 // je 6159 <_sk_store_u16_be_sse2+0xf4> - .byte 102,15,23,116,114,8 // movhpd %xmm6,0x8(%edx,%esi,2) + .byte 116,212 // je 6336 <_sk_store_u16_be_sse2+0x126> + .byte 102,15,23,108,86,8 // movhpd %xmm5,0x8(%esi,%edx,2) .byte 131,255,3 // cmp $0x3,%edi - .byte 114,217 // jb 6159 <_sk_store_u16_be_sse2+0xf4> - .byte 102,15,106,229 // punpckhdq %xmm5,%xmm4 - .byte 102,15,214,100,114,16 // movq %xmm4,0x10(%edx,%esi,2) - .byte 235,205 // jmp 6159 <_sk_store_u16_be_sse2+0xf4> + .byte 114,201 // jb 6336 <_sk_store_u16_be_sse2+0x126> + .byte 102,15,106,231 // punpckhdq %xmm7,%xmm4 + .byte 102,15,214,100,86,16 // movq %xmm4,0x10(%esi,%edx,2) + .byte 235,189 // jmp 6336 <_sk_store_u16_be_sse2+0x126> HIDDEN _sk_load_f32_sse2 .globl _sk_load_f32_sse2 @@ -67051,7 +67730,7 @@ _sk_load_f32_sse2: .byte 15,16,36,23 // movups (%edi,%edx,1),%xmm4 .byte 139,121,8 // mov 0x8(%ecx),%edi .byte 133,255 // test %edi,%edi - .byte 117,71 // jne 6203 <_sk_load_f32_sse2+0x77> + .byte 117,71 // jne 63f0 <_sk_load_f32_sse2+0x77> .byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2 .byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3 .byte 15,16,68,178,48 // movups 0x30(%edx,%esi,4),%xmm0 @@ -67079,17 +67758,17 @@ _sk_load_f32_sse2: .byte 195 // ret .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 131,255,1 // cmp $0x1,%edi - .byte 117,8 // jne 6213 <_sk_load_f32_sse2+0x87> + .byte 117,8 // jne 6400 <_sk_load_f32_sse2+0x87> .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 15,87,210 // xorps %xmm2,%xmm2 - .byte 235,184 // jmp 61cb <_sk_load_f32_sse2+0x3f> + .byte 235,184 // jmp 63b8 <_sk_load_f32_sse2+0x3f> .byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2 .byte 131,255,3 // cmp $0x3,%edi - .byte 114,7 // jb 6224 <_sk_load_f32_sse2+0x98> + .byte 114,7 // jb 6411 <_sk_load_f32_sse2+0x98> .byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3 - .byte 235,167 // jmp 61cb <_sk_load_f32_sse2+0x3f> + .byte 235,167 // jmp 63b8 <_sk_load_f32_sse2+0x3f> .byte 15,87,219 // xorps %xmm3,%xmm3 - .byte 235,162 // jmp 61cb <_sk_load_f32_sse2+0x3f> + .byte 235,162 // jmp 63b8 <_sk_load_f32_sse2+0x3f> HIDDEN _sk_load_f32_dst_sse2 .globl _sk_load_f32_dst_sse2 @@ -67115,7 +67794,7 @@ _sk_load_f32_dst_sse2: .byte 15,16,52,23 // movups (%edi,%edx,1),%xmm6 .byte 139,121,8 // mov 0x8(%ecx),%edi .byte 133,255 // test %edi,%edi - .byte 117,97 // jne 62c5 <_sk_load_f32_dst_sse2+0x9c> + .byte 117,97 // jne 64b2 <_sk_load_f32_dst_sse2+0x9c> .byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7 .byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3 .byte 15,16,84,178,48 // movups 0x30(%edx,%esi,4),%xmm2 @@ -67149,17 +67828,17 @@ _sk_load_f32_dst_sse2: .byte 195 // ret .byte 15,87,210 // xorps %xmm2,%xmm2 .byte 131,255,1 // cmp $0x1,%edi - .byte 117,8 // jne 62d5 <_sk_load_f32_dst_sse2+0xac> + .byte 117,8 // jne 64c2 <_sk_load_f32_dst_sse2+0xac> .byte 15,87,219 // xorps %xmm3,%xmm3 .byte 15,87,255 // xorps %xmm7,%xmm7 - .byte 235,158 // jmp 6273 <_sk_load_f32_dst_sse2+0x4a> + .byte 235,158 // jmp 6460 <_sk_load_f32_dst_sse2+0x4a> .byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7 .byte 131,255,3 // cmp $0x3,%edi - .byte 114,7 // jb 62e6 <_sk_load_f32_dst_sse2+0xbd> + .byte 114,7 // jb 64d3 <_sk_load_f32_dst_sse2+0xbd> .byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3 - .byte 235,141 // jmp 6273 <_sk_load_f32_dst_sse2+0x4a> + .byte 235,141 // jmp 6460 <_sk_load_f32_dst_sse2+0x4a> .byte 15,87,219 // xorps %xmm3,%xmm3 - .byte 235,136 // jmp 6273 <_sk_load_f32_dst_sse2+0x4a> + .byte 235,136 // jmp 6460 <_sk_load_f32_dst_sse2+0x4a> HIDDEN _sk_store_f32_sse2 .globl _sk_store_f32_sse2 @@ -67197,7 +67876,7 @@ _sk_store_f32_sse2: .byte 15,40,238 // movaps %xmm6,%xmm5 .byte 102,15,20,239 // unpcklpd %xmm7,%xmm5 .byte 133,255 // test %edi,%edi - .byte 117,40 // jne 6371 <_sk_store_f32_sse2+0x86> + .byte 117,40 // jne 655e <_sk_store_f32_sse2+0x86> .byte 102,15,21,247 // unpckhpd %xmm7,%xmm6 .byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4) .byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4) @@ -67214,12 +67893,12 @@ _sk_store_f32_sse2: .byte 93 // pop %ebp .byte 195 // ret .byte 131,255,1 // cmp $0x1,%edi - .byte 116,232 // je 635e <_sk_store_f32_sse2+0x73> + .byte 116,232 // je 654b <_sk_store_f32_sse2+0x73> .byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4) .byte 131,255,3 // cmp $0x3,%edi - .byte 114,222 // jb 635e <_sk_store_f32_sse2+0x73> + .byte 114,222 // jb 654b <_sk_store_f32_sse2+0x73> .byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4) - .byte 235,214 // jmp 635e <_sk_store_f32_sse2+0x73> + .byte 235,214 // jmp 654b <_sk_store_f32_sse2+0x73> HIDDEN _sk_repeat_x_sse2 .globl _sk_repeat_x_sse2 @@ -67228,7 +67907,7 @@ _sk_repeat_x_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp - .byte 232,0,0,0,0 // call 6393 <_sk_repeat_x_sse2+0xb> + .byte 232,0,0,0,0 // call 6580 <_sk_repeat_x_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,17 // mov (%ecx),%edx @@ -67239,7 +67918,7 @@ _sk_repeat_x_sse2: .byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 15,194,238,1 // cmpltps %xmm6,%xmm5 - .byte 15,84,168,157,149,0,0 // andps 0x959d(%eax),%xmm5 + .byte 15,84,168,160,149,0,0 // andps 0x95a0(%eax),%xmm5 .byte 15,92,245 // subps %xmm5,%xmm6 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 .byte 15,89,230 // mulps %xmm6,%xmm4 @@ -67260,7 +67939,7 @@ _sk_repeat_y_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp - .byte 232,0,0,0,0 // call 63e5 <_sk_repeat_y_sse2+0xb> + .byte 232,0,0,0,0 // call 65d2 <_sk_repeat_y_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,17 // mov (%ecx),%edx @@ -67271,7 +67950,7 @@ _sk_repeat_y_sse2: .byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 15,194,238,1 // cmpltps %xmm6,%xmm5 - .byte 15,84,168,75,149,0,0 // andps 0x954b(%eax),%xmm5 + .byte 15,84,168,78,149,0,0 // andps 0x954e(%eax),%xmm5 .byte 15,92,245 // subps %xmm5,%xmm6 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 .byte 15,89,230 // mulps %xmm6,%xmm4 @@ -67292,7 +67971,7 @@ _sk_mirror_x_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp - .byte 232,0,0,0,0 // call 6437 <_sk_mirror_x_sse2+0xb> + .byte 232,0,0,0,0 // call 6624 <_sk_mirror_x_sse2+0xb> .byte 89 // pop %ecx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,16 // mov (%eax),%edx @@ -67301,13 +67980,13 @@ _sk_mirror_x_sse2: .byte 15,40,244 // movaps %xmm4,%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,92,198 // subps %xmm6,%xmm0 - .byte 243,15,89,169,217,156,0,0 // mulss 0x9cd9(%ecx),%xmm5 + .byte 243,15,89,169,220,156,0,0 // mulss 0x9cdc(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,89,232 // mulps %xmm0,%xmm5 .byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7 .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7 .byte 15,194,239,1 // cmpltps %xmm7,%xmm5 - .byte 15,84,169,249,148,0,0 // andps 0x94f9(%ecx),%xmm5 + .byte 15,84,169,252,148,0,0 // andps 0x94fc(%ecx),%xmm5 .byte 15,92,253 // subps %xmm5,%xmm7 .byte 243,15,88,228 // addss %xmm4,%xmm4 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 @@ -67333,7 +68012,7 @@ _sk_mirror_y_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp - .byte 232,0,0,0,0 // call 64ab <_sk_mirror_y_sse2+0xb> + .byte 232,0,0,0,0 // call 6698 <_sk_mirror_y_sse2+0xb> .byte 89 // pop %ecx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,16 // mov (%eax),%edx @@ -67342,13 +68021,13 @@ _sk_mirror_y_sse2: .byte 15,40,244 // movaps %xmm4,%xmm6 .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6 .byte 15,92,206 // subps %xmm6,%xmm1 - .byte 243,15,89,169,101,156,0,0 // mulss 0x9c65(%ecx),%xmm5 + .byte 243,15,89,169,104,156,0,0 // mulss 0x9c68(%ecx),%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,89,233 // mulps %xmm1,%xmm5 .byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7 .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7 .byte 15,194,239,1 // cmpltps %xmm7,%xmm5 - .byte 15,84,169,133,148,0,0 // andps 0x9485(%ecx),%xmm5 + .byte 15,84,169,136,148,0,0 // andps 0x9488(%ecx),%xmm5 .byte 15,92,253 // subps %xmm5,%xmm7 .byte 243,15,88,228 // addss %xmm4,%xmm4 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 @@ -67374,12 +68053,12 @@ _sk_clamp_x_1_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp - .byte 232,0,0,0,0 // call 651f <_sk_clamp_x_1_sse2+0xb> + .byte 232,0,0,0,0 // call 670c <_sk_clamp_x_1_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,95,224 // maxps %xmm0,%xmm4 - .byte 15,93,160,17,148,0,0 // minps 0x9411(%eax),%xmm4 + .byte 15,93,160,20,148,0,0 // minps 0x9414(%eax),%xmm4 .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 15,40,196 // movaps %xmm4,%xmm0 @@ -67397,14 +68076,14 @@ _sk_repeat_x_1_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp - .byte 232,0,0,0,0 // call 654f <_sk_repeat_x_1_sse2+0xb> + .byte 232,0,0,0,0 // call 673c <_sk_repeat_x_1_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 243,15,91,224 // cvttps2dq %xmm0,%xmm4 .byte 15,91,236 // cvtdq2ps %xmm4,%xmm5 .byte 15,40,240 // movaps %xmm0,%xmm6 .byte 15,194,245,1 // cmpltps %xmm5,%xmm6 - .byte 15,40,184,225,147,0,0 // movaps 0x93e1(%eax),%xmm7 + .byte 15,40,184,228,147,0,0 // movaps 0x93e4(%eax),%xmm7 .byte 15,84,247 // andps %xmm7,%xmm6 .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,92,238 // subps %xmm6,%xmm5 @@ -67428,16 +68107,16 @@ _sk_mirror_x_1_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp - .byte 232,0,0,0,0 // call 6599 <_sk_mirror_x_1_sse2+0xb> + .byte 232,0,0,0,0 // call 6786 <_sk_mirror_x_1_sse2+0xb> .byte 88 // pop %eax - .byte 15,40,160,7,148,0,0 // movaps 0x9407(%eax),%xmm4 + .byte 15,40,160,10,148,0,0 // movaps 0x940a(%eax),%xmm4 .byte 15,88,196 // addps %xmm4,%xmm0 - .byte 15,40,168,135,147,0,0 // movaps 0x9387(%eax),%xmm5 + .byte 15,40,168,138,147,0,0 // movaps 0x938a(%eax),%xmm5 .byte 15,89,232 // mulps %xmm0,%xmm5 .byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 15,194,238,1 // cmpltps %xmm6,%xmm5 - .byte 15,40,184,151,147,0,0 // movaps 0x9397(%eax),%xmm7 + .byte 15,40,184,154,147,0,0 // movaps 0x939a(%eax),%xmm7 .byte 15,84,239 // andps %xmm7,%xmm5 .byte 15,92,245 // subps %xmm5,%xmm6 .byte 15,88,246 // addps %xmm6,%xmm6 @@ -67467,13 +68146,13 @@ _sk_luminance_to_alpha_sse2: .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp .byte 15,40,218 // movaps %xmm2,%xmm3 - .byte 232,0,0,0,0 // call 6603 <_sk_luminance_to_alpha_sse2+0xe> + .byte 232,0,0,0,0 // call 67f0 <_sk_luminance_to_alpha_sse2+0xe> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx - .byte 15,89,128,109,152,0,0 // mulps 0x986d(%eax),%xmm0 - .byte 15,89,136,125,152,0,0 // mulps 0x987d(%eax),%xmm1 + .byte 15,89,128,112,152,0,0 // mulps 0x9870(%eax),%xmm0 + .byte 15,89,136,128,152,0,0 // mulps 0x9880(%eax),%xmm1 .byte 15,88,200 // addps %xmm0,%xmm1 - .byte 15,89,152,141,152,0,0 // mulps 0x988d(%eax),%xmm3 + .byte 15,89,152,144,152,0,0 // mulps 0x9890(%eax),%xmm3 .byte 15,88,217 // addps %xmm1,%xmm3 .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp @@ -67860,7 +68539,7 @@ _sk_evenly_spaced_gradient_sse2: .byte 86 // push %esi .byte 131,236,60 // sub $0x3c,%esp .byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp) - .byte 232,0,0,0,0 // call 6a99 <_sk_evenly_spaced_gradient_sse2+0x12> + .byte 232,0,0,0,0 // call 6c86 <_sk_evenly_spaced_gradient_sse2+0x12> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx @@ -67869,12 +68548,12 @@ _sk_evenly_spaced_gradient_sse2: .byte 78 // dec %esi .byte 102,15,110,206 // movd %esi,%xmm1 .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1 - .byte 102,15,111,146,7,148,0,0 // movdqa 0x9407(%edx),%xmm2 + .byte 102,15,111,146,10,148,0,0 // movdqa 0x940a(%edx),%xmm2 .byte 102,15,219,209 // pand %xmm1,%xmm2 - .byte 102,15,235,146,199,145,0,0 // por 0x91c7(%edx),%xmm2 + .byte 102,15,235,146,202,145,0,0 // por 0x91ca(%edx),%xmm2 .byte 102,15,114,209,16 // psrld $0x10,%xmm1 - .byte 102,15,235,138,23,148,0,0 // por 0x9417(%edx),%xmm1 - .byte 15,88,138,39,148,0,0 // addps 0x9427(%edx),%xmm1 + .byte 102,15,235,138,26,148,0,0 // por 0x941a(%edx),%xmm1 + .byte 15,88,138,42,148,0,0 // addps 0x942a(%edx),%xmm1 .byte 15,88,202 // addps %xmm2,%xmm1 .byte 15,89,200 // mulps %xmm0,%xmm1 .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1 @@ -67988,7 +68667,7 @@ _sk_gradient_sse2: .byte 139,10 // mov (%edx),%ecx .byte 102,15,239,201 // pxor %xmm1,%xmm1 .byte 131,249,2 // cmp $0x2,%ecx - .byte 114,33 // jb 6c81 <_sk_gradient_sse2+0x3a> + .byte 114,33 // jb 6e6e <_sk_gradient_sse2+0x3a> .byte 139,114,36 // mov 0x24(%edx),%esi .byte 73 // dec %ecx .byte 131,198,4 // add $0x4,%esi @@ -67999,7 +68678,7 @@ _sk_gradient_sse2: .byte 102,15,250,202 // psubd %xmm2,%xmm1 .byte 131,198,4 // add $0x4,%esi .byte 73 // dec %ecx - .byte 117,234 // jne 6c6b <_sk_gradient_sse2+0x24> + .byte 117,234 // jne 6e58 <_sk_gradient_sse2+0x24> .byte 102,15,126,206 // movd %xmm1,%esi .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2 .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3 @@ -68152,7 +68831,7 @@ _sk_xy_to_unit_angle_sse2: .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,40,209 // movaps %xmm1,%xmm2 .byte 15,40,200 // movaps %xmm0,%xmm1 - .byte 232,0,0,0,0 // call 6e89 <_sk_xy_to_unit_angle_sse2+0x18> + .byte 232,0,0,0,0 // call 7076 <_sk_xy_to_unit_angle_sse2+0x18> .byte 88 // pop %eax .byte 15,87,237 // xorps %xmm5,%xmm5 .byte 15,92,233 // subps %xmm1,%xmm5 @@ -68167,30 +68846,30 @@ _sk_xy_to_unit_angle_sse2: .byte 15,94,247 // divps %xmm7,%xmm6 .byte 15,40,254 // movaps %xmm6,%xmm7 .byte 15,89,255 // mulps %xmm7,%xmm7 - .byte 15,40,128,71,144,0,0 // movaps 0x9047(%eax),%xmm0 + .byte 15,40,128,74,144,0,0 // movaps 0x904a(%eax),%xmm0 .byte 15,89,199 // mulps %xmm7,%xmm0 - .byte 15,88,128,87,144,0,0 // addps 0x9057(%eax),%xmm0 + .byte 15,88,128,90,144,0,0 // addps 0x905a(%eax),%xmm0 .byte 15,89,199 // mulps %xmm7,%xmm0 - .byte 15,88,128,103,144,0,0 // addps 0x9067(%eax),%xmm0 + .byte 15,88,128,106,144,0,0 // addps 0x906a(%eax),%xmm0 .byte 15,89,199 // mulps %xmm7,%xmm0 - .byte 15,88,128,119,144,0,0 // addps 0x9077(%eax),%xmm0 + .byte 15,88,128,122,144,0,0 // addps 0x907a(%eax),%xmm0 .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 15,194,236,1 // cmpltps %xmm4,%xmm5 - .byte 15,40,176,135,144,0,0 // movaps 0x9087(%eax),%xmm6 + .byte 15,40,176,138,144,0,0 // movaps 0x908a(%eax),%xmm6 .byte 15,92,240 // subps %xmm0,%xmm6 .byte 15,84,245 // andps %xmm5,%xmm6 .byte 15,85,232 // andnps %xmm0,%xmm5 .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,86,238 // orps %xmm6,%xmm5 .byte 15,194,204,1 // cmpltps %xmm4,%xmm1 - .byte 15,40,128,151,138,0,0 // movaps 0x8a97(%eax),%xmm0 + .byte 15,40,128,154,138,0,0 // movaps 0x8a9a(%eax),%xmm0 .byte 15,92,197 // subps %xmm5,%xmm0 .byte 15,84,193 // andps %xmm1,%xmm0 .byte 15,85,205 // andnps %xmm5,%xmm1 .byte 15,86,200 // orps %xmm0,%xmm1 .byte 15,40,194 // movaps %xmm2,%xmm0 .byte 15,194,196,1 // cmpltps %xmm4,%xmm0 - .byte 15,40,168,167,138,0,0 // movaps 0x8aa7(%eax),%xmm5 + .byte 15,40,168,170,138,0,0 // movaps 0x8aaa(%eax),%xmm5 .byte 15,92,233 // subps %xmm1,%xmm5 .byte 15,84,232 // andps %xmm0,%xmm5 .byte 15,85,193 // andnps %xmm1,%xmm0 @@ -68251,15 +68930,15 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2: .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,89,246 // mulps %xmm6,%xmm6 .byte 15,88,240 // addps %xmm0,%xmm6 - .byte 232,0,0,0,0 // call 6fa6 <_sk_xy_to_2pt_conical_quadratic_first_sse2+0x31> + .byte 232,0,0,0,0 // call 7193 <_sk_xy_to_2pt_conical_quadratic_first_sse2+0x31> .byte 90 // pop %edx .byte 243,15,89,237 // mulss %xmm5,%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,92,245 // subps %xmm5,%xmm6 .byte 243,15,16,65,64 // movss 0x40(%ecx),%xmm0 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 - .byte 15,89,162,122,143,0,0 // mulps 0x8f7a(%edx),%xmm4 - .byte 15,89,130,138,143,0,0 // mulps 0x8f8a(%edx),%xmm0 + .byte 15,89,162,125,143,0,0 // mulps 0x8f7d(%edx),%xmm4 + .byte 15,89,130,141,143,0,0 // mulps 0x8f8d(%edx),%xmm0 .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,89,237 // mulps %xmm5,%xmm5 @@ -68268,7 +68947,7 @@ _sk_xy_to_2pt_conical_quadratic_first_sse2: .byte 15,92,236 // subps %xmm4,%xmm5 .byte 243,15,16,65,68 // movss 0x44(%ecx),%xmm0 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 - .byte 15,89,130,122,137,0,0 // mulps 0x897a(%edx),%xmm0 + .byte 15,89,130,125,137,0,0 // mulps 0x897d(%edx),%xmm0 .byte 15,89,197 // mulps %xmm5,%xmm0 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp @@ -68297,25 +68976,25 @@ _sk_xy_to_2pt_conical_quadratic_second_sse2: .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,89,246 // mulps %xmm6,%xmm6 .byte 15,88,240 // addps %xmm0,%xmm6 - .byte 232,0,0,0,0 // call 7031 <_sk_xy_to_2pt_conical_quadratic_second_sse2+0x31> + .byte 232,0,0,0,0 // call 721e <_sk_xy_to_2pt_conical_quadratic_second_sse2+0x31> .byte 90 // pop %edx .byte 243,15,89,237 // mulss %xmm5,%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,92,245 // subps %xmm5,%xmm6 .byte 243,15,16,65,64 // movss 0x40(%ecx),%xmm0 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 - .byte 15,89,162,239,142,0,0 // mulps 0x8eef(%edx),%xmm4 - .byte 15,89,130,255,142,0,0 // mulps 0x8eff(%edx),%xmm0 + .byte 15,89,162,242,142,0,0 // mulps 0x8ef2(%edx),%xmm4 + .byte 15,89,130,2,143,0,0 // mulps 0x8f02(%edx),%xmm0 .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,89,237 // mulps %xmm5,%xmm5 .byte 15,88,232 // addps %xmm0,%xmm5 .byte 15,81,197 // sqrtps %xmm5,%xmm0 - .byte 15,87,162,239,141,0,0 // xorps 0x8def(%edx),%xmm4 + .byte 15,87,162,242,141,0,0 // xorps 0x8df2(%edx),%xmm4 .byte 15,92,224 // subps %xmm0,%xmm4 .byte 243,15,16,65,68 // movss 0x44(%ecx),%xmm0 .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0 - .byte 15,89,130,239,136,0,0 // mulps 0x88ef(%edx),%xmm0 + .byte 15,89,130,242,136,0,0 // mulps 0x88f2(%edx),%xmm0 .byte 15,89,196 // mulps %xmm4,%xmm0 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp @@ -68333,7 +69012,7 @@ _sk_xy_to_2pt_conical_linear_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp - .byte 232,0,0,0,0 // call 709d <_sk_xy_to_2pt_conical_linear_sse2+0xb> + .byte 232,0,0,0,0 // call 728a <_sk_xy_to_2pt_conical_linear_sse2+0xb> .byte 89 // pop %ecx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,16 // mov (%eax),%edx @@ -68342,7 +69021,7 @@ _sk_xy_to_2pt_conical_linear_sse2: .byte 243,15,89,236 // mulss %xmm4,%xmm5 .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5 .byte 15,88,232 // addps %xmm0,%xmm5 - .byte 15,89,169,131,142,0,0 // mulps 0x8e83(%ecx),%xmm5 + .byte 15,89,169,134,142,0,0 // mulps 0x8e86(%ecx),%xmm5 .byte 15,89,192 // mulps %xmm0,%xmm0 .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,89,246 // mulps %xmm6,%xmm6 @@ -68350,7 +69029,7 @@ _sk_xy_to_2pt_conical_linear_sse2: .byte 243,15,89,228 // mulss %xmm4,%xmm4 .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4 .byte 15,92,196 // subps %xmm4,%xmm0 - .byte 15,87,129,131,141,0,0 // xorps 0x8d83(%ecx),%xmm0 + .byte 15,87,129,134,141,0,0 // xorps 0x8d86(%ecx),%xmm0 .byte 15,94,197 // divps %xmm5,%xmm0 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 131,236,8 // sub $0x8,%esp @@ -68427,16 +69106,16 @@ _sk_save_xy_sse2: .byte 131,236,24 // sub $0x18,%esp .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp) .byte 15,40,218 // movaps %xmm2,%xmm3 - .byte 232,0,0,0,0 // call 7186 <_sk_save_xy_sse2+0x12> + .byte 232,0,0,0,0 // call 7373 <_sk_save_xy_sse2+0x12> .byte 88 // pop %eax - .byte 15,40,160,154,135,0,0 // movaps 0x879a(%eax),%xmm4 + .byte 15,40,160,157,135,0,0 // movaps 0x879d(%eax),%xmm4 .byte 15,40,232 // movaps %xmm0,%xmm5 .byte 15,88,236 // addps %xmm4,%xmm5 .byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6 .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6 .byte 15,40,253 // movaps %xmm5,%xmm7 .byte 15,194,254,1 // cmpltps %xmm6,%xmm7 - .byte 15,40,144,170,135,0,0 // movaps 0x87aa(%eax),%xmm2 + .byte 15,40,144,173,135,0,0 // movaps 0x87ad(%eax),%xmm2 .byte 15,84,250 // andps %xmm2,%xmm7 .byte 15,92,247 // subps %xmm7,%xmm6 .byte 15,92,238 // subps %xmm6,%xmm5 @@ -68511,15 +69190,15 @@ _sk_bilinear_nx_sse2: .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax - .byte 232,0,0,0,0 // call 726e <_sk_bilinear_nx_sse2+0xa> + .byte 232,0,0,0,0 // call 745b <_sk_bilinear_nx_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,6 // movups (%esi),%xmm0 .byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4 - .byte 15,88,128,210,140,0,0 // addps 0x8cd2(%eax),%xmm0 - .byte 15,40,168,194,134,0,0 // movaps 0x86c2(%eax),%xmm5 + .byte 15,88,128,213,140,0,0 // addps 0x8cd5(%eax),%xmm0 + .byte 15,40,168,197,134,0,0 // movaps 0x86c5(%eax),%xmm5 .byte 15,92,236 // subps %xmm4,%xmm5 .byte 15,17,174,0,1,0,0 // movups %xmm5,0x100(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax @@ -68540,14 +69219,14 @@ _sk_bilinear_px_sse2: .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax - .byte 232,0,0,0,0 // call 72b4 <_sk_bilinear_px_sse2+0xa> + .byte 232,0,0,0,0 // call 74a1 <_sk_bilinear_px_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,6 // movups (%esi),%xmm0 .byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4 - .byte 15,88,128,108,134,0,0 // addps 0x866c(%eax),%xmm0 + .byte 15,88,128,111,134,0,0 // addps 0x866f(%eax),%xmm0 .byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp @@ -68567,15 +69246,15 @@ _sk_bilinear_ny_sse2: .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax - .byte 232,0,0,0,0 // call 72f0 <_sk_bilinear_ny_sse2+0xa> + .byte 232,0,0,0,0 // call 74dd <_sk_bilinear_ny_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,78,64 // movups 0x40(%esi),%xmm1 .byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4 - .byte 15,88,136,80,140,0,0 // addps 0x8c50(%eax),%xmm1 - .byte 15,40,168,64,134,0,0 // movaps 0x8640(%eax),%xmm5 + .byte 15,88,136,83,140,0,0 // addps 0x8c53(%eax),%xmm1 + .byte 15,40,168,67,134,0,0 // movaps 0x8643(%eax),%xmm5 .byte 15,92,236 // subps %xmm4,%xmm5 .byte 15,17,174,64,1,0,0 // movups %xmm5,0x140(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax @@ -68596,14 +69275,14 @@ _sk_bilinear_py_sse2: .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax - .byte 232,0,0,0,0 // call 7337 <_sk_bilinear_py_sse2+0xa> + .byte 232,0,0,0,0 // call 7524 <_sk_bilinear_py_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,78,64 // movups 0x40(%esi),%xmm1 .byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4 - .byte 15,88,136,233,133,0,0 // addps 0x85e9(%eax),%xmm1 + .byte 15,88,136,236,133,0,0 // addps 0x85ec(%eax),%xmm1 .byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp @@ -68623,20 +69302,20 @@ _sk_bicubic_n3x_sse2: .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax - .byte 232,0,0,0,0 // call 7374 <_sk_bicubic_n3x_sse2+0xa> + .byte 232,0,0,0,0 // call 7561 <_sk_bicubic_n3x_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,6 // movups (%esi),%xmm0 .byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4 - .byte 15,88,128,220,139,0,0 // addps 0x8bdc(%eax),%xmm0 - .byte 15,40,168,188,133,0,0 // movaps 0x85bc(%eax),%xmm5 + .byte 15,88,128,223,139,0,0 // addps 0x8bdf(%eax),%xmm0 + .byte 15,40,168,191,133,0,0 // movaps 0x85bf(%eax),%xmm5 .byte 15,92,236 // subps %xmm4,%xmm5 .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,89,228 // mulps %xmm4,%xmm4 - .byte 15,89,168,236,139,0,0 // mulps 0x8bec(%eax),%xmm5 - .byte 15,88,168,172,135,0,0 // addps 0x87ac(%eax),%xmm5 + .byte 15,89,168,239,139,0,0 // mulps 0x8bef(%eax),%xmm5 + .byte 15,88,168,175,135,0,0 // addps 0x87af(%eax),%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,17,174,0,1,0,0 // movups %xmm5,0x100(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax @@ -68657,23 +69336,23 @@ _sk_bicubic_n1x_sse2: .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax - .byte 232,0,0,0,0 // call 73d1 <_sk_bicubic_n1x_sse2+0xa> + .byte 232,0,0,0,0 // call 75be <_sk_bicubic_n1x_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,6 // movups (%esi),%xmm0 .byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4 - .byte 15,88,128,111,139,0,0 // addps 0x8b6f(%eax),%xmm0 - .byte 15,40,168,95,133,0,0 // movaps 0x855f(%eax),%xmm5 + .byte 15,88,128,114,139,0,0 // addps 0x8b72(%eax),%xmm0 + .byte 15,40,168,98,133,0,0 // movaps 0x8562(%eax),%xmm5 .byte 15,92,236 // subps %xmm4,%xmm5 - .byte 15,40,160,159,139,0,0 // movaps 0x8b9f(%eax),%xmm4 + .byte 15,40,160,162,139,0,0 // movaps 0x8ba2(%eax),%xmm4 .byte 15,89,229 // mulps %xmm5,%xmm4 - .byte 15,88,160,175,139,0,0 // addps 0x8baf(%eax),%xmm4 + .byte 15,88,160,178,139,0,0 // addps 0x8bb2(%eax),%xmm4 .byte 15,89,229 // mulps %xmm5,%xmm4 - .byte 15,88,160,79,133,0,0 // addps 0x854f(%eax),%xmm4 + .byte 15,88,160,82,133,0,0 // addps 0x8552(%eax),%xmm4 .byte 15,89,229 // mulps %xmm5,%xmm4 - .byte 15,88,160,191,139,0,0 // addps 0x8bbf(%eax),%xmm4 + .byte 15,88,160,194,139,0,0 // addps 0x8bc2(%eax),%xmm4 .byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp @@ -68693,22 +69372,22 @@ _sk_bicubic_p1x_sse2: .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax - .byte 232,0,0,0,0 // call 743c <_sk_bicubic_p1x_sse2+0xa> + .byte 232,0,0,0,0 // call 7629 <_sk_bicubic_p1x_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi - .byte 15,40,160,228,132,0,0 // movaps 0x84e4(%eax),%xmm4 + .byte 15,40,160,231,132,0,0 // movaps 0x84e7(%eax),%xmm4 .byte 15,16,6 // movups (%esi),%xmm0 .byte 15,16,174,128,0,0,0 // movups 0x80(%esi),%xmm5 .byte 15,88,196 // addps %xmm4,%xmm0 - .byte 15,40,176,52,139,0,0 // movaps 0x8b34(%eax),%xmm6 + .byte 15,40,176,55,139,0,0 // movaps 0x8b37(%eax),%xmm6 .byte 15,89,245 // mulps %xmm5,%xmm6 - .byte 15,88,176,68,139,0,0 // addps 0x8b44(%eax),%xmm6 + .byte 15,88,176,71,139,0,0 // addps 0x8b47(%eax),%xmm6 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,244 // addps %xmm4,%xmm6 .byte 15,89,245 // mulps %xmm5,%xmm6 - .byte 15,88,176,84,139,0,0 // addps 0x8b54(%eax),%xmm6 + .byte 15,88,176,87,139,0,0 // addps 0x8b57(%eax),%xmm6 .byte 15,17,182,0,1,0,0 // movups %xmm6,0x100(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp @@ -68728,18 +69407,18 @@ _sk_bicubic_p3x_sse2: .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax - .byte 232,0,0,0,0 // call 749c <_sk_bicubic_p3x_sse2+0xa> + .byte 232,0,0,0,0 // call 7689 <_sk_bicubic_p3x_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,6 // movups (%esi),%xmm0 .byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4 - .byte 15,88,128,228,138,0,0 // addps 0x8ae4(%eax),%xmm0 + .byte 15,88,128,231,138,0,0 // addps 0x8ae7(%eax),%xmm0 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,89,237 // mulps %xmm5,%xmm5 - .byte 15,89,160,196,138,0,0 // mulps 0x8ac4(%eax),%xmm4 - .byte 15,88,160,132,134,0,0 // addps 0x8684(%eax),%xmm4 + .byte 15,89,160,199,138,0,0 // mulps 0x8ac7(%eax),%xmm4 + .byte 15,88,160,135,134,0,0 // addps 0x8687(%eax),%xmm4 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax @@ -68760,20 +69439,20 @@ _sk_bicubic_n3y_sse2: .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax - .byte 232,0,0,0,0 // call 74ef <_sk_bicubic_n3y_sse2+0xa> + .byte 232,0,0,0,0 // call 76dc <_sk_bicubic_n3y_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,78,64 // movups 0x40(%esi),%xmm1 .byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4 - .byte 15,88,136,97,138,0,0 // addps 0x8a61(%eax),%xmm1 - .byte 15,40,168,65,132,0,0 // movaps 0x8441(%eax),%xmm5 + .byte 15,88,136,100,138,0,0 // addps 0x8a64(%eax),%xmm1 + .byte 15,40,168,68,132,0,0 // movaps 0x8444(%eax),%xmm5 .byte 15,92,236 // subps %xmm4,%xmm5 .byte 15,40,229 // movaps %xmm5,%xmm4 .byte 15,89,228 // mulps %xmm4,%xmm4 - .byte 15,89,168,113,138,0,0 // mulps 0x8a71(%eax),%xmm5 - .byte 15,88,168,49,134,0,0 // addps 0x8631(%eax),%xmm5 + .byte 15,89,168,116,138,0,0 // mulps 0x8a74(%eax),%xmm5 + .byte 15,88,168,52,134,0,0 // addps 0x8634(%eax),%xmm5 .byte 15,89,236 // mulps %xmm4,%xmm5 .byte 15,17,174,64,1,0,0 // movups %xmm5,0x140(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax @@ -68794,23 +69473,23 @@ _sk_bicubic_n1y_sse2: .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax - .byte 232,0,0,0,0 // call 754d <_sk_bicubic_n1y_sse2+0xa> + .byte 232,0,0,0,0 // call 773a <_sk_bicubic_n1y_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,78,64 // movups 0x40(%esi),%xmm1 .byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4 - .byte 15,88,136,243,137,0,0 // addps 0x89f3(%eax),%xmm1 - .byte 15,40,168,227,131,0,0 // movaps 0x83e3(%eax),%xmm5 + .byte 15,88,136,246,137,0,0 // addps 0x89f6(%eax),%xmm1 + .byte 15,40,168,230,131,0,0 // movaps 0x83e6(%eax),%xmm5 .byte 15,92,236 // subps %xmm4,%xmm5 - .byte 15,40,160,35,138,0,0 // movaps 0x8a23(%eax),%xmm4 + .byte 15,40,160,38,138,0,0 // movaps 0x8a26(%eax),%xmm4 .byte 15,89,229 // mulps %xmm5,%xmm4 - .byte 15,88,160,51,138,0,0 // addps 0x8a33(%eax),%xmm4 + .byte 15,88,160,54,138,0,0 // addps 0x8a36(%eax),%xmm4 .byte 15,89,229 // mulps %xmm5,%xmm4 - .byte 15,88,160,211,131,0,0 // addps 0x83d3(%eax),%xmm4 + .byte 15,88,160,214,131,0,0 // addps 0x83d6(%eax),%xmm4 .byte 15,89,229 // mulps %xmm5,%xmm4 - .byte 15,88,160,67,138,0,0 // addps 0x8a43(%eax),%xmm4 + .byte 15,88,160,70,138,0,0 // addps 0x8a46(%eax),%xmm4 .byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp @@ -68830,22 +69509,22 @@ _sk_bicubic_p1y_sse2: .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax - .byte 232,0,0,0,0 // call 75b9 <_sk_bicubic_p1y_sse2+0xa> + .byte 232,0,0,0,0 // call 77a6 <_sk_bicubic_p1y_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi - .byte 15,40,160,103,131,0,0 // movaps 0x8367(%eax),%xmm4 + .byte 15,40,160,106,131,0,0 // movaps 0x836a(%eax),%xmm4 .byte 15,16,78,64 // movups 0x40(%esi),%xmm1 .byte 15,16,174,192,0,0,0 // movups 0xc0(%esi),%xmm5 .byte 15,88,204 // addps %xmm4,%xmm1 - .byte 15,40,176,183,137,0,0 // movaps 0x89b7(%eax),%xmm6 + .byte 15,40,176,186,137,0,0 // movaps 0x89ba(%eax),%xmm6 .byte 15,89,245 // mulps %xmm5,%xmm6 - .byte 15,88,176,199,137,0,0 // addps 0x89c7(%eax),%xmm6 + .byte 15,88,176,202,137,0,0 // addps 0x89ca(%eax),%xmm6 .byte 15,89,245 // mulps %xmm5,%xmm6 .byte 15,88,244 // addps %xmm4,%xmm6 .byte 15,89,245 // mulps %xmm5,%xmm6 - .byte 15,88,176,215,137,0,0 // addps 0x89d7(%eax),%xmm6 + .byte 15,88,176,218,137,0,0 // addps 0x89da(%eax),%xmm6 .byte 15,17,182,64,1,0,0 // movups %xmm6,0x140(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp @@ -68865,18 +69544,18 @@ _sk_bicubic_p3y_sse2: .byte 137,229 // mov %esp,%ebp .byte 86 // push %esi .byte 80 // push %eax - .byte 232,0,0,0,0 // call 761a <_sk_bicubic_p3y_sse2+0xa> + .byte 232,0,0,0,0 // call 7807 <_sk_bicubic_p3y_sse2+0xa> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 139,50 // mov (%edx),%esi .byte 15,16,78,64 // movups 0x40(%esi),%xmm1 .byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4 - .byte 15,88,136,102,137,0,0 // addps 0x8966(%eax),%xmm1 + .byte 15,88,136,105,137,0,0 // addps 0x8969(%eax),%xmm1 .byte 15,40,236 // movaps %xmm4,%xmm5 .byte 15,89,237 // mulps %xmm5,%xmm5 - .byte 15,89,160,70,137,0,0 // mulps 0x8946(%eax),%xmm4 - .byte 15,88,160,6,133,0,0 // addps 0x8506(%eax),%xmm4 + .byte 15,89,160,73,137,0,0 // mulps 0x8949(%eax),%xmm4 + .byte 15,88,160,9,133,0,0 // addps 0x8509(%eax),%xmm4 .byte 15,89,229 // mulps %xmm5,%xmm4 .byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi) .byte 141,66,8 // lea 0x8(%edx),%eax @@ -69019,7 +69698,7 @@ _sk_clut_3D_sse2: .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 .byte 102,15,98,200 // punpckldq %xmm0,%xmm1 .byte 102,15,127,77,136 // movdqa %xmm1,-0x78(%ebp) - .byte 232,0,0,0,0 // call 7800 <_sk_clut_3D_sse2+0xee> + .byte 232,0,0,0,0 // call 79ed <_sk_clut_3D_sse2+0xee> .byte 90 // pop %edx .byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0 .byte 102,15,127,133,8,255,255,255 // movdqa %xmm0,-0xf8(%ebp) @@ -69027,7 +69706,7 @@ _sk_clut_3D_sse2: .byte 102,15,254,216 // paddd %xmm0,%xmm3 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,254,195 // paddd %xmm3,%xmm0 - .byte 102,15,111,162,176,135,0,0 // movdqa 0x87b0(%edx),%xmm4 + .byte 102,15,111,162,179,135,0,0 // movdqa 0x87b3(%edx),%xmm4 .byte 102,15,127,165,120,255,255,255 // movdqa %xmm4,-0x88(%ebp) .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1 .byte 102,15,244,196 // pmuludq %xmm4,%xmm0 @@ -69067,7 +69746,7 @@ _sk_clut_3D_sse2: .byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0 .byte 15,20,248 // unpcklps %xmm0,%xmm7 .byte 102,15,20,252 // unpcklpd %xmm4,%xmm7 - .byte 102,15,111,130,112,129,0,0 // movdqa 0x8170(%edx),%xmm0 + .byte 102,15,111,130,115,129,0,0 // movdqa 0x8173(%edx),%xmm0 .byte 102,15,127,133,104,255,255,255 // movdqa %xmm0,-0x98(%ebp) .byte 102,15,254,200 // paddd %xmm0,%xmm1 .byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0 @@ -69084,7 +69763,7 @@ _sk_clut_3D_sse2: .byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0 .byte 15,20,240 // unpcklps %xmm0,%xmm6 .byte 102,15,20,241 // unpcklpd %xmm1,%xmm6 - .byte 15,40,130,160,135,0,0 // movaps 0x87a0(%edx),%xmm0 + .byte 15,40,130,163,135,0,0 // movaps 0x87a3(%edx),%xmm0 .byte 15,40,141,248,254,255,255 // movaps -0x108(%ebp),%xmm1 .byte 15,88,200 // addps %xmm0,%xmm1 .byte 15,41,77,200 // movaps %xmm1,-0x38(%ebp) @@ -69704,7 +70383,7 @@ _sk_clut_4D_sse2: .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1 .byte 102,15,98,217 // punpckldq %xmm1,%xmm3 .byte 102,15,127,93,152 // movdqa %xmm3,-0x68(%ebp) - .byte 232,0,0,0,0 // call 838c <_sk_clut_4D_sse2+0x165> + .byte 232,0,0,0,0 // call 8579 <_sk_clut_4D_sse2+0x165> .byte 89 // pop %ecx .byte 15,40,197 // movaps %xmm5,%xmm0 .byte 15,41,133,168,254,255,255 // movaps %xmm0,-0x158(%ebp) @@ -69715,7 +70394,7 @@ _sk_clut_4D_sse2: .byte 102,15,111,212 // movdqa %xmm4,%xmm2 .byte 102,15,254,214 // paddd %xmm6,%xmm2 .byte 102,15,254,218 // paddd %xmm2,%xmm3 - .byte 102,15,111,161,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm4 + .byte 102,15,111,161,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm4 .byte 102,15,112,203,245 // pshufd $0xf5,%xmm3,%xmm1 .byte 102,15,244,220 // pmuludq %xmm4,%xmm3 .byte 102,15,244,204 // pmuludq %xmm4,%xmm1 @@ -69757,7 +70436,7 @@ _sk_clut_4D_sse2: .byte 15,20,223 // unpcklps %xmm7,%xmm3 .byte 102,15,20,222 // unpcklpd %xmm6,%xmm3 .byte 102,15,41,157,232,254,255,255 // movapd %xmm3,-0x118(%ebp) - .byte 102,15,254,137,228,117,0,0 // paddd 0x75e4(%ecx),%xmm1 + .byte 102,15,254,137,231,117,0,0 // paddd 0x75e7(%ecx),%xmm1 .byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6 .byte 102,15,126,240 // movd %xmm6,%eax .byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6 @@ -69772,7 +70451,7 @@ _sk_clut_4D_sse2: .byte 243,15,16,60,130 // movss (%edx,%eax,4),%xmm7 .byte 15,20,223 // unpcklps %xmm7,%xmm3 .byte 102,15,20,222 // unpcklpd %xmm6,%xmm3 - .byte 15,40,185,20,124,0,0 // movaps 0x7c14(%ecx),%xmm7 + .byte 15,40,185,23,124,0,0 // movaps 0x7c17(%ecx),%xmm7 .byte 15,88,199 // addps %xmm7,%xmm0 .byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp) .byte 15,40,133,248,254,255,255 // movaps -0x108(%ebp),%xmm0 @@ -69793,7 +70472,7 @@ _sk_clut_4D_sse2: .byte 102,15,127,101,168 // movdqa %xmm4,-0x58(%ebp) .byte 102,15,254,212 // paddd %xmm4,%xmm2 .byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0 - .byte 102,15,111,161,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm4 + .byte 102,15,111,161,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm4 .byte 102,15,244,212 // pmuludq %xmm4,%xmm2 .byte 102,15,244,196 // pmuludq %xmm4,%xmm0 .byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6 @@ -69829,7 +70508,7 @@ _sk_clut_4D_sse2: .byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5 .byte 15,20,213 // unpcklps %xmm5,%xmm2 .byte 102,15,20,214 // unpcklpd %xmm6,%xmm2 - .byte 102,15,254,129,228,117,0,0 // paddd 0x75e4(%ecx),%xmm0 + .byte 102,15,254,129,231,117,0,0 // paddd 0x75e7(%ecx),%xmm0 .byte 102,15,112,232,229 // pshufd $0xe5,%xmm0,%xmm5 .byte 102,15,126,232 // movd %xmm5,%eax .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5 @@ -69913,7 +70592,7 @@ _sk_clut_4D_sse2: .byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5 .byte 15,20,245 // unpcklps %xmm5,%xmm6 .byte 102,15,20,240 // unpcklpd %xmm0,%xmm6 - .byte 102,15,254,137,228,117,0,0 // paddd 0x75e4(%ecx),%xmm1 + .byte 102,15,254,137,231,117,0,0 // paddd 0x75e7(%ecx),%xmm1 .byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0 @@ -69931,7 +70610,7 @@ _sk_clut_4D_sse2: .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1 .byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0 - .byte 102,15,111,145,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm2 + .byte 102,15,111,145,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm2 .byte 102,15,244,202 // pmuludq %xmm2,%xmm1 .byte 102,15,244,194 // pmuludq %xmm2,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 @@ -69967,7 +70646,7 @@ _sk_clut_4D_sse2: .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0 .byte 15,20,216 // unpcklps %xmm0,%xmm3 .byte 102,15,20,217 // unpcklpd %xmm1,%xmm3 - .byte 102,15,254,169,228,117,0,0 // paddd 0x75e4(%ecx),%xmm5 + .byte 102,15,254,169,231,117,0,0 // paddd 0x75e7(%ecx),%xmm5 .byte 102,15,112,197,229 // pshufd $0xe5,%xmm5,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,112,197,78 // pshufd $0x4e,%xmm5,%xmm0 @@ -70027,7 +70706,7 @@ _sk_clut_4D_sse2: .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,15,254,85,152 // paddd -0x68(%ebp),%xmm2 .byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0 - .byte 102,15,111,153,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm3 + .byte 102,15,111,153,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm3 .byte 102,15,244,211 // pmuludq %xmm3,%xmm2 .byte 102,15,244,195 // pmuludq %xmm3,%xmm0 .byte 102,15,111,251 // movdqa %xmm3,%xmm7 @@ -70066,7 +70745,7 @@ _sk_clut_4D_sse2: .byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5 .byte 15,20,229 // unpcklps %xmm5,%xmm4 .byte 102,15,20,227 // unpcklpd %xmm3,%xmm4 - .byte 102,15,254,129,228,117,0,0 // paddd 0x75e4(%ecx),%xmm0 + .byte 102,15,254,129,231,117,0,0 // paddd 0x75e7(%ecx),%xmm0 .byte 102,15,112,216,229 // pshufd $0xe5,%xmm0,%xmm3 .byte 102,15,126,216 // movd %xmm3,%eax .byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3 @@ -70118,7 +70797,7 @@ _sk_clut_4D_sse2: .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6 .byte 15,20,238 // unpcklps %xmm6,%xmm5 .byte 102,15,20,235 // unpcklpd %xmm3,%xmm5 - .byte 102,15,111,137,228,117,0,0 // movdqa 0x75e4(%ecx),%xmm1 + .byte 102,15,111,137,231,117,0,0 // movdqa 0x75e7(%ecx),%xmm1 .byte 102,15,254,249 // paddd %xmm1,%xmm7 .byte 102,15,112,223,229 // pshufd $0xe5,%xmm7,%xmm3 .byte 102,15,126,216 // movd %xmm3,%eax @@ -70152,7 +70831,7 @@ _sk_clut_4D_sse2: .byte 102,15,111,226 // movdqa %xmm2,%xmm4 .byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0 .byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2 - .byte 102,15,111,153,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm3 + .byte 102,15,111,153,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm3 .byte 102,15,244,195 // pmuludq %xmm3,%xmm0 .byte 102,15,244,211 // pmuludq %xmm3,%xmm2 .byte 102,15,112,218,232 // pshufd $0xe8,%xmm2,%xmm3 @@ -70209,7 +70888,7 @@ _sk_clut_4D_sse2: .byte 102,15,111,212 // movdqa %xmm4,%xmm2 .byte 102,15,254,85,168 // paddd -0x58(%ebp),%xmm2 .byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0 - .byte 102,15,111,137,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm1 + .byte 102,15,111,137,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm1 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,244,193 // pmuludq %xmm1,%xmm0 .byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6 @@ -70246,7 +70925,7 @@ _sk_clut_4D_sse2: .byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4 .byte 15,20,212 // unpcklps %xmm4,%xmm2 .byte 102,15,20,214 // unpcklpd %xmm6,%xmm2 - .byte 102,15,254,129,228,117,0,0 // paddd 0x75e4(%ecx),%xmm0 + .byte 102,15,254,129,231,117,0,0 // paddd 0x75e7(%ecx),%xmm0 .byte 102,15,112,224,229 // pshufd $0xe5,%xmm0,%xmm4 .byte 102,15,126,224 // movd %xmm4,%eax .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4 @@ -70314,7 +70993,7 @@ _sk_clut_4D_sse2: .byte 102,15,111,93,152 // movdqa -0x68(%ebp),%xmm3 .byte 102,15,254,217 // paddd %xmm1,%xmm3 .byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2 - .byte 102,15,111,129,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm0 + .byte 102,15,111,129,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm0 .byte 102,15,244,216 // pmuludq %xmm0,%xmm3 .byte 102,15,244,208 // pmuludq %xmm0,%xmm2 .byte 102,15,111,248 // movdqa %xmm0,%xmm7 @@ -70353,7 +71032,7 @@ _sk_clut_4D_sse2: .byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3 .byte 15,20,235 // unpcklps %xmm3,%xmm5 .byte 102,15,20,238 // unpcklpd %xmm6,%xmm5 - .byte 102,15,254,145,228,117,0,0 // paddd 0x75e4(%ecx),%xmm2 + .byte 102,15,254,145,231,117,0,0 // paddd 0x75e7(%ecx),%xmm2 .byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3 .byte 102,15,126,216 // movd %xmm3,%eax .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3 @@ -70405,7 +71084,7 @@ _sk_clut_4D_sse2: .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0 .byte 15,20,208 // unpcklps %xmm0,%xmm2 .byte 102,15,20,215 // unpcklpd %xmm7,%xmm2 - .byte 102,15,111,137,228,117,0,0 // movdqa 0x75e4(%ecx),%xmm1 + .byte 102,15,111,137,231,117,0,0 // movdqa 0x75e7(%ecx),%xmm1 .byte 102,15,254,217 // paddd %xmm1,%xmm3 .byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax @@ -70440,7 +71119,7 @@ _sk_clut_4D_sse2: .byte 102,15,111,194 // movdqa %xmm2,%xmm0 .byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0 .byte 102,15,112,224,245 // pshufd $0xf5,%xmm0,%xmm4 - .byte 102,15,111,169,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm5 + .byte 102,15,111,169,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm5 .byte 102,15,111,221 // movdqa %xmm5,%xmm3 .byte 102,15,244,195 // pmuludq %xmm3,%xmm0 .byte 102,15,244,227 // pmuludq %xmm3,%xmm4 @@ -70496,7 +71175,7 @@ _sk_clut_4D_sse2: .byte 102,15,111,202 // movdqa %xmm2,%xmm1 .byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1 .byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0 - .byte 102,15,111,145,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm2 + .byte 102,15,111,145,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm2 .byte 102,15,244,202 // pmuludq %xmm2,%xmm1 .byte 102,15,244,194 // pmuludq %xmm2,%xmm0 .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0 @@ -70532,7 +71211,7 @@ _sk_clut_4D_sse2: .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0 .byte 15,20,216 // unpcklps %xmm0,%xmm3 .byte 102,15,20,217 // unpcklpd %xmm1,%xmm3 - .byte 102,15,254,185,228,117,0,0 // paddd 0x75e4(%ecx),%xmm7 + .byte 102,15,254,185,231,117,0,0 // paddd 0x75e7(%ecx),%xmm7 .byte 102,15,112,199,229 // pshufd $0xe5,%xmm7,%xmm0 .byte 102,15,126,192 // movd %xmm0,%eax .byte 102,15,112,199,78 // pshufd $0x4e,%xmm7,%xmm0 @@ -70582,7 +71261,7 @@ _sk_clut_4D_sse2: .byte 102,15,111,233 // movdqa %xmm1,%xmm5 .byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0 .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1 - .byte 102,15,111,145,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm2 + .byte 102,15,111,145,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm2 .byte 102,15,244,194 // pmuludq %xmm2,%xmm0 .byte 102,15,244,202 // pmuludq %xmm2,%xmm1 .byte 102,15,111,250 // movdqa %xmm2,%xmm7 @@ -70621,7 +71300,7 @@ _sk_clut_4D_sse2: .byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4 .byte 15,20,204 // unpcklps %xmm4,%xmm1 .byte 102,15,20,203 // unpcklpd %xmm3,%xmm1 - .byte 102,15,254,145,228,117,0,0 // paddd 0x75e4(%ecx),%xmm2 + .byte 102,15,254,145,231,117,0,0 // paddd 0x75e7(%ecx),%xmm2 .byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3 .byte 102,15,126,216 // movd %xmm3,%eax .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3 @@ -70675,7 +71354,7 @@ _sk_clut_4D_sse2: .byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4 .byte 15,20,252 // unpcklps %xmm4,%xmm7 .byte 102,15,20,254 // unpcklpd %xmm6,%xmm7 - .byte 102,15,254,153,228,117,0,0 // paddd 0x75e4(%ecx),%xmm3 + .byte 102,15,254,153,231,117,0,0 // paddd 0x75e7(%ecx),%xmm3 .byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4 .byte 102,15,126,224 // movd %xmm4,%eax .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4 @@ -70708,7 +71387,7 @@ _sk_clut_4D_sse2: .byte 102,15,254,208 // paddd %xmm0,%xmm2 .byte 102,15,111,216 // movdqa %xmm0,%xmm3 .byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0 - .byte 102,15,111,137,36,124,0,0 // movdqa 0x7c24(%ecx),%xmm1 + .byte 102,15,111,137,39,124,0,0 // movdqa 0x7c27(%ecx),%xmm1 .byte 102,15,244,209 // pmuludq %xmm1,%xmm2 .byte 102,15,244,193 // pmuludq %xmm1,%xmm0 .byte 102,15,111,241 // movdqa %xmm1,%xmm6 @@ -70748,7 +71427,7 @@ _sk_clut_4D_sse2: .byte 15,20,225 // unpcklps %xmm1,%xmm4 .byte 102,15,20,226 // unpcklpd %xmm2,%xmm4 .byte 102,15,41,165,88,255,255,255 // movapd %xmm4,-0xa8(%ebp) - .byte 102,15,254,129,228,117,0,0 // paddd 0x75e4(%ecx),%xmm0 + .byte 102,15,254,129,231,117,0,0 // paddd 0x75e7(%ecx),%xmm0 .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1 .byte 102,15,126,200 // movd %xmm1,%eax .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 @@ -70802,7 +71481,7 @@ _sk_clut_4D_sse2: .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6 .byte 15,20,206 // unpcklps %xmm6,%xmm1 .byte 102,15,20,203 // unpcklpd %xmm3,%xmm1 - .byte 102,15,254,145,228,117,0,0 // paddd 0x75e4(%ecx),%xmm2 + .byte 102,15,254,145,231,117,0,0 // paddd 0x75e7(%ecx),%xmm2 .byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3 .byte 102,15,126,216 // movd %xmm3,%eax .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3 @@ -70871,7 +71550,7 @@ _sk_clut_4D_sse2: .byte 139,85,12 // mov 0xc(%ebp),%edx .byte 141,66,8 // lea 0x8(%edx),%eax .byte 131,236,8 // sub $0x8,%esp - .byte 15,40,153,164,117,0,0 // movaps 0x75a4(%ecx),%xmm3 + .byte 15,40,153,167,117,0,0 // movaps 0x75a7(%ecx),%xmm3 .byte 80 // push %eax .byte 255,117,8 // pushl 0x8(%ebp) .byte 255,82,4 // call *0x4(%edx) @@ -70889,18 +71568,18 @@ _sk_gauss_a_to_rgba_sse2: .byte 85 // push %ebp .byte 137,229 // mov %esp,%ebp .byte 131,236,8 // sub $0x8,%esp - .byte 232,0,0,0,0 // call 97e1 <_sk_gauss_a_to_rgba_sse2+0xb> + .byte 232,0,0,0,0 // call 99ce <_sk_gauss_a_to_rgba_sse2+0xb> .byte 88 // pop %eax .byte 139,77,12 // mov 0xc(%ebp),%ecx - .byte 15,40,128,223,103,0,0 // movaps 0x67df(%eax),%xmm0 + .byte 15,40,128,226,103,0,0 // movaps 0x67e2(%eax),%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 - .byte 15,88,128,239,103,0,0 // addps 0x67ef(%eax),%xmm0 + .byte 15,88,128,242,103,0,0 // addps 0x67f2(%eax),%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 - .byte 15,88,128,255,103,0,0 // addps 0x67ff(%eax),%xmm0 + .byte 15,88,128,2,104,0,0 // addps 0x6802(%eax),%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 - .byte 15,88,128,15,104,0,0 // addps 0x680f(%eax),%xmm0 + .byte 15,88,128,18,104,0,0 // addps 0x6812(%eax),%xmm0 .byte 15,89,195 // mulps %xmm3,%xmm0 - .byte 15,88,128,31,104,0,0 // addps 0x681f(%eax),%xmm0 + .byte 15,88,128,34,104,0,0 // addps 0x6822(%eax),%xmm0 .byte 141,65,4 // lea 0x4(%ecx),%eax .byte 131,236,8 // sub $0x8,%esp .byte 15,40,200 // movaps %xmm0,%xmm1 @@ -70913,7 +71592,6 @@ _sk_gauss_a_to_rgba_sse2: .byte 93 // pop %ebp .byte 195 // ret .byte 144 // nop - .byte 144 // nop HIDDEN _sk_start_pipeline_sse2_lowp .globl _sk_start_pipeline_sse2_lowp @@ -70927,7 +71605,7 @@ _sk_start_pipeline_sse2_lowp: .byte 131,236,92 // sub $0x5c,%esp .byte 139,125,12 // mov 0xc(%ebp),%edi .byte 59,125,20 // cmp 0x14(%ebp),%edi - .byte 15,131,193,0,0,0 // jae 9906 <_sk_start_pipeline_sse2_lowp+0xd6> + .byte 15,131,193,0,0,0 // jae 9af2 <_sk_start_pipeline_sse2_lowp+0xd6> .byte 139,85,16 // mov 0x10(%ebp),%edx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,117,24 // mov 0x18(%ebp),%esi @@ -70941,7 +71619,7 @@ _sk_start_pipeline_sse2_lowp: .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 137,223 // mov %ebx,%edi .byte 137,243 // mov %esi,%ebx - .byte 119,77 // ja 98b8 <_sk_start_pipeline_sse2_lowp+0x88> + .byte 119,77 // ja 9aa4 <_sk_start_pipeline_sse2_lowp+0x88> .byte 139,117,8 // mov 0x8(%ebp),%esi .byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp) .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp) @@ -70963,13 +71641,13 @@ _sk_start_pipeline_sse2_lowp: .byte 131,198,16 // add $0x10,%esi .byte 57,214 // cmp %edx,%esi .byte 137,198 // mov %eax,%esi - .byte 118,182 // jbe 986e <_sk_start_pipeline_sse2_lowp+0x3e> + .byte 118,182 // jbe 9a5a <_sk_start_pipeline_sse2_lowp+0x3e> .byte 137,209 // mov %edx,%ecx .byte 41,193 // sub %eax,%ecx .byte 137,222 // mov %ebx,%esi .byte 137,251 // mov %edi,%ebx .byte 139,125,240 // mov -0x10(%ebp),%edi - .byte 116,55 // je 98fc <_sk_start_pipeline_sse2_lowp+0xcc> + .byte 116,55 // je 9ae8 <_sk_start_pipeline_sse2_lowp+0xcc> .byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp) .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp) .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp) @@ -70987,7 +71665,7 @@ _sk_start_pipeline_sse2_lowp: .byte 139,85,16 // mov 0x10(%ebp),%edx .byte 71 // inc %edi .byte 59,125,20 // cmp 0x14(%ebp),%edi - .byte 15,133,86,255,255,255 // jne 985c <_sk_start_pipeline_sse2_lowp+0x2c> + .byte 15,133,86,255,255,255 // jne 9a48 <_sk_start_pipeline_sse2_lowp+0x2c> .byte 131,196,92 // add $0x5c,%esp .byte 94 // pop %esi .byte 95 // pop %edi @@ -71010,7 +71688,7 @@ _sk_seed_shader_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp - .byte 232,0,0,0,0 // call 991c <_sk_seed_shader_sse2_lowp+0xd> + .byte 232,0,0,0,0 // call 9b08 <_sk_seed_shader_sse2_lowp+0xd> .byte 89 // pop %ecx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 15,40,93,24 // movaps 0x18(%ebp),%xmm3 @@ -71031,7 +71709,7 @@ _sk_seed_shader_sse2_lowp: .byte 102,15,110,210 // movd %edx,%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2 - .byte 15,88,145,4,96,0,0 // addps 0x6004(%ecx),%xmm2 + .byte 15,88,145,8,96,0,0 // addps 0x6008(%ecx),%xmm2 .byte 141,78,8 // lea 0x8(%esi),%ecx .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp) .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp) @@ -71361,7 +72039,7 @@ _sk_black_color_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,92 // sub $0x5c,%esp - .byte 232,0,0,0,0 // call 9d3b <_sk_black_color_sse2_lowp+0xe> + .byte 232,0,0,0,0 // call 9f27 <_sk_black_color_sse2_lowp+0xe> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,16 // mov 0x10(%ebp),%edx @@ -71380,7 +72058,7 @@ _sk_black_color_sse2_lowp: .byte 137,84,36,8 // mov %edx,0x8(%esp) .byte 137,92,36,4 // mov %ebx,0x4(%esp) .byte 137,12,36 // mov %ecx,(%esp) - .byte 15,40,152,213,98,0,0 // movaps 0x62d5(%eax),%xmm3 + .byte 15,40,152,217,98,0,0 // movaps 0x62d9(%eax),%xmm3 .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 @@ -71402,7 +72080,7 @@ _sk_white_color_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,92 // sub $0x5c,%esp - .byte 232,0,0,0,0 // call 9da6 <_sk_white_color_sse2_lowp+0xe> + .byte 232,0,0,0,0 // call 9f92 <_sk_white_color_sse2_lowp+0xe> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,16 // mov 0x10(%ebp),%edx @@ -71421,7 +72099,7 @@ _sk_white_color_sse2_lowp: .byte 137,84,36,8 // mov %edx,0x8(%esp) .byte 137,92,36,4 // mov %ebx,0x4(%esp) .byte 137,12,36 // mov %ecx,(%esp) - .byte 15,40,128,106,98,0,0 // movaps 0x626a(%eax),%xmm0 + .byte 15,40,128,110,98,0,0 // movaps 0x626e(%eax),%xmm0 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,40,216 // movaps %xmm0,%xmm3 @@ -71442,16 +72120,16 @@ _sk_set_rgb_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp - .byte 232,0,0,0,0 // call 9e10 <_sk_set_rgb_sse2_lowp+0xd> + .byte 232,0,0,0,0 // call 9ffc <_sk_set_rgb_sse2_lowp+0xd> .byte 94 // pop %esi .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,85,16 // mov 0x10(%ebp),%edx .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,57 // mov (%ecx),%edi - .byte 243,15,16,150,4,99,0,0 // movss 0x6304(%esi),%xmm2 + .byte 243,15,16,150,8,99,0,0 // movss 0x6308(%esi),%xmm2 .byte 243,15,16,7 // movss (%edi),%xmm0 .byte 243,15,89,194 // mulss %xmm2,%xmm0 - .byte 243,15,16,142,0,99,0,0 // movss 0x6300(%esi),%xmm1 + .byte 243,15,16,142,4,99,0,0 // movss 0x6304(%esi),%xmm1 .byte 243,15,88,193 // addss %xmm1,%xmm0 .byte 243,15,44,240 // cvttss2si %xmm0,%esi .byte 102,15,110,198 // movd %esi,%xmm0 @@ -71500,12 +72178,12 @@ _sk_clamp_a_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp - .byte 232,0,0,0,0 // call 9ed4 <_sk_clamp_a_sse2_lowp+0xd> + .byte 232,0,0,0,0 // call a0c0 <_sk_clamp_a_sse2_lowp+0xd> .byte 94 // pop %esi .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,77,16 // mov 0x10(%ebp),%ecx .byte 139,85,20 // mov 0x14(%ebp),%edx - .byte 102,15,111,166,76,97,0,0 // movdqa 0x614c(%esi),%xmm4 + .byte 102,15,111,166,80,97,0,0 // movdqa 0x6150(%esi),%xmm4 .byte 102,15,111,232 // movdqa %xmm0,%xmm5 .byte 102,15,239,236 // pxor %xmm4,%xmm5 .byte 102,15,111,243 // movdqa %xmm3,%xmm6 @@ -71561,11 +72239,11 @@ _sk_clamp_a_dst_sse2_lowp: .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp) .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp) .byte 15,40,216 // movaps %xmm0,%xmm3 - .byte 232,0,0,0,0 // call 9f9b <_sk_clamp_a_dst_sse2_lowp+0x1f> + .byte 232,0,0,0,0 // call a187 <_sk_clamp_a_dst_sse2_lowp+0x1f> .byte 88 // pop %eax .byte 102,15,111,101,72 // movdqa 0x48(%ebp),%xmm4 .byte 102,15,111,77,24 // movdqa 0x18(%ebp),%xmm1 - .byte 102,15,111,144,133,96,0,0 // movdqa 0x6085(%eax),%xmm2 + .byte 102,15,111,144,137,96,0,0 // movdqa 0x6089(%eax),%xmm2 .byte 102,15,111,249 // movdqa %xmm1,%xmm7 .byte 102,15,239,250 // pxor %xmm2,%xmm7 .byte 102,15,111,244 // movdqa %xmm4,%xmm6 @@ -71622,7 +72300,7 @@ _sk_premul_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp - .byte 232,0,0,0,0 // call a06a <_sk_premul_sse2_lowp+0xd> + .byte 232,0,0,0,0 // call a256 <_sk_premul_sse2_lowp+0xd> .byte 90 // pop %edx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,77,16 // mov 0x10(%ebp),%ecx @@ -71631,7 +72309,7 @@ _sk_premul_sse2_lowp: .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5 .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6 .byte 102,15,213,195 // pmullw %xmm3,%xmm0 - .byte 102,15,111,186,166,95,0,0 // movdqa 0x5fa6(%edx),%xmm7 + .byte 102,15,111,186,170,95,0,0 // movdqa 0x5faa(%edx),%xmm7 .byte 102,15,253,199 // paddw %xmm7,%xmm0 .byte 102,15,213,203 // pmullw %xmm3,%xmm1 .byte 102,15,253,207 // paddw %xmm7,%xmm1 @@ -71671,12 +72349,12 @@ _sk_premul_dst_sse2_lowp: .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,40,209 // movaps %xmm1,%xmm2 .byte 15,40,200 // movaps %xmm0,%xmm1 - .byte 232,0,0,0,0 // call a0ff <_sk_premul_dst_sse2_lowp+0x1a> + .byte 232,0,0,0,0 // call a2eb <_sk_premul_dst_sse2_lowp+0x1a> .byte 88 // pop %eax .byte 102,15,111,101,72 // movdqa 0x48(%ebp),%xmm4 .byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5 .byte 102,15,213,236 // pmullw %xmm4,%xmm5 - .byte 102,15,111,176,17,95,0,0 // movdqa 0x5f11(%eax),%xmm6 + .byte 102,15,111,176,21,95,0,0 // movdqa 0x5f15(%eax),%xmm6 .byte 102,15,253,238 // paddw %xmm6,%xmm5 .byte 102,15,111,125,40 // movdqa 0x28(%ebp),%xmm7 .byte 102,15,213,252 // pmullw %xmm4,%xmm7 @@ -71818,12 +72496,12 @@ _sk_invert_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp - .byte 232,0,0,0,0 // call a28e <_sk_invert_sse2_lowp+0xd> + .byte 232,0,0,0,0 // call a47a <_sk_invert_sse2_lowp+0xd> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,16 // mov 0x10(%ebp),%edx .byte 139,117,20 // mov 0x14(%ebp),%esi - .byte 102,15,111,160,130,93,0,0 // movdqa 0x5d82(%eax),%xmm4 + .byte 102,15,111,160,134,93,0,0 // movdqa 0x5d86(%eax),%xmm4 .byte 102,15,111,236 // movdqa %xmm4,%xmm5 .byte 102,15,249,232 // psubw %xmm0,%xmm5 .byte 102,15,111,244 // movdqa %xmm4,%xmm6 @@ -71905,11 +72583,11 @@ _sk_srcatop_sse2_lowp: .byte 102,15,111,234 // movdqa %xmm2,%xmm5 .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 - .byte 232,0,0,0,0 // call a386 <_sk_srcatop_sse2_lowp+0x19> + .byte 232,0,0,0,0 // call a572 <_sk_srcatop_sse2_lowp+0x19> .byte 88 // pop %eax .byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6 .byte 102,15,213,206 // pmullw %xmm6,%xmm1 - .byte 102,15,111,128,138,92,0,0 // movdqa 0x5c8a(%eax),%xmm0 + .byte 102,15,111,128,142,92,0,0 // movdqa 0x5c8e(%eax),%xmm0 .byte 102,15,253,200 // paddw %xmm0,%xmm1 .byte 102,15,213,214 // pmullw %xmm6,%xmm2 .byte 102,15,253,208 // paddw %xmm0,%xmm2 @@ -71967,12 +72645,12 @@ _sk_dstatop_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp - .byte 232,0,0,0,0 // call a45a <_sk_dstatop_sse2_lowp+0xd> + .byte 232,0,0,0,0 // call a646 <_sk_dstatop_sse2_lowp+0xd> .byte 88 // pop %eax .byte 102,15,111,101,40 // movdqa 0x28(%ebp),%xmm4 .byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6 .byte 102,15,213,243 // pmullw %xmm3,%xmm6 - .byte 102,15,111,184,182,91,0,0 // movdqa 0x5bb6(%eax),%xmm7 + .byte 102,15,111,184,186,91,0,0 // movdqa 0x5bba(%eax),%xmm7 .byte 102,15,253,247 // paddw %xmm7,%xmm6 .byte 102,15,213,227 // pmullw %xmm3,%xmm4 .byte 102,15,253,231 // paddw %xmm7,%xmm4 @@ -72025,7 +72703,7 @@ _sk_srcin_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp - .byte 232,0,0,0,0 // call a51b <_sk_srcin_sse2_lowp+0xd> + .byte 232,0,0,0,0 // call a707 <_sk_srcin_sse2_lowp+0xd> .byte 94 // pop %esi .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,77,16 // mov 0x10(%ebp),%ecx @@ -72034,7 +72712,7 @@ _sk_srcin_sse2_lowp: .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5 .byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6 .byte 102,15,213,198 // pmullw %xmm6,%xmm0 - .byte 102,15,111,190,245,90,0,0 // movdqa 0x5af5(%esi),%xmm7 + .byte 102,15,111,190,249,90,0,0 // movdqa 0x5af9(%esi),%xmm7 .byte 102,15,253,199 // paddw %xmm7,%xmm0 .byte 102,15,213,206 // pmullw %xmm6,%xmm1 .byte 102,15,253,207 // paddw %xmm7,%xmm1 @@ -72073,14 +72751,14 @@ _sk_dstin_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp - .byte 232,0,0,0,0 // call a5b2 <_sk_dstin_sse2_lowp+0xd> + .byte 232,0,0,0,0 // call a79e <_sk_dstin_sse2_lowp+0xd> .byte 88 // pop %eax .byte 102,15,111,85,56 // movdqa 0x38(%ebp),%xmm2 .byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5 .byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6 .byte 102,15,111,198 // movdqa %xmm6,%xmm0 .byte 102,15,213,195 // pmullw %xmm3,%xmm0 - .byte 102,15,111,184,94,90,0,0 // movdqa 0x5a5e(%eax),%xmm7 + .byte 102,15,111,184,98,90,0,0 // movdqa 0x5a62(%eax),%xmm7 .byte 102,15,253,199 // paddw %xmm7,%xmm0 .byte 102,15,111,205 // movdqa %xmm5,%xmm1 .byte 102,15,213,203 // pmullw %xmm3,%xmm1 @@ -72124,14 +72802,14 @@ _sk_srcout_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp - .byte 232,0,0,0,0 // call a65a <_sk_srcout_sse2_lowp+0xd> + .byte 232,0,0,0,0 // call a846 <_sk_srcout_sse2_lowp+0xd> .byte 94 // pop %esi .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,77,16 // mov 0x10(%ebp),%ecx .byte 139,85,20 // mov 0x14(%ebp),%edx .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4 .byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5 - .byte 102,15,111,182,182,89,0,0 // movdqa 0x59b6(%esi),%xmm6 + .byte 102,15,111,182,186,89,0,0 // movdqa 0x59ba(%esi),%xmm6 .byte 102,15,111,254 // movdqa %xmm6,%xmm7 .byte 102,15,249,253 // psubw %xmm5,%xmm7 .byte 102,15,213,199 // pmullw %xmm7,%xmm0 @@ -72175,11 +72853,11 @@ _sk_dstout_sse2_lowp: .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp .byte 102,15,111,195 // movdqa %xmm3,%xmm0 - .byte 232,0,0,0,0 // call a6fd <_sk_dstout_sse2_lowp+0x11> + .byte 232,0,0,0,0 // call a8e9 <_sk_dstout_sse2_lowp+0x11> .byte 88 // pop %eax .byte 102,15,111,109,56 // movdqa 0x38(%ebp),%xmm5 .byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6 - .byte 102,15,111,184,19,89,0,0 // movdqa 0x5913(%eax),%xmm7 + .byte 102,15,111,184,23,89,0,0 // movdqa 0x5917(%eax),%xmm7 .byte 102,15,111,223 // movdqa %xmm7,%xmm3 .byte 102,15,249,216 // psubw %xmm0,%xmm3 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 @@ -72231,9 +72909,9 @@ _sk_srcover_sse2_lowp: .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp) .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,15,111,224 // movdqa %xmm0,%xmm4 - .byte 232,0,0,0,0 // call a7b9 <_sk_srcover_sse2_lowp+0x19> + .byte 232,0,0,0,0 // call a9a5 <_sk_srcover_sse2_lowp+0x19> .byte 88 // pop %eax - .byte 102,15,111,136,87,88,0,0 // movdqa 0x5857(%eax),%xmm1 + .byte 102,15,111,136,91,88,0,0 // movdqa 0x585b(%eax),%xmm1 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,249,195 // psubw %xmm3,%xmm0 .byte 102,15,111,248 // movdqa %xmm0,%xmm7 @@ -72292,7 +72970,7 @@ _sk_dstover_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp - .byte 232,0,0,0,0 // call a889 <_sk_dstover_sse2_lowp+0xd> + .byte 232,0,0,0,0 // call aa75 <_sk_dstover_sse2_lowp+0xd> .byte 95 // pop %edi .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,16 // mov 0x10(%ebp),%edx @@ -72300,7 +72978,7 @@ _sk_dstover_sse2_lowp: .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 102,15,111,101,56 // movdqa 0x38(%ebp),%xmm4 .byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5 - .byte 102,15,111,183,135,87,0,0 // movdqa 0x5787(%edi),%xmm6 + .byte 102,15,111,183,139,87,0,0 // movdqa 0x578b(%edi),%xmm6 .byte 102,15,111,254 // movdqa %xmm6,%xmm7 .byte 102,15,249,253 // psubw %xmm5,%xmm7 .byte 102,15,213,199 // pmullw %xmm7,%xmm0 @@ -72346,12 +73024,12 @@ _sk_modulate_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp - .byte 232,0,0,0,0 // call a93e <_sk_modulate_sse2_lowp+0xd> + .byte 232,0,0,0,0 // call ab2a <_sk_modulate_sse2_lowp+0xd> .byte 88 // pop %eax .byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5 .byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6 .byte 102,15,213,198 // pmullw %xmm6,%xmm0 - .byte 102,15,111,184,210,86,0,0 // movdqa 0x56d2(%eax),%xmm7 + .byte 102,15,111,184,214,86,0,0 // movdqa 0x56d6(%eax),%xmm7 .byte 102,15,253,199 // paddw %xmm7,%xmm0 .byte 102,15,213,205 // pmullw %xmm5,%xmm1 .byte 102,15,253,207 // paddw %xmm7,%xmm1 @@ -72394,10 +73072,10 @@ _sk_multiply_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp - .byte 232,0,0,0,0 // call a9da <_sk_multiply_sse2_lowp+0xd> + .byte 232,0,0,0,0 // call abc6 <_sk_multiply_sse2_lowp+0xd> .byte 88 // pop %eax .byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5 - .byte 102,15,111,160,54,86,0,0 // movdqa 0x5636(%eax),%xmm4 + .byte 102,15,111,160,58,86,0,0 // movdqa 0x563a(%eax),%xmm4 .byte 102,15,111,245 // movdqa %xmm5,%xmm6 .byte 102,15,253,244 // paddw %xmm4,%xmm6 .byte 102,15,249,117,72 // psubw 0x48(%ebp),%xmm6 @@ -72467,17 +73145,17 @@ _sk_plus__sse2_lowp: .byte 131,236,96 // sub $0x60,%esp .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 - .byte 232,0,0,0,0 // call aadb <_sk_plus__sse2_lowp+0x15> + .byte 232,0,0,0,0 // call acc7 <_sk_plus__sse2_lowp+0x15> .byte 88 // pop %eax .byte 102,15,253,77,24 // paddw 0x18(%ebp),%xmm1 - .byte 102,15,111,168,85,85,0,0 // movdqa 0x5555(%eax),%xmm5 + .byte 102,15,111,168,89,85,0,0 // movdqa 0x5559(%eax),%xmm5 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,217,197 // psubusw %xmm5,%xmm0 .byte 102,15,127,109,232 // movdqa %xmm5,-0x18(%ebp) .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 102,15,117,199 // pcmpeqw %xmm7,%xmm0 .byte 102,15,219,200 // pand %xmm0,%xmm1 - .byte 102,15,111,176,53,85,0,0 // movdqa 0x5535(%eax),%xmm6 + .byte 102,15,111,176,57,85,0,0 // movdqa 0x5539(%eax),%xmm6 .byte 102,15,223,198 // pandn %xmm6,%xmm0 .byte 102,15,235,193 // por %xmm1,%xmm0 .byte 102,15,253,101,40 // paddw 0x28(%ebp),%xmm4 @@ -72538,14 +73216,14 @@ _sk_screen_sse2_lowp: .byte 131,236,80 // sub $0x50,%esp .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 - .byte 232,0,0,0,0 // call abd3 <_sk_screen_sse2_lowp+0x15> + .byte 232,0,0,0,0 // call adbf <_sk_screen_sse2_lowp+0x15> .byte 88 // pop %eax .byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5 .byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6 .byte 102,15,111,198 // movdqa %xmm6,%xmm0 .byte 102,15,253,193 // paddw %xmm1,%xmm0 .byte 102,15,213,206 // pmullw %xmm6,%xmm1 - .byte 102,15,111,176,61,84,0,0 // movdqa 0x543d(%eax),%xmm6 + .byte 102,15,111,176,65,84,0,0 // movdqa 0x5441(%eax),%xmm6 .byte 102,15,253,206 // paddw %xmm6,%xmm1 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 .byte 102,15,249,193 // psubw %xmm1,%xmm0 @@ -72603,9 +73281,9 @@ _sk_xor__sse2_lowp: .byte 86 // push %esi .byte 131,236,96 // sub $0x60,%esp .byte 102,15,127,93,232 // movdqa %xmm3,-0x18(%ebp) - .byte 232,0,0,0,0 // call acb3 <_sk_xor__sse2_lowp+0x12> + .byte 232,0,0,0,0 // call ae9f <_sk_xor__sse2_lowp+0x12> .byte 88 // pop %eax - .byte 102,15,111,176,93,83,0,0 // movdqa 0x535d(%eax),%xmm6 + .byte 102,15,111,176,97,83,0,0 // movdqa 0x5361(%eax),%xmm6 .byte 102,15,111,254 // movdqa %xmm6,%xmm7 .byte 102,15,249,125,72 // psubw 0x48(%ebp),%xmm7 .byte 102,15,213,199 // pmullw %xmm7,%xmm0 @@ -72672,7 +73350,7 @@ _sk_darken_sse2_lowp: .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp) .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 - .byte 232,0,0,0,0 // call ada8 <_sk_darken_sse2_lowp+0x25> + .byte 232,0,0,0,0 // call af94 <_sk_darken_sse2_lowp+0x25> .byte 88 // pop %eax .byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6 .byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5 @@ -72683,7 +73361,7 @@ _sk_darken_sse2_lowp: .byte 102,15,111,222 // movdqa %xmm6,%xmm3 .byte 102,15,111,197 // movdqa %xmm5,%xmm0 .byte 102,15,213,199 // pmullw %xmm7,%xmm0 - .byte 102,15,111,184,120,82,0,0 // movdqa 0x5278(%eax),%xmm7 + .byte 102,15,111,184,124,82,0,0 // movdqa 0x527c(%eax),%xmm7 .byte 102,15,111,241 // movdqa %xmm1,%xmm6 .byte 102,15,239,247 // pxor %xmm7,%xmm6 .byte 102,15,111,232 // movdqa %xmm0,%xmm5 @@ -72692,7 +73370,7 @@ _sk_darken_sse2_lowp: .byte 102,15,219,197 // pand %xmm5,%xmm0 .byte 102,15,223,233 // pandn %xmm1,%xmm5 .byte 102,15,235,232 // por %xmm0,%xmm5 - .byte 102,15,111,128,104,82,0,0 // movdqa 0x5268(%eax),%xmm0 + .byte 102,15,111,128,108,82,0,0 // movdqa 0x526c(%eax),%xmm0 .byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp) .byte 102,15,253,232 // paddw %xmm0,%xmm5 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 @@ -72783,7 +73461,7 @@ _sk_lighten_sse2_lowp: .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp) .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 - .byte 232,0,0,0,0 // call af51 <_sk_lighten_sse2_lowp+0x25> + .byte 232,0,0,0,0 // call b13d <_sk_lighten_sse2_lowp+0x25> .byte 88 // pop %eax .byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5 .byte 102,15,111,197 // movdqa %xmm5,%xmm0 @@ -72792,7 +73470,7 @@ _sk_lighten_sse2_lowp: .byte 102,15,213,77,72 // pmullw 0x48(%ebp),%xmm1 .byte 102,15,111,197 // movdqa %xmm5,%xmm0 .byte 102,15,213,198 // pmullw %xmm6,%xmm0 - .byte 102,15,111,184,207,80,0,0 // movdqa 0x50cf(%eax),%xmm7 + .byte 102,15,111,184,211,80,0,0 // movdqa 0x50d3(%eax),%xmm7 .byte 102,15,111,241 // movdqa %xmm1,%xmm6 .byte 102,15,239,247 // pxor %xmm7,%xmm6 .byte 102,15,111,232 // movdqa %xmm0,%xmm5 @@ -72801,7 +73479,7 @@ _sk_lighten_sse2_lowp: .byte 102,15,219,205 // pand %xmm5,%xmm1 .byte 102,15,223,232 // pandn %xmm0,%xmm5 .byte 102,15,235,233 // por %xmm1,%xmm5 - .byte 102,15,111,128,191,80,0,0 // movdqa 0x50bf(%eax),%xmm0 + .byte 102,15,111,128,195,80,0,0 // movdqa 0x50c3(%eax),%xmm0 .byte 102,15,253,232 // paddw %xmm0,%xmm5 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,15,127,85,232 // movdqa %xmm2,-0x18(%ebp) @@ -72891,7 +73569,7 @@ _sk_difference_sse2_lowp: .byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp) .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 - .byte 232,0,0,0,0 // call b0ef <_sk_difference_sse2_lowp+0x25> + .byte 232,0,0,0,0 // call b2db <_sk_difference_sse2_lowp+0x25> .byte 88 // pop %eax .byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6 .byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5 @@ -72902,7 +73580,7 @@ _sk_difference_sse2_lowp: .byte 102,15,111,222 // movdqa %xmm6,%xmm3 .byte 102,15,111,197 // movdqa %xmm5,%xmm0 .byte 102,15,213,199 // pmullw %xmm7,%xmm0 - .byte 102,15,111,184,49,79,0,0 // movdqa 0x4f31(%eax),%xmm7 + .byte 102,15,111,184,53,79,0,0 // movdqa 0x4f35(%eax),%xmm7 .byte 102,15,111,241 // movdqa %xmm1,%xmm6 .byte 102,15,239,247 // pxor %xmm7,%xmm6 .byte 102,15,111,232 // movdqa %xmm0,%xmm5 @@ -72911,11 +73589,11 @@ _sk_difference_sse2_lowp: .byte 102,15,219,205 // pand %xmm5,%xmm1 .byte 102,15,223,232 // pandn %xmm0,%xmm5 .byte 102,15,235,233 // por %xmm1,%xmm5 - .byte 102,15,111,128,33,79,0,0 // movdqa 0x4f21(%eax),%xmm0 + .byte 102,15,111,128,37,79,0,0 // movdqa 0x4f25(%eax),%xmm0 .byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp) .byte 102,15,253,232 // paddw %xmm0,%xmm5 .byte 102,15,113,213,7 // psrlw $0x7,%xmm5 - .byte 102,15,111,128,81,79,0,0 // movdqa 0x4f51(%eax),%xmm0 + .byte 102,15,111,128,85,79,0,0 // movdqa 0x4f55(%eax),%xmm0 .byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp) .byte 102,15,219,232 // pand %xmm0,%xmm5 .byte 102,15,249,213 // psubw %xmm5,%xmm2 @@ -73004,16 +73682,16 @@ _sk_exclusion_sse2_lowp: .byte 131,236,80 // sub $0x50,%esp .byte 102,15,111,225 // movdqa %xmm1,%xmm4 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 - .byte 232,0,0,0,0 // call b2a3 <_sk_exclusion_sse2_lowp+0x15> + .byte 232,0,0,0,0 // call b48f <_sk_exclusion_sse2_lowp+0x15> .byte 88 // pop %eax .byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5 .byte 102,15,111,197 // movdqa %xmm5,%xmm0 .byte 102,15,253,193 // paddw %xmm1,%xmm0 .byte 102,15,213,205 // pmullw %xmm5,%xmm1 - .byte 102,15,111,184,109,77,0,0 // movdqa 0x4d6d(%eax),%xmm7 + .byte 102,15,111,184,113,77,0,0 // movdqa 0x4d71(%eax),%xmm7 .byte 102,15,253,207 // paddw %xmm7,%xmm1 .byte 102,15,113,209,7 // psrlw $0x7,%xmm1 - .byte 102,15,111,176,157,77,0,0 // movdqa 0x4d9d(%eax),%xmm6 + .byte 102,15,111,176,161,77,0,0 // movdqa 0x4da1(%eax),%xmm6 .byte 102,15,219,206 // pand %xmm6,%xmm1 .byte 102,15,249,193 // psubw %xmm1,%xmm0 .byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5 @@ -73074,9 +73752,9 @@ _sk_hardlight_sse2_lowp: .byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp) .byte 102,15,111,233 // movdqa %xmm1,%xmm5 .byte 102,15,111,224 // movdqa %xmm0,%xmm4 - .byte 232,0,0,0,0 // call b39d <_sk_hardlight_sse2_lowp+0x1c> + .byte 232,0,0,0,0 // call b589 <_sk_hardlight_sse2_lowp+0x1c> .byte 88 // pop %eax - .byte 102,15,111,184,115,76,0,0 // movdqa 0x4c73(%eax),%xmm7 + .byte 102,15,111,184,119,76,0,0 // movdqa 0x4c77(%eax),%xmm7 .byte 102,15,127,125,200 // movdqa %xmm7,-0x38(%ebp) .byte 102,15,111,215 // movdqa %xmm7,%xmm2 .byte 102,15,249,85,72 // psubw 0x48(%ebp),%xmm2 @@ -73103,7 +73781,7 @@ _sk_hardlight_sse2_lowp: .byte 102,15,111,214 // movdqa %xmm6,%xmm2 .byte 102,15,249,209 // psubw %xmm1,%xmm2 .byte 102,15,253,228 // paddw %xmm4,%xmm4 - .byte 102,15,111,128,131,76,0,0 // movdqa 0x4c83(%eax),%xmm0 + .byte 102,15,111,128,135,76,0,0 // movdqa 0x4c87(%eax),%xmm0 .byte 102,15,239,216 // pxor %xmm0,%xmm3 .byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp) .byte 102,15,111,204 // movdqa %xmm4,%xmm1 @@ -73210,10 +73888,10 @@ _sk_overlay_sse2_lowp: .byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp) .byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp) .byte 102,15,111,200 // movdqa %xmm0,%xmm1 - .byte 232,0,0,0,0 // call b5bf <_sk_overlay_sse2_lowp+0x1f> + .byte 232,0,0,0,0 // call b7ab <_sk_overlay_sse2_lowp+0x1f> .byte 88 // pop %eax .byte 102,15,111,69,72 // movdqa 0x48(%ebp),%xmm0 - .byte 102,15,111,184,81,74,0,0 // movdqa 0x4a51(%eax),%xmm7 + .byte 102,15,111,184,85,74,0,0 // movdqa 0x4a55(%eax),%xmm7 .byte 102,15,127,125,232 // movdqa %xmm7,-0x18(%ebp) .byte 102,15,111,215 // movdqa %xmm7,%xmm2 .byte 102,15,249,208 // psubw %xmm0,%xmm2 @@ -73240,7 +73918,7 @@ _sk_overlay_sse2_lowp: .byte 102,15,249,234 // psubw %xmm2,%xmm5 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 .byte 102,15,253,192 // paddw %xmm0,%xmm0 - .byte 102,15,111,144,97,74,0,0 // movdqa 0x4a61(%eax),%xmm2 + .byte 102,15,111,144,101,74,0,0 // movdqa 0x4a65(%eax),%xmm2 .byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp) .byte 102,15,239,226 // pxor %xmm2,%xmm4 .byte 102,15,239,194 // pxor %xmm2,%xmm0 @@ -73370,10 +74048,10 @@ _sk_load_8888_sse2_lowp: .byte 128,225,7 // and $0x7,%cl .byte 254,201 // dec %cl .byte 128,249,6 // cmp $0x6,%cl - .byte 232,0,0,0,0 // call b82e <_sk_load_8888_sse2_lowp+0x30> + .byte 232,0,0,0,0 // call ba1a <_sk_load_8888_sse2_lowp+0x30> .byte 95 // pop %edi .byte 139,117,16 // mov 0x10(%ebp),%esi - .byte 119,32 // ja b854 <_sk_load_8888_sse2_lowp+0x56> + .byte 119,32 // ja ba40 <_sk_load_8888_sse2_lowp+0x56> .byte 102,15,239,246 // pxor %xmm6,%xmm6 .byte 15,182,201 // movzbl %cl,%ecx .byte 139,140,143,50,1,0,0 // mov 0x132(%edi,%ecx,4),%ecx @@ -73382,14 +74060,14 @@ _sk_load_8888_sse2_lowp: .byte 255,225 // jmp *%ecx .byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3 .byte 15,87,246 // xorps %xmm6,%xmm6 - .byte 235,73 // jmp b89d <_sk_load_8888_sse2_lowp+0x9f> + .byte 235,73 // jmp ba89 <_sk_load_8888_sse2_lowp+0x9f> .byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3 .byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6 - .byte 235,61 // jmp b89d <_sk_load_8888_sse2_lowp+0x9f> + .byte 235,61 // jmp ba89 <_sk_load_8888_sse2_lowp+0x9f> .byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3 - .byte 235,43 // jmp b89d <_sk_load_8888_sse2_lowp+0x9f> + .byte 235,43 // jmp ba89 <_sk_load_8888_sse2_lowp+0x9f> .byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0 .byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6 .byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0 @@ -73406,7 +74084,7 @@ _sk_load_8888_sse2_lowp: .byte 102,15,114,240,16 // pslld $0x10,%xmm0 .byte 102,15,114,224,16 // psrad $0x10,%xmm0 .byte 102,15,107,200 // packssdw %xmm0,%xmm1 - .byte 102,15,111,175,226,71,0,0 // movdqa 0x47e2(%edi),%xmm5 + .byte 102,15,111,175,230,71,0,0 // movdqa 0x47e6(%edi),%xmm5 .byte 102,15,111,193 // movdqa %xmm1,%xmm0 .byte 102,15,219,197 // pand %xmm5,%xmm0 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 @@ -73485,10 +74163,10 @@ _sk_load_8888_dst_sse2_lowp: .byte 128,225,7 // and $0x7,%cl .byte 254,201 // dec %cl .byte 128,249,6 // cmp $0x6,%cl - .byte 232,0,0,0,0 // call b9b9 <_sk_load_8888_dst_sse2_lowp+0x3d> + .byte 232,0,0,0,0 // call bba5 <_sk_load_8888_dst_sse2_lowp+0x3d> .byte 95 // pop %edi .byte 139,117,16 // mov 0x10(%ebp),%esi - .byte 119,32 // ja b9df <_sk_load_8888_dst_sse2_lowp+0x63> + .byte 119,32 // ja bbcb <_sk_load_8888_dst_sse2_lowp+0x63> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 15,182,201 // movzbl %cl,%ecx .byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx @@ -73497,14 +74175,14 @@ _sk_load_8888_dst_sse2_lowp: .byte 255,225 // jmp *%ecx .byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7 .byte 15,87,219 // xorps %xmm3,%xmm3 - .byte 235,73 // jmp ba28 <_sk_load_8888_dst_sse2_lowp+0xac> + .byte 235,73 // jmp bc14 <_sk_load_8888_dst_sse2_lowp+0xac> .byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7 .byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3 - .byte 235,61 // jmp ba28 <_sk_load_8888_dst_sse2_lowp+0xac> + .byte 235,61 // jmp bc14 <_sk_load_8888_dst_sse2_lowp+0xac> .byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2 .byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7 .byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7 - .byte 235,43 // jmp ba28 <_sk_load_8888_dst_sse2_lowp+0xac> + .byte 235,43 // jmp bc14 <_sk_load_8888_dst_sse2_lowp+0xac> .byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2 .byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3 .byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2 @@ -73521,7 +74199,7 @@ _sk_load_8888_dst_sse2_lowp: .byte 102,15,114,242,16 // pslld $0x10,%xmm2 .byte 102,15,114,226,16 // psrad $0x10,%xmm2 .byte 102,15,107,242 // packssdw %xmm2,%xmm6 - .byte 102,15,111,151,87,70,0,0 // movdqa 0x4657(%edi),%xmm2 + .byte 102,15,111,151,91,70,0,0 // movdqa 0x465b(%edi),%xmm2 .byte 102,15,111,206 // movdqa %xmm6,%xmm1 .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 @@ -73615,19 +74293,19 @@ _sk_store_8888_sse2_lowp: .byte 128,227,7 // and $0x7,%bl .byte 254,203 // dec %bl .byte 128,251,6 // cmp $0x6,%bl - .byte 232,0,0,0,0 // call bb84 <_sk_store_8888_sse2_lowp+0x74> + .byte 232,0,0,0,0 // call bd70 <_sk_store_8888_sse2_lowp+0x74> .byte 89 // pop %ecx .byte 139,117,16 // mov 0x10(%ebp),%esi .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5 - .byte 119,19 // ja bba1 <_sk_store_8888_sse2_lowp+0x91> + .byte 119,19 // ja bd8d <_sk_store_8888_sse2_lowp+0x91> .byte 15,182,219 // movzbl %bl,%ebx .byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx .byte 255,225 // jmp *%ecx .byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4) - .byte 235,93 // jmp bbfe <_sk_store_8888_sse2_lowp+0xee> + .byte 235,93 // jmp bdea <_sk_store_8888_sse2_lowp+0xee> .byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4) .byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4) - .byte 235,80 // jmp bbfe <_sk_store_8888_sse2_lowp+0xee> + .byte 235,80 // jmp bdea <_sk_store_8888_sse2_lowp+0xee> .byte 102,15,111,244 // movdqa %xmm4,%xmm6 .byte 15,40,227 // movaps %xmm3,%xmm4 .byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3 @@ -73635,7 +74313,7 @@ _sk_store_8888_sse2_lowp: .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 102,15,111,230 // movdqa %xmm6,%xmm4 .byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4) - .byte 235,48 // jmp bbfe <_sk_store_8888_sse2_lowp+0xee> + .byte 235,48 // jmp bdea <_sk_store_8888_sse2_lowp+0xee> .byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3 .byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4) .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3 @@ -73672,7 +74350,7 @@ _sk_store_8888_sse2_lowp: .byte 0,0 // add %al,(%eax) .byte 42,0 // sub (%eax),%al .byte 0,0 // add %al,(%eax) - .byte 117,0 // jne bc4a <_sk_store_8888_sse2_lowp+0x13a> + .byte 117,0 // jne be36 <_sk_store_8888_sse2_lowp+0x13a> .byte 0,0 // add %al,(%eax) .byte 111 // outsl %ds:(%esi),(%dx) .byte 0,0 // add %al,(%eax) @@ -73704,10 +74382,10 @@ _sk_load_bgra_sse2_lowp: .byte 128,225,7 // and $0x7,%cl .byte 254,201 // dec %cl .byte 128,249,6 // cmp $0x6,%cl - .byte 232,0,0,0,0 // call bc88 <_sk_load_bgra_sse2_lowp+0x30> + .byte 232,0,0,0,0 // call be74 <_sk_load_bgra_sse2_lowp+0x30> .byte 95 // pop %edi .byte 139,117,16 // mov 0x10(%ebp),%esi - .byte 119,32 // ja bcae <_sk_load_bgra_sse2_lowp+0x56> + .byte 119,32 // ja be9a <_sk_load_bgra_sse2_lowp+0x56> .byte 102,15,239,246 // pxor %xmm6,%xmm6 .byte 15,182,201 // movzbl %cl,%ecx .byte 139,140,143,52,1,0,0 // mov 0x134(%edi,%ecx,4),%ecx @@ -73716,14 +74394,14 @@ _sk_load_bgra_sse2_lowp: .byte 255,225 // jmp *%ecx .byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3 .byte 15,87,246 // xorps %xmm6,%xmm6 - .byte 235,73 // jmp bcf7 <_sk_load_bgra_sse2_lowp+0x9f> + .byte 235,73 // jmp bee3 <_sk_load_bgra_sse2_lowp+0x9f> .byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3 .byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6 - .byte 235,61 // jmp bcf7 <_sk_load_bgra_sse2_lowp+0x9f> + .byte 235,61 // jmp bee3 <_sk_load_bgra_sse2_lowp+0x9f> .byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3 - .byte 235,43 // jmp bcf7 <_sk_load_bgra_sse2_lowp+0x9f> + .byte 235,43 // jmp bee3 <_sk_load_bgra_sse2_lowp+0x9f> .byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0 .byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6 .byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0 @@ -73740,7 +74418,7 @@ _sk_load_bgra_sse2_lowp: .byte 102,15,114,240,16 // pslld $0x10,%xmm0 .byte 102,15,114,224,16 // psrad $0x10,%xmm0 .byte 102,15,107,200 // packssdw %xmm0,%xmm1 - .byte 102,15,111,175,136,67,0,0 // movdqa 0x4388(%edi),%xmm5 + .byte 102,15,111,175,140,67,0,0 // movdqa 0x438c(%edi),%xmm5 .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,15,219,213 // pand %xmm5,%xmm2 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 @@ -73820,10 +74498,10 @@ _sk_load_bgra_dst_sse2_lowp: .byte 128,225,7 // and $0x7,%cl .byte 254,201 // dec %cl .byte 128,249,6 // cmp $0x6,%cl - .byte 232,0,0,0,0 // call be15 <_sk_load_bgra_dst_sse2_lowp+0x3d> + .byte 232,0,0,0,0 // call c001 <_sk_load_bgra_dst_sse2_lowp+0x3d> .byte 95 // pop %edi .byte 139,117,16 // mov 0x10(%ebp),%esi - .byte 119,32 // ja be3b <_sk_load_bgra_dst_sse2_lowp+0x63> + .byte 119,32 // ja c027 <_sk_load_bgra_dst_sse2_lowp+0x63> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 15,182,201 // movzbl %cl,%ecx .byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx @@ -73832,14 +74510,14 @@ _sk_load_bgra_dst_sse2_lowp: .byte 255,225 // jmp *%ecx .byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7 .byte 15,87,219 // xorps %xmm3,%xmm3 - .byte 235,73 // jmp be84 <_sk_load_bgra_dst_sse2_lowp+0xac> + .byte 235,73 // jmp c070 <_sk_load_bgra_dst_sse2_lowp+0xac> .byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7 .byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3 - .byte 235,61 // jmp be84 <_sk_load_bgra_dst_sse2_lowp+0xac> + .byte 235,61 // jmp c070 <_sk_load_bgra_dst_sse2_lowp+0xac> .byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2 .byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7 .byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7 - .byte 235,43 // jmp be84 <_sk_load_bgra_dst_sse2_lowp+0xac> + .byte 235,43 // jmp c070 <_sk_load_bgra_dst_sse2_lowp+0xac> .byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2 .byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3 .byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2 @@ -73856,7 +74534,7 @@ _sk_load_bgra_dst_sse2_lowp: .byte 102,15,114,242,16 // pslld $0x10,%xmm2 .byte 102,15,114,226,16 // psrad $0x10,%xmm2 .byte 102,15,107,242 // packssdw %xmm2,%xmm6 - .byte 102,15,111,151,251,65,0,0 // movdqa 0x41fb(%edi),%xmm2 + .byte 102,15,111,151,255,65,0,0 // movdqa 0x41ff(%edi),%xmm2 .byte 102,15,111,206 // movdqa %xmm6,%xmm1 .byte 102,15,219,202 // pand %xmm2,%xmm1 .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 @@ -73950,19 +74628,19 @@ _sk_store_bgra_sse2_lowp: .byte 128,227,7 // and $0x7,%bl .byte 254,203 // dec %bl .byte 128,251,6 // cmp $0x6,%bl - .byte 232,0,0,0,0 // call bfe0 <_sk_store_bgra_sse2_lowp+0x74> + .byte 232,0,0,0,0 // call c1cc <_sk_store_bgra_sse2_lowp+0x74> .byte 89 // pop %ecx .byte 139,117,16 // mov 0x10(%ebp),%esi .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5 - .byte 119,19 // ja bffd <_sk_store_bgra_sse2_lowp+0x91> + .byte 119,19 // ja c1e9 <_sk_store_bgra_sse2_lowp+0x91> .byte 15,182,219 // movzbl %bl,%ebx .byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx .byte 255,225 // jmp *%ecx .byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4) - .byte 235,93 // jmp c05a <_sk_store_bgra_sse2_lowp+0xee> + .byte 235,93 // jmp c246 <_sk_store_bgra_sse2_lowp+0xee> .byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4) .byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4) - .byte 235,80 // jmp c05a <_sk_store_bgra_sse2_lowp+0xee> + .byte 235,80 // jmp c246 <_sk_store_bgra_sse2_lowp+0xee> .byte 102,15,111,244 // movdqa %xmm4,%xmm6 .byte 15,40,227 // movaps %xmm3,%xmm4 .byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3 @@ -73970,7 +74648,7 @@ _sk_store_bgra_sse2_lowp: .byte 15,40,220 // movaps %xmm4,%xmm3 .byte 102,15,111,230 // movdqa %xmm6,%xmm4 .byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4) - .byte 235,48 // jmp c05a <_sk_store_bgra_sse2_lowp+0xee> + .byte 235,48 // jmp c246 <_sk_store_bgra_sse2_lowp+0xee> .byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3 .byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4) .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3 @@ -74007,7 +74685,7 @@ _sk_store_bgra_sse2_lowp: .byte 0,0 // add %al,(%eax) .byte 42,0 // sub (%eax),%al .byte 0,0 // add %al,(%eax) - .byte 117,0 // jne c0a6 <_sk_store_bgra_sse2_lowp+0x13a> + .byte 117,0 // jne c292 <_sk_store_bgra_sse2_lowp+0x13a> .byte 0,0 // add %al,(%eax) .byte 111 // outsl %ds:(%esi),(%dx) .byte 0,0 // add %al,(%eax) @@ -74026,7 +74704,7 @@ _sk_gather_8888_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,96 // sub $0x60,%esp - .byte 232,0,0,0,0 // call c0c1 <_sk_gather_8888_sse2_lowp+0xd> + .byte 232,0,0,0,0 // call c2ad <_sk_gather_8888_sse2_lowp+0xd> .byte 90 // pop %edx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,77,12 // mov 0xc(%ebp),%ecx @@ -74118,7 +74796,7 @@ _sk_gather_8888_sse2_lowp: .byte 102,15,114,243,16 // pslld $0x10,%xmm3 .byte 102,15,114,227,16 // psrad $0x10,%xmm3 .byte 102,15,107,216 // packssdw %xmm0,%xmm3 - .byte 102,15,111,186,79,63,0,0 // movdqa 0x3f4f(%edx),%xmm7 + .byte 102,15,111,186,83,63,0,0 // movdqa 0x3f53(%edx),%xmm7 .byte 102,15,114,210,16 // psrld $0x10,%xmm2 .byte 102,15,114,212,16 // psrld $0x10,%xmm4 .byte 102,15,114,244,16 // pslld $0x10,%xmm4 @@ -74157,7 +74835,7 @@ _sk_gather_bgra_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp - .byte 232,0,0,0,0 // call c2bc <_sk_gather_bgra_sse2_lowp+0xd> + .byte 232,0,0,0,0 // call c4a8 <_sk_gather_bgra_sse2_lowp+0xd> .byte 90 // pop %edx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,77,12 // mov 0xc(%ebp),%ecx @@ -74248,7 +74926,7 @@ _sk_gather_bgra_sse2_lowp: .byte 102,15,114,243,16 // pslld $0x10,%xmm3 .byte 102,15,114,227,16 // psrad $0x10,%xmm3 .byte 102,15,107,218 // packssdw %xmm2,%xmm3 - .byte 102,15,111,162,84,61,0,0 // movdqa 0x3d54(%edx),%xmm4 + .byte 102,15,111,162,88,61,0,0 // movdqa 0x3d58(%edx),%xmm4 .byte 102,15,114,208,16 // psrld $0x10,%xmm0 .byte 102,15,114,215,16 // psrld $0x10,%xmm7 .byte 102,15,114,247,16 // pslld $0x10,%xmm7 @@ -74303,10 +74981,10 @@ _sk_load_565_sse2_lowp: .byte 128,225,7 // and $0x7,%cl .byte 254,201 // dec %cl .byte 128,249,6 // cmp $0x6,%cl - .byte 232,0,0,0,0 // call c4e0 <_sk_load_565_sse2_lowp+0x3b> + .byte 232,0,0,0,0 // call c6cc <_sk_load_565_sse2_lowp+0x3b> .byte 94 // pop %esi .byte 139,125,16 // mov 0x10(%ebp),%edi - .byte 119,28 // ja c502 <_sk_load_565_sse2_lowp+0x5d> + .byte 119,28 // ja c6ee <_sk_load_565_sse2_lowp+0x5d> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 15,182,201 // movzbl %cl,%ecx .byte 139,140,142,244,0,0,0 // mov 0xf4(%esi,%ecx,4),%ecx @@ -74314,14 +74992,14 @@ _sk_load_565_sse2_lowp: .byte 255,225 // jmp *%ecx .byte 15,183,12,123 // movzwl (%ebx,%edi,2),%ecx .byte 102,15,110,193 // movd %ecx,%xmm0 - .byte 235,59 // jmp c53d <_sk_load_565_sse2_lowp+0x98> + .byte 235,59 // jmp c729 <_sk_load_565_sse2_lowp+0x98> .byte 243,15,111,4,123 // movdqu (%ebx,%edi,2),%xmm0 - .byte 235,52 // jmp c53d <_sk_load_565_sse2_lowp+0x98> + .byte 235,52 // jmp c729 <_sk_load_565_sse2_lowp+0x98> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,196,68,123,4,2 // pinsrw $0x2,0x4(%ebx,%edi,2),%xmm0 .byte 243,15,16,12,123 // movss (%ebx,%edi,2),%xmm1 .byte 243,15,16,193 // movss %xmm1,%xmm0 - .byte 235,30 // jmp c53d <_sk_load_565_sse2_lowp+0x98> + .byte 235,30 // jmp c729 <_sk_load_565_sse2_lowp+0x98> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,196,68,123,12,6 // pinsrw $0x6,0xc(%ebx,%edi,2),%xmm0 .byte 102,15,196,68,123,10,5 // pinsrw $0x5,0xa(%ebx,%edi,2),%xmm0 @@ -74329,11 +75007,11 @@ _sk_load_565_sse2_lowp: .byte 102,15,18,4,123 // movlpd (%ebx,%edi,2),%xmm0 .byte 102,15,111,248 // movdqa %xmm0,%xmm7 .byte 102,15,113,215,8 // psrlw $0x8,%xmm7 - .byte 102,15,219,190,112,59,0,0 // pand 0x3b70(%esi),%xmm7 + .byte 102,15,219,190,116,59,0,0 // pand 0x3b74(%esi),%xmm7 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,113,209,5 // psrlw $0x5,%xmm1 - .byte 102,15,219,142,128,59,0,0 // pand 0x3b80(%esi),%xmm1 - .byte 102,15,111,150,144,59,0,0 // movdqa 0x3b90(%esi),%xmm2 + .byte 102,15,219,142,132,59,0,0 // pand 0x3b84(%esi),%xmm1 + .byte 102,15,111,150,148,59,0,0 // movdqa 0x3b94(%esi),%xmm2 .byte 102,15,219,208 // pand %xmm0,%xmm2 .byte 102,15,113,208,13 // psrlw $0xd,%xmm0 .byte 102,15,235,199 // por %xmm7,%xmm0 @@ -74355,7 +75033,7 @@ _sk_load_565_sse2_lowp: .byte 137,124,36,8 // mov %edi,0x8(%esp) .byte 137,76,36,4 // mov %ecx,0x4(%esp) .byte 137,20,36 // mov %edx,(%esp) - .byte 15,40,158,48,59,0,0 // movaps 0x3b30(%esi),%xmm3 + .byte 15,40,158,52,59,0,0 // movaps 0x3b34(%esi),%xmm3 .byte 255,80,4 // call *0x4(%eax) .byte 131,196,92 // add $0x5c,%esp .byte 94 // pop %esi @@ -74401,10 +75079,10 @@ _sk_load_565_dst_sse2_lowp: .byte 128,225,7 // and $0x7,%cl .byte 254,201 // dec %cl .byte 128,249,6 // cmp $0x6,%cl - .byte 232,0,0,0,0 // call c61b <_sk_load_565_dst_sse2_lowp+0x2b> + .byte 232,0,0,0,0 // call c807 <_sk_load_565_dst_sse2_lowp+0x2b> .byte 95 // pop %edi .byte 139,117,16 // mov 0x10(%ebp),%esi - .byte 119,28 // ja c63d <_sk_load_565_dst_sse2_lowp+0x4d> + .byte 119,28 // ja c829 <_sk_load_565_dst_sse2_lowp+0x4d> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 15,182,201 // movzbl %cl,%ecx .byte 139,140,143,249,0,0,0 // mov 0xf9(%edi,%ecx,4),%ecx @@ -74412,14 +75090,14 @@ _sk_load_565_dst_sse2_lowp: .byte 255,225 // jmp *%ecx .byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx .byte 102,15,110,225 // movd %ecx,%xmm4 - .byte 235,59 // jmp c678 <_sk_load_565_dst_sse2_lowp+0x88> + .byte 235,59 // jmp c864 <_sk_load_565_dst_sse2_lowp+0x88> .byte 243,15,111,36,115 // movdqu (%ebx,%esi,2),%xmm4 - .byte 235,52 // jmp c678 <_sk_load_565_dst_sse2_lowp+0x88> + .byte 235,52 // jmp c864 <_sk_load_565_dst_sse2_lowp+0x88> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,196,100,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4 .byte 243,15,16,44,115 // movss (%ebx,%esi,2),%xmm5 .byte 243,15,16,229 // movss %xmm5,%xmm4 - .byte 235,30 // jmp c678 <_sk_load_565_dst_sse2_lowp+0x88> + .byte 235,30 // jmp c864 <_sk_load_565_dst_sse2_lowp+0x88> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,196,100,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4 .byte 102,15,196,100,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4 @@ -74427,11 +75105,11 @@ _sk_load_565_dst_sse2_lowp: .byte 102,15,18,36,115 // movlpd (%ebx,%esi,2),%xmm4 .byte 102,15,111,244 // movdqa %xmm4,%xmm6 .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 - .byte 102,15,219,183,53,58,0,0 // pand 0x3a35(%edi),%xmm6 + .byte 102,15,219,183,57,58,0,0 // pand 0x3a39(%edi),%xmm6 .byte 102,15,111,236 // movdqa %xmm4,%xmm5 .byte 102,15,113,213,5 // psrlw $0x5,%xmm5 - .byte 102,15,219,175,69,58,0,0 // pand 0x3a45(%edi),%xmm5 - .byte 102,15,111,191,85,58,0,0 // movdqa 0x3a55(%edi),%xmm7 + .byte 102,15,219,175,73,58,0,0 // pand 0x3a49(%edi),%xmm5 + .byte 102,15,111,191,89,58,0,0 // movdqa 0x3a59(%edi),%xmm7 .byte 102,15,219,252 // pand %xmm4,%xmm7 .byte 102,15,113,212,13 // psrlw $0xd,%xmm4 .byte 102,15,235,230 // por %xmm6,%xmm4 @@ -74444,7 +75122,7 @@ _sk_load_565_dst_sse2_lowp: .byte 102,15,113,215,2 // psrlw $0x2,%xmm7 .byte 102,15,235,254 // por %xmm6,%xmm7 .byte 141,72,8 // lea 0x8(%eax),%ecx - .byte 15,40,183,245,57,0,0 // movaps 0x39f5(%edi),%xmm6 + .byte 15,40,183,249,57,0,0 // movaps 0x39f9(%edi),%xmm6 .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp) .byte 139,125,20 // mov 0x14(%ebp),%edi .byte 137,124,36,12 // mov %edi,0xc(%esp) @@ -74489,15 +75167,15 @@ _sk_store_565_sse2_lowp: .byte 86 // push %esi .byte 131,236,92 // sub $0x5c,%esp .byte 102,15,111,226 // movdqa %xmm2,%xmm4 - .byte 232,0,0,0,0 // call c742 <_sk_store_565_sse2_lowp+0x12> + .byte 232,0,0,0,0 // call c92e <_sk_store_565_sse2_lowp+0x12> .byte 95 // pop %edi .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 102,15,113,242,8 // psllw $0x8,%xmm2 - .byte 102,15,219,151,62,57,0,0 // pand 0x393e(%edi),%xmm2 + .byte 102,15,219,151,66,57,0,0 // pand 0x3942(%edi),%xmm2 .byte 102,15,111,241 // movdqa %xmm1,%xmm6 .byte 102,15,113,246,3 // psllw $0x3,%xmm6 - .byte 102,15,219,183,78,57,0,0 // pand 0x394e(%edi),%xmm6 + .byte 102,15,219,183,82,57,0,0 // pand 0x3952(%edi),%xmm6 .byte 102,15,235,242 // por %xmm2,%xmm6 .byte 102,15,111,212 // movdqa %xmm4,%xmm2 .byte 102,15,113,210,3 // psrlw $0x3,%xmm2 @@ -74516,19 +75194,19 @@ _sk_store_565_sse2_lowp: .byte 128,249,6 // cmp $0x6,%cl .byte 139,117,16 // mov 0x10(%ebp),%esi .byte 15,40,125,24 // movaps 0x18(%ebp),%xmm7 - .byte 119,22 // ja c7ba <_sk_store_565_sse2_lowp+0x8a> + .byte 119,22 // ja c9a6 <_sk_store_565_sse2_lowp+0x8a> .byte 15,182,201 // movzbl %cl,%ecx .byte 3,188,143,242,0,0,0 // add 0xf2(%edi,%ecx,4),%edi .byte 255,231 // jmp *%edi .byte 102,15,126,209 // movd %xmm2,%ecx .byte 102,137,12,115 // mov %cx,(%ebx,%esi,2) - .byte 235,59 // jmp c7f5 <_sk_store_565_sse2_lowp+0xc5> + .byte 235,59 // jmp c9e1 <_sk_store_565_sse2_lowp+0xc5> .byte 243,15,127,20,115 // movdqu %xmm2,(%ebx,%esi,2) - .byte 235,52 // jmp c7f5 <_sk_store_565_sse2_lowp+0xc5> + .byte 235,52 // jmp c9e1 <_sk_store_565_sse2_lowp+0xc5> .byte 102,15,197,202,2 // pextrw $0x2,%xmm2,%ecx .byte 102,137,76,115,4 // mov %cx,0x4(%ebx,%esi,2) .byte 102,15,126,20,115 // movd %xmm2,(%ebx,%esi,2) - .byte 235,35 // jmp c7f5 <_sk_store_565_sse2_lowp+0xc5> + .byte 235,35 // jmp c9e1 <_sk_store_565_sse2_lowp+0xc5> .byte 102,15,197,202,6 // pextrw $0x6,%xmm2,%ecx .byte 102,137,76,115,12 // mov %cx,0xc(%ebx,%esi,2) .byte 102,15,197,202,5 // pextrw $0x5,%xmm2,%ecx @@ -74604,7 +75282,7 @@ _sk_gather_565_sse2_lowp: .byte 102,15,244,242 // pmuludq %xmm2,%xmm6 .byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2 .byte 102,15,244,212 // pmuludq %xmm4,%xmm2 - .byte 232,0,0,0,0 // call c8c8 <_sk_gather_565_sse2_lowp+0x78> + .byte 232,0,0,0,0 // call cab4 <_sk_gather_565_sse2_lowp+0x78> .byte 89 // pop %ecx .byte 139,50 // mov (%edx),%esi .byte 102,15,112,246,232 // pshufd $0xe8,%xmm6,%xmm6 @@ -74665,11 +75343,11 @@ _sk_gather_565_sse2_lowp: .byte 102,15,108,198 // punpcklqdq %xmm6,%xmm0 .byte 102,15,111,232 // movdqa %xmm0,%xmm5 .byte 102,15,113,213,8 // psrlw $0x8,%xmm5 - .byte 102,15,219,169,136,55,0,0 // pand 0x3788(%ecx),%xmm5 + .byte 102,15,219,169,140,55,0,0 // pand 0x378c(%ecx),%xmm5 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,113,209,5 // psrlw $0x5,%xmm1 - .byte 102,15,219,137,152,55,0,0 // pand 0x3798(%ecx),%xmm1 - .byte 102,15,111,145,168,55,0,0 // movdqa 0x37a8(%ecx),%xmm2 + .byte 102,15,219,137,156,55,0,0 // pand 0x379c(%ecx),%xmm1 + .byte 102,15,111,145,172,55,0,0 // movdqa 0x37ac(%ecx),%xmm2 .byte 102,15,219,208 // pand %xmm0,%xmm2 .byte 102,15,113,208,13 // psrlw $0xd,%xmm0 .byte 102,15,235,197 // por %xmm5,%xmm0 @@ -74691,7 +75369,7 @@ _sk_gather_565_sse2_lowp: .byte 137,116,36,8 // mov %esi,0x8(%esp) .byte 137,92,36,4 // mov %ebx,0x4(%esp) .byte 137,20,36 // mov %edx,(%esp) - .byte 15,40,153,72,55,0,0 // movaps 0x3748(%ecx),%xmm3 + .byte 15,40,153,76,55,0,0 // movaps 0x374c(%ecx),%xmm3 .byte 255,80,4 // call *0x4(%eax) .byte 131,196,108 // add $0x6c,%esp .byte 94 // pop %esi @@ -74724,10 +75402,10 @@ _sk_load_4444_sse2_lowp: .byte 128,225,7 // and $0x7,%cl .byte 254,201 // dec %cl .byte 128,249,6 // cmp $0x6,%cl - .byte 232,0,0,0,0 // call ca82 <_sk_load_4444_sse2_lowp+0x37> + .byte 232,0,0,0,0 // call cc6e <_sk_load_4444_sse2_lowp+0x37> .byte 95 // pop %edi .byte 139,117,16 // mov 0x10(%ebp),%esi - .byte 119,28 // ja caa4 <_sk_load_4444_sse2_lowp+0x59> + .byte 119,28 // ja cc90 <_sk_load_4444_sse2_lowp+0x59> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 15,182,201 // movzbl %cl,%ecx .byte 139,140,143,250,0,0,0 // mov 0xfa(%edi,%ecx,4),%ecx @@ -74735,14 +75413,14 @@ _sk_load_4444_sse2_lowp: .byte 255,225 // jmp *%ecx .byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx .byte 102,15,110,225 // movd %ecx,%xmm4 - .byte 235,59 // jmp cadf <_sk_load_4444_sse2_lowp+0x94> + .byte 235,59 // jmp cccb <_sk_load_4444_sse2_lowp+0x94> .byte 243,15,111,36,115 // movdqu (%ebx,%esi,2),%xmm4 - .byte 235,52 // jmp cadf <_sk_load_4444_sse2_lowp+0x94> + .byte 235,52 // jmp cccb <_sk_load_4444_sse2_lowp+0x94> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,196,100,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4 .byte 243,15,16,4,115 // movss (%ebx,%esi,2),%xmm0 .byte 243,15,16,224 // movss %xmm0,%xmm4 - .byte 235,30 // jmp cadf <_sk_load_4444_sse2_lowp+0x94> + .byte 235,30 // jmp cccb <_sk_load_4444_sse2_lowp+0x94> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,196,100,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4 .byte 102,15,196,100,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4 @@ -74752,7 +75430,7 @@ _sk_load_4444_sse2_lowp: .byte 102,15,113,209,12 // psrlw $0xc,%xmm1 .byte 102,15,111,212 // movdqa %xmm4,%xmm2 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 - .byte 102,15,111,135,30,54,0,0 // movdqa 0x361e(%edi),%xmm0 + .byte 102,15,111,135,34,54,0,0 // movdqa 0x3622(%edi),%xmm0 .byte 102,15,219,208 // pand %xmm0,%xmm2 .byte 102,15,111,220 // movdqa %xmm4,%xmm3 .byte 102,15,113,211,4 // psrlw $0x4,%xmm3 @@ -74827,10 +75505,10 @@ _sk_load_4444_dst_sse2_lowp: .byte 128,225,7 // and $0x7,%cl .byte 254,201 // dec %cl .byte 128,249,6 // cmp $0x6,%cl - .byte 232,0,0,0,0 // call cbc7 <_sk_load_4444_dst_sse2_lowp+0x2f> + .byte 232,0,0,0,0 // call cdb3 <_sk_load_4444_dst_sse2_lowp+0x2f> .byte 95 // pop %edi .byte 139,117,16 // mov 0x10(%ebp),%esi - .byte 119,28 // ja cbe9 <_sk_load_4444_dst_sse2_lowp+0x51> + .byte 119,28 // ja cdd5 <_sk_load_4444_dst_sse2_lowp+0x51> .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 15,182,201 // movzbl %cl,%ecx .byte 139,140,143,253,0,0,0 // mov 0xfd(%edi,%ecx,4),%ecx @@ -74838,14 +75516,14 @@ _sk_load_4444_dst_sse2_lowp: .byte 255,225 // jmp *%ecx .byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx .byte 102,15,110,249 // movd %ecx,%xmm7 - .byte 235,59 // jmp cc24 <_sk_load_4444_dst_sse2_lowp+0x8c> + .byte 235,59 // jmp ce10 <_sk_load_4444_dst_sse2_lowp+0x8c> .byte 243,15,111,60,115 // movdqu (%ebx,%esi,2),%xmm7 - .byte 235,52 // jmp cc24 <_sk_load_4444_dst_sse2_lowp+0x8c> + .byte 235,52 // jmp ce10 <_sk_load_4444_dst_sse2_lowp+0x8c> .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 102,15,196,124,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm7 .byte 243,15,16,44,115 // movss (%ebx,%esi,2),%xmm5 .byte 243,15,16,253 // movss %xmm5,%xmm7 - .byte 235,30 // jmp cc24 <_sk_load_4444_dst_sse2_lowp+0x8c> + .byte 235,30 // jmp ce10 <_sk_load_4444_dst_sse2_lowp+0x8c> .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 102,15,196,124,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm7 .byte 102,15,196,124,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm7 @@ -74855,7 +75533,7 @@ _sk_load_4444_dst_sse2_lowp: .byte 102,15,113,213,12 // psrlw $0xc,%xmm5 .byte 102,15,111,247 // movdqa %xmm7,%xmm6 .byte 102,15,113,214,8 // psrlw $0x8,%xmm6 - .byte 102,15,111,159,217,52,0,0 // movdqa 0x34d9(%edi),%xmm3 + .byte 102,15,111,159,221,52,0,0 // movdqa 0x34dd(%edi),%xmm3 .byte 102,15,219,243 // pand %xmm3,%xmm6 .byte 102,15,111,231 // movdqa %xmm7,%xmm4 .byte 102,15,113,212,4 // psrlw $0x4,%xmm4 @@ -74919,16 +75597,16 @@ _sk_store_4444_sse2_lowp: .byte 86 // push %esi .byte 131,236,92 // sub $0x5c,%esp .byte 102,15,111,227 // movdqa %xmm3,%xmm4 - .byte 232,0,0,0,0 // call ccf2 <_sk_store_4444_sse2_lowp+0x12> + .byte 232,0,0,0,0 // call cede <_sk_store_4444_sse2_lowp+0x12> .byte 94 // pop %esi .byte 102,15,111,216 // movdqa %xmm0,%xmm3 .byte 102,15,113,243,8 // psllw $0x8,%xmm3 - .byte 102,15,219,158,190,51,0,0 // pand 0x33be(%esi),%xmm3 + .byte 102,15,219,158,194,51,0,0 // pand 0x33c2(%esi),%xmm3 .byte 102,15,111,241 // movdqa %xmm1,%xmm6 .byte 102,15,113,246,4 // psllw $0x4,%xmm6 - .byte 102,15,219,182,206,51,0,0 // pand 0x33ce(%esi),%xmm6 + .byte 102,15,219,182,210,51,0,0 // pand 0x33d2(%esi),%xmm6 .byte 102,15,235,243 // por %xmm3,%xmm6 - .byte 102,15,111,174,222,51,0,0 // movdqa 0x33de(%esi),%xmm5 + .byte 102,15,111,174,226,51,0,0 // movdqa 0x33e2(%esi),%xmm5 .byte 102,15,219,234 // pand %xmm2,%xmm5 .byte 102,15,111,220 // movdqa %xmm4,%xmm3 .byte 102,15,113,211,4 // psrlw $0x4,%xmm3 @@ -74949,19 +75627,19 @@ _sk_store_4444_sse2_lowp: .byte 128,249,6 // cmp $0x6,%cl .byte 139,125,16 // mov 0x10(%ebp),%edi .byte 15,40,125,24 // movaps 0x18(%ebp),%xmm7 - .byte 119,22 // ja cd7a <_sk_store_4444_sse2_lowp+0x9a> + .byte 119,22 // ja cf66 <_sk_store_4444_sse2_lowp+0x9a> .byte 15,182,201 // movzbl %cl,%ecx .byte 3,180,142,2,1,0,0 // add 0x102(%esi,%ecx,4),%esi .byte 255,230 // jmp *%esi .byte 102,15,126,217 // movd %xmm3,%ecx .byte 102,137,12,123 // mov %cx,(%ebx,%edi,2) - .byte 235,59 // jmp cdb5 <_sk_store_4444_sse2_lowp+0xd5> + .byte 235,59 // jmp cfa1 <_sk_store_4444_sse2_lowp+0xd5> .byte 243,15,127,28,123 // movdqu %xmm3,(%ebx,%edi,2) - .byte 235,52 // jmp cdb5 <_sk_store_4444_sse2_lowp+0xd5> + .byte 235,52 // jmp cfa1 <_sk_store_4444_sse2_lowp+0xd5> .byte 102,15,197,203,2 // pextrw $0x2,%xmm3,%ecx .byte 102,137,76,123,4 // mov %cx,0x4(%ebx,%edi,2) .byte 102,15,126,28,123 // movd %xmm3,(%ebx,%edi,2) - .byte 235,35 // jmp cdb5 <_sk_store_4444_sse2_lowp+0xd5> + .byte 235,35 // jmp cfa1 <_sk_store_4444_sse2_lowp+0xd5> .byte 102,15,197,203,6 // pextrw $0x6,%xmm3,%ecx .byte 102,137,76,123,12 // mov %cx,0xc(%ebx,%edi,2) .byte 102,15,197,203,5 // pextrw $0x5,%xmm3,%ecx @@ -74989,7 +75667,7 @@ _sk_store_4444_sse2_lowp: .byte 93 // pop %ebp .byte 195 // ret .byte 15,31,0 // nopl (%eax) - .byte 126,0 // jle cdf6 <_sk_store_4444_sse2_lowp+0x116> + .byte 126,0 // jle cfe2 <_sk_store_4444_sse2_lowp+0x116> .byte 0,0 // add %al,(%eax) .byte 153 // cltd .byte 0,0 // add %al,(%eax) @@ -75010,7 +75688,7 @@ _sk_gather_4444_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp - .byte 232,0,0,0,0 // call ce1d <_sk_gather_4444_sse2_lowp+0xd> + .byte 232,0,0,0,0 // call d009 <_sk_gather_4444_sse2_lowp+0xd> .byte 90 // pop %edx .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,77,12 // mov 0xc(%ebp),%ecx @@ -75098,7 +75776,7 @@ _sk_gather_4444_sse2_lowp: .byte 102,15,113,209,12 // psrlw $0xc,%xmm1 .byte 102,15,111,215 // movdqa %xmm7,%xmm2 .byte 102,15,113,210,8 // psrlw $0x8,%xmm2 - .byte 102,15,111,130,131,50,0,0 // movdqa 0x3283(%edx),%xmm0 + .byte 102,15,111,130,135,50,0,0 // movdqa 0x3287(%edx),%xmm0 .byte 102,15,219,208 // pand %xmm0,%xmm2 .byte 102,15,111,223 // movdqa %xmm7,%xmm3 .byte 102,15,113,211,4 // psrlw $0x4,%xmm3 @@ -75158,10 +75836,10 @@ _sk_load_a8_sse2_lowp: .byte 128,225,7 // and $0x7,%cl .byte 254,201 // dec %cl .byte 128,249,6 // cmp $0x6,%cl - .byte 232,0,0,0,0 // call d03a <_sk_load_a8_sse2_lowp+0x3a> + .byte 232,0,0,0,0 // call d226 <_sk_load_a8_sse2_lowp+0x3a> .byte 95 // pop %edi .byte 139,117,16 // mov 0x10(%ebp),%esi - .byte 119,28 // ja d05c <_sk_load_a8_sse2_lowp+0x5c> + .byte 119,28 // ja d248 <_sk_load_a8_sse2_lowp+0x5c> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 15,182,201 // movzbl %cl,%ecx .byte 139,140,143,198,0,0,0 // mov 0xc6(%edi,%ecx,4),%ecx @@ -75169,10 +75847,10 @@ _sk_load_a8_sse2_lowp: .byte 255,225 // jmp *%ecx .byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx .byte 102,15,110,217 // movd %ecx,%xmm3 - .byte 235,90 // jmp d0b6 <_sk_load_a8_sse2_lowp+0xb6> + .byte 235,90 // jmp d2a2 <_sk_load_a8_sse2_lowp+0xb6> .byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3 .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3 - .byte 235,79 // jmp d0b6 <_sk_load_a8_sse2_lowp+0xb6> + .byte 235,79 // jmp d2a2 <_sk_load_a8_sse2_lowp+0xb6> .byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3 @@ -75180,7 +75858,7 @@ _sk_load_a8_sse2_lowp: .byte 102,15,110,233 // movd %ecx,%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 243,15,16,221 // movss %xmm5,%xmm3 - .byte 235,47 // jmp d0b6 <_sk_load_a8_sse2_lowp+0xb6> + .byte 235,47 // jmp d2a2 <_sk_load_a8_sse2_lowp+0xb6> .byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3 @@ -75191,7 +75869,7 @@ _sk_load_a8_sse2_lowp: .byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 242,15,16,221 // movsd %xmm5,%xmm3 - .byte 102,15,219,159,214,47,0,0 // pand 0x2fd6(%edi),%xmm3 + .byte 102,15,219,159,218,47,0,0 // pand 0x2fda(%edi),%xmm3 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp) .byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp) @@ -75246,10 +75924,10 @@ _sk_load_a8_dst_sse2_lowp: .byte 128,225,7 // and $0x7,%cl .byte 254,201 // dec %cl .byte 128,249,6 // cmp $0x6,%cl - .byte 232,0,0,0,0 // call d145 <_sk_load_a8_dst_sse2_lowp+0x29> + .byte 232,0,0,0,0 // call d331 <_sk_load_a8_dst_sse2_lowp+0x29> .byte 95 // pop %edi .byte 139,117,16 // mov 0x10(%ebp),%esi - .byte 119,28 // ja d167 <_sk_load_a8_dst_sse2_lowp+0x4b> + .byte 119,28 // ja d353 <_sk_load_a8_dst_sse2_lowp+0x4b> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 15,182,201 // movzbl %cl,%ecx .byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx @@ -75257,10 +75935,10 @@ _sk_load_a8_dst_sse2_lowp: .byte 255,225 // jmp *%ecx .byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx .byte 102,15,110,225 // movd %ecx,%xmm4 - .byte 235,90 // jmp d1c1 <_sk_load_a8_dst_sse2_lowp+0xa5> + .byte 235,90 // jmp d3ad <_sk_load_a8_dst_sse2_lowp+0xa5> .byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 - .byte 235,79 // jmp d1c1 <_sk_load_a8_dst_sse2_lowp+0xa5> + .byte 235,79 // jmp d3ad <_sk_load_a8_dst_sse2_lowp+0xa5> .byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4 @@ -75268,7 +75946,7 @@ _sk_load_a8_dst_sse2_lowp: .byte 102,15,110,233 // movd %ecx,%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 243,15,16,229 // movss %xmm5,%xmm4 - .byte 235,47 // jmp d1c1 <_sk_load_a8_dst_sse2_lowp+0xa5> + .byte 235,47 // jmp d3ad <_sk_load_a8_dst_sse2_lowp+0xa5> .byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4 @@ -75279,7 +75957,7 @@ _sk_load_a8_dst_sse2_lowp: .byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 - .byte 102,15,219,167,203,46,0,0 // pand 0x2ecb(%edi),%xmm4 + .byte 102,15,219,167,207,46,0,0 // pand 0x2ecf(%edi),%xmm4 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 102,15,127,100,36,64 // movdqa %xmm4,0x40(%esp) .byte 102,15,239,228 // pxor %xmm4,%xmm4 @@ -75336,32 +76014,32 @@ _sk_store_a8_sse2_lowp: .byte 128,225,7 // and $0x7,%cl .byte 254,201 // dec %cl .byte 128,249,6 // cmp $0x6,%cl - .byte 232,0,0,0,0 // call d25d <_sk_store_a8_sse2_lowp+0x39> + .byte 232,0,0,0,0 // call d449 <_sk_store_a8_sse2_lowp+0x39> .byte 91 // pop %ebx .byte 139,117,16 // mov 0x10(%ebp),%esi - .byte 119,26 // ja d27d <_sk_store_a8_sse2_lowp+0x59> + .byte 119,26 // ja d469 <_sk_store_a8_sse2_lowp+0x59> .byte 15,182,201 // movzbl %cl,%ecx .byte 139,140,139,223,0,0,0 // mov 0xdf(%ebx,%ecx,4),%ecx .byte 1,217 // add %ebx,%ecx .byte 255,225 // jmp *%ecx .byte 102,15,126,217 // movd %xmm3,%ecx .byte 136,12,55 // mov %cl,(%edi,%esi,1) - .byte 233,136,0,0,0 // jmp d305 <_sk_store_a8_sse2_lowp+0xe1> - .byte 102,15,111,163,179,45,0,0 // movdqa 0x2db3(%ebx),%xmm4 + .byte 233,136,0,0,0 // jmp d4f1 <_sk_store_a8_sse2_lowp+0xe1> + .byte 102,15,111,163,183,45,0,0 // movdqa 0x2db7(%ebx),%xmm4 .byte 102,15,219,227 // pand %xmm3,%xmm4 .byte 102,15,103,228 // packuswb %xmm4,%xmm4 .byte 102,15,214,36,55 // movq %xmm4,(%edi,%esi,1) .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4 - .byte 235,109 // jmp d305 <_sk_store_a8_sse2_lowp+0xe1> + .byte 235,109 // jmp d4f1 <_sk_store_a8_sse2_lowp+0xe1> .byte 102,15,197,203,2 // pextrw $0x2,%xmm3,%ecx .byte 136,76,55,2 // mov %cl,0x2(%edi,%esi,1) - .byte 102,15,111,163,179,45,0,0 // movdqa 0x2db3(%ebx),%xmm4 + .byte 102,15,111,163,183,45,0,0 // movdqa 0x2db7(%ebx),%xmm4 .byte 102,15,219,227 // pand %xmm3,%xmm4 .byte 102,15,103,228 // packuswb %xmm4,%xmm4 .byte 102,15,126,225 // movd %xmm4,%ecx .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4 .byte 102,137,12,55 // mov %cx,(%edi,%esi,1) - .byte 235,70 // jmp d305 <_sk_store_a8_sse2_lowp+0xe1> + .byte 235,70 // jmp d4f1 <_sk_store_a8_sse2_lowp+0xe1> .byte 102,15,197,203,6 // pextrw $0x6,%xmm3,%ecx .byte 136,76,55,6 // mov %cl,0x6(%edi,%esi,1) .byte 102,15,197,203,5 // pextrw $0x5,%xmm3,%ecx @@ -75371,7 +76049,7 @@ _sk_store_a8_sse2_lowp: .byte 15,40,254 // movaps %xmm6,%xmm7 .byte 15,40,245 // movaps %xmm5,%xmm6 .byte 15,40,236 // movaps %xmm4,%xmm5 - .byte 102,15,111,163,179,45,0,0 // movdqa 0x2db3(%ebx),%xmm4 + .byte 102,15,111,163,183,45,0,0 // movdqa 0x2db7(%ebx),%xmm4 .byte 102,15,219,227 // pand %xmm3,%xmm4 .byte 102,15,103,228 // packuswb %xmm4,%xmm4 .byte 102,15,126,36,55 // movd %xmm4,(%edi,%esi,1) @@ -75405,7 +76083,7 @@ _sk_store_a8_sse2_lowp: .byte 0,0 // add %al,(%eax) .byte 0,125,0 // add %bh,0x0(%ebp) .byte 0,0 // add %al,(%eax) - .byte 116,0 // je d34e <_sk_store_a8_sse2_lowp+0x12a> + .byte 116,0 // je d53a <_sk_store_a8_sse2_lowp+0x12a> .byte 0,0 // add %al,(%eax) .byte 107,0,0 // imul $0x0,(%eax),%eax .byte 0,98,0 // add %ah,0x0(%edx) @@ -75545,10 +76223,10 @@ _sk_load_g8_sse2_lowp: .byte 128,225,7 // and $0x7,%cl .byte 254,201 // dec %cl .byte 128,249,6 // cmp $0x6,%cl - .byte 232,0,0,0,0 // call d510 <_sk_load_g8_sse2_lowp+0x39> + .byte 232,0,0,0,0 // call d6fc <_sk_load_g8_sse2_lowp+0x39> .byte 94 // pop %esi .byte 139,125,16 // mov 0x10(%ebp),%edi - .byte 119,28 // ja d532 <_sk_load_g8_sse2_lowp+0x5b> + .byte 119,28 // ja d71e <_sk_load_g8_sse2_lowp+0x5b> .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 15,182,201 // movzbl %cl,%ecx .byte 139,140,142,200,0,0,0 // mov 0xc8(%esi,%ecx,4),%ecx @@ -75556,10 +76234,10 @@ _sk_load_g8_sse2_lowp: .byte 255,225 // jmp *%ecx .byte 15,182,12,59 // movzbl (%ebx,%edi,1),%ecx .byte 102,15,110,193 // movd %ecx,%xmm0 - .byte 235,90 // jmp d58c <_sk_load_g8_sse2_lowp+0xb5> + .byte 235,90 // jmp d778 <_sk_load_g8_sse2_lowp+0xb5> .byte 243,15,126,4,59 // movq (%ebx,%edi,1),%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 - .byte 235,79 // jmp d58c <_sk_load_g8_sse2_lowp+0xb5> + .byte 235,79 // jmp d778 <_sk_load_g8_sse2_lowp+0xb5> .byte 15,182,76,59,2 // movzbl 0x2(%ebx,%edi,1),%ecx .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,196,193,2 // pinsrw $0x2,%ecx,%xmm0 @@ -75567,7 +76245,7 @@ _sk_load_g8_sse2_lowp: .byte 102,15,110,233 // movd %ecx,%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 243,15,16,197 // movss %xmm5,%xmm0 - .byte 235,47 // jmp d58c <_sk_load_g8_sse2_lowp+0xb5> + .byte 235,47 // jmp d778 <_sk_load_g8_sse2_lowp+0xb5> .byte 15,182,76,59,6 // movzbl 0x6(%ebx,%edi,1),%ecx .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,196,193,6 // pinsrw $0x6,%ecx,%xmm0 @@ -75578,7 +76256,7 @@ _sk_load_g8_sse2_lowp: .byte 102,15,110,44,59 // movd (%ebx,%edi,1),%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 242,15,16,197 // movsd %xmm5,%xmm0 - .byte 102,15,219,134,0,43,0,0 // pand 0x2b00(%esi),%xmm0 + .byte 102,15,219,134,4,43,0,0 // pand 0x2b04(%esi),%xmm0 .byte 141,72,8 // lea 0x8(%eax),%ecx .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp) .byte 15,41,92,36,48 // movaps %xmm3,0x30(%esp) @@ -75589,7 +76267,7 @@ _sk_load_g8_sse2_lowp: .byte 137,124,36,8 // mov %edi,0x8(%esp) .byte 137,76,36,4 // mov %ecx,0x4(%esp) .byte 137,20,36 // mov %edx,(%esp) - .byte 15,40,158,0,43,0,0 // movaps 0x2b00(%esi),%xmm3 + .byte 15,40,158,4,43,0,0 // movaps 0x2b04(%esi),%xmm3 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 255,80,4 // call *0x4(%eax) @@ -75633,10 +76311,10 @@ _sk_load_g8_dst_sse2_lowp: .byte 128,225,7 // and $0x7,%cl .byte 254,201 // dec %cl .byte 128,249,6 // cmp $0x6,%cl - .byte 232,0,0,0,0 // call d61d <_sk_load_g8_dst_sse2_lowp+0x29> + .byte 232,0,0,0,0 // call d809 <_sk_load_g8_dst_sse2_lowp+0x29> .byte 95 // pop %edi .byte 139,117,16 // mov 0x10(%ebp),%esi - .byte 119,28 // ja d63f <_sk_load_g8_dst_sse2_lowp+0x4b> + .byte 119,28 // ja d82b <_sk_load_g8_dst_sse2_lowp+0x4b> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 15,182,201 // movzbl %cl,%ecx .byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx @@ -75644,10 +76322,10 @@ _sk_load_g8_dst_sse2_lowp: .byte 255,225 // jmp *%ecx .byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx .byte 102,15,110,225 // movd %ecx,%xmm4 - .byte 235,90 // jmp d699 <_sk_load_g8_dst_sse2_lowp+0xa5> + .byte 235,90 // jmp d885 <_sk_load_g8_dst_sse2_lowp+0xa5> .byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 - .byte 235,79 // jmp d699 <_sk_load_g8_dst_sse2_lowp+0xa5> + .byte 235,79 // jmp d885 <_sk_load_g8_dst_sse2_lowp+0xa5> .byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4 @@ -75655,7 +76333,7 @@ _sk_load_g8_dst_sse2_lowp: .byte 102,15,110,233 // movd %ecx,%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 243,15,16,229 // movss %xmm5,%xmm4 - .byte 235,47 // jmp d699 <_sk_load_g8_dst_sse2_lowp+0xa5> + .byte 235,47 // jmp d885 <_sk_load_g8_dst_sse2_lowp+0xa5> .byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4 @@ -75666,9 +76344,9 @@ _sk_load_g8_dst_sse2_lowp: .byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 - .byte 102,15,219,167,243,41,0,0 // pand 0x29f3(%edi),%xmm4 + .byte 102,15,219,167,247,41,0,0 // pand 0x29f7(%edi),%xmm4 .byte 141,72,8 // lea 0x8(%eax),%ecx - .byte 15,40,175,243,41,0,0 // movaps 0x29f3(%edi),%xmm5 + .byte 15,40,175,247,41,0,0 // movaps 0x29f7(%edi),%xmm5 .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp) .byte 102,15,127,100,36,48 // movdqa %xmm4,0x30(%esp) .byte 102,15,127,100,36,32 // movdqa %xmm4,0x20(%esp) @@ -75709,7 +76387,7 @@ _sk_luminance_to_alpha_sse2_lowp: .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp .byte 102,15,111,218 // movdqa %xmm2,%xmm3 - .byte 232,0,0,0,0 // call d70d <_sk_luminance_to_alpha_sse2_lowp+0x11> + .byte 232,0,0,0,0 // call d8f9 <_sk_luminance_to_alpha_sse2_lowp+0x11> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,16 // mov 0x10(%ebp),%edx @@ -75719,10 +76397,10 @@ _sk_luminance_to_alpha_sse2_lowp: .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5 .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6 .byte 139,125,12 // mov 0xc(%ebp),%edi - .byte 102,15,213,128,211,41,0,0 // pmullw 0x29d3(%eax),%xmm0 - .byte 102,15,213,136,227,41,0,0 // pmullw 0x29e3(%eax),%xmm1 + .byte 102,15,213,128,215,41,0,0 // pmullw 0x29d7(%eax),%xmm0 + .byte 102,15,213,136,231,41,0,0 // pmullw 0x29e7(%eax),%xmm1 .byte 102,15,253,200 // paddw %xmm0,%xmm1 - .byte 102,15,213,152,243,41,0,0 // pmullw 0x29f3(%eax),%xmm3 + .byte 102,15,213,152,247,41,0,0 // pmullw 0x29f7(%eax),%xmm3 .byte 102,15,253,217 // paddw %xmm1,%xmm3 .byte 102,15,113,211,8 // psrlw $0x8,%xmm3 .byte 141,71,4 // lea 0x4(%edi),%eax @@ -75803,7 +76481,7 @@ _sk_gather_g8_sse2_lowp: .byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx .byte 193,226,8 // shl $0x8,%edx .byte 9,202 // or %ecx,%edx - .byte 232,0,0,0,0 // call d852 <_sk_gather_g8_sse2_lowp+0xc9> + .byte 232,0,0,0,0 // call da3e <_sk_gather_g8_sse2_lowp+0xc9> .byte 89 // pop %ecx .byte 102,15,244,211 // pmuludq %xmm3,%xmm2 .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2 @@ -75847,7 +76525,7 @@ _sk_gather_g8_sse2_lowp: .byte 137,84,36,8 // mov %edx,0x8(%esp) .byte 137,92,36,4 // mov %ebx,0x4(%esp) .byte 137,60,36 // mov %edi,(%esp) - .byte 15,40,153,190,39,0,0 // movaps 0x27be(%ecx),%xmm3 + .byte 15,40,153,194,39,0,0 // movaps 0x27c2(%ecx),%xmm3 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 255,80,4 // call *0x4(%eax) @@ -75867,15 +76545,15 @@ _sk_scale_1_float_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp - .byte 232,0,0,0,0 // call d923 <_sk_scale_1_float_sse2_lowp+0xd> + .byte 232,0,0,0,0 // call db0f <_sk_scale_1_float_sse2_lowp+0xd> .byte 94 // pop %esi .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,85,16 // mov 0x10(%ebp),%edx .byte 139,77,12 // mov 0xc(%ebp),%ecx .byte 139,57 // mov (%ecx),%edi .byte 243,15,16,39 // movss (%edi),%xmm4 - .byte 243,15,89,166,241,39,0,0 // mulss 0x27f1(%esi),%xmm4 - .byte 243,15,88,166,237,39,0,0 // addss 0x27ed(%esi),%xmm4 + .byte 243,15,89,166,245,39,0,0 // mulss 0x27f5(%esi),%xmm4 + .byte 243,15,88,166,241,39,0,0 // addss 0x27f1(%esi),%xmm4 .byte 243,15,44,252 // cvttss2si %xmm4,%edi .byte 102,15,110,239 // movd %edi,%xmm5 .byte 139,125,20 // mov 0x14(%ebp),%edi @@ -75888,7 +76566,7 @@ _sk_scale_1_float_sse2_lowp: .byte 102,15,213,205 // pmullw %xmm5,%xmm1 .byte 102,15,213,213 // pmullw %xmm5,%xmm2 .byte 102,15,213,221 // pmullw %xmm5,%xmm3 - .byte 102,15,111,174,237,38,0,0 // movdqa 0x26ed(%esi),%xmm5 + .byte 102,15,111,174,241,38,0,0 // movdqa 0x26f1(%esi),%xmm5 .byte 102,15,253,197 // paddw %xmm5,%xmm0 .byte 102,15,253,205 // paddw %xmm5,%xmm1 .byte 102,15,253,213 // paddw %xmm5,%xmm2 @@ -75927,19 +76605,19 @@ _sk_lerp_1_float_sse2_lowp: .byte 102,15,111,218 // movdqa %xmm2,%xmm3 .byte 102,15,111,209 // movdqa %xmm1,%xmm2 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 - .byte 232,0,0,0,0 // call d9f1 <_sk_lerp_1_float_sse2_lowp+0x1d> + .byte 232,0,0,0,0 // call dbdd <_sk_lerp_1_float_sse2_lowp+0x1d> .byte 89 // pop %ecx .byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5 .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,16 // mov (%eax),%edx .byte 243,15,16,50 // movss (%edx),%xmm6 - .byte 243,15,89,177,35,39,0,0 // mulss 0x2723(%ecx),%xmm6 - .byte 243,15,88,177,31,39,0,0 // addss 0x271f(%ecx),%xmm6 + .byte 243,15,89,177,39,39,0,0 // mulss 0x2727(%ecx),%xmm6 + .byte 243,15,88,177,35,39,0,0 // addss 0x2723(%ecx),%xmm6 .byte 243,15,44,214 // cvttss2si %xmm6,%edx .byte 102,15,110,242 // movd %edx,%xmm6 .byte 242,15,112,246,0 // pshuflw $0x0,%xmm6,%xmm6 .byte 102,15,112,246,80 // pshufd $0x50,%xmm6,%xmm6 - .byte 102,15,111,129,31,38,0,0 // movdqa 0x261f(%ecx),%xmm0 + .byte 102,15,111,129,35,38,0,0 // movdqa 0x2623(%ecx),%xmm0 .byte 102,15,213,206 // pmullw %xmm6,%xmm1 .byte 102,15,253,200 // paddw %xmm0,%xmm1 .byte 102,15,213,214 // pmullw %xmm6,%xmm2 @@ -76012,10 +76690,10 @@ _sk_scale_u8_sse2_lowp: .byte 128,225,7 // and $0x7,%cl .byte 254,201 // dec %cl .byte 128,249,6 // cmp $0x6,%cl - .byte 232,0,0,0,0 // call db1a <_sk_scale_u8_sse2_lowp+0x31> + .byte 232,0,0,0,0 // call dd06 <_sk_scale_u8_sse2_lowp+0x31> .byte 95 // pop %edi .byte 139,117,16 // mov 0x10(%ebp),%esi - .byte 119,28 // ja db3c <_sk_scale_u8_sse2_lowp+0x53> + .byte 119,28 // ja dd28 <_sk_scale_u8_sse2_lowp+0x53> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 15,182,201 // movzbl %cl,%ecx .byte 139,140,143,2,1,0,0 // mov 0x102(%edi,%ecx,4),%ecx @@ -76023,10 +76701,10 @@ _sk_scale_u8_sse2_lowp: .byte 255,225 // jmp *%ecx .byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx .byte 102,15,110,225 // movd %ecx,%xmm4 - .byte 235,90 // jmp db96 <_sk_scale_u8_sse2_lowp+0xad> + .byte 235,90 // jmp dd82 <_sk_scale_u8_sse2_lowp+0xad> .byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 - .byte 235,79 // jmp db96 <_sk_scale_u8_sse2_lowp+0xad> + .byte 235,79 // jmp dd82 <_sk_scale_u8_sse2_lowp+0xad> .byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4 @@ -76034,7 +76712,7 @@ _sk_scale_u8_sse2_lowp: .byte 102,15,110,233 // movd %ecx,%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 243,15,16,229 // movss %xmm5,%xmm4 - .byte 235,47 // jmp db96 <_sk_scale_u8_sse2_lowp+0xad> + .byte 235,47 // jmp dd82 <_sk_scale_u8_sse2_lowp+0xad> .byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4 @@ -76045,9 +76723,9 @@ _sk_scale_u8_sse2_lowp: .byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 - .byte 102,15,219,167,246,36,0,0 // pand 0x24f6(%edi),%xmm4 + .byte 102,15,219,167,250,36,0,0 // pand 0x24fa(%edi),%xmm4 .byte 102,15,213,196 // pmullw %xmm4,%xmm0 - .byte 102,15,111,175,246,36,0,0 // movdqa 0x24f6(%edi),%xmm5 + .byte 102,15,111,175,250,36,0,0 // movdqa 0x24fa(%edi),%xmm5 .byte 102,15,253,197 // paddw %xmm5,%xmm0 .byte 102,15,113,208,8 // psrlw $0x8,%xmm0 .byte 102,15,213,204 // pmullw %xmm4,%xmm1 @@ -76114,10 +76792,10 @@ _sk_lerp_u8_sse2_lowp: .byte 128,225,7 // and $0x7,%cl .byte 254,201 // dec %cl .byte 128,249,6 // cmp $0x6,%cl - .byte 232,0,0,0,0 // call dc66 <_sk_lerp_u8_sse2_lowp+0x2e> + .byte 232,0,0,0,0 // call de52 <_sk_lerp_u8_sse2_lowp+0x2e> .byte 95 // pop %edi .byte 139,117,16 // mov 0x10(%ebp),%esi - .byte 119,28 // ja dc88 <_sk_lerp_u8_sse2_lowp+0x50> + .byte 119,28 // ja de74 <_sk_lerp_u8_sse2_lowp+0x50> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 15,182,201 // movzbl %cl,%ecx .byte 139,140,143,74,1,0,0 // mov 0x14a(%edi,%ecx,4),%ecx @@ -76125,10 +76803,10 @@ _sk_lerp_u8_sse2_lowp: .byte 255,225 // jmp *%ecx .byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx .byte 102,15,110,217 // movd %ecx,%xmm3 - .byte 235,90 // jmp dce2 <_sk_lerp_u8_sse2_lowp+0xaa> + .byte 235,90 // jmp dece <_sk_lerp_u8_sse2_lowp+0xaa> .byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3 .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3 - .byte 235,79 // jmp dce2 <_sk_lerp_u8_sse2_lowp+0xaa> + .byte 235,79 // jmp dece <_sk_lerp_u8_sse2_lowp+0xaa> .byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3 @@ -76136,7 +76814,7 @@ _sk_lerp_u8_sse2_lowp: .byte 102,15,110,225 // movd %ecx,%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 243,15,16,220 // movss %xmm4,%xmm3 - .byte 235,47 // jmp dce2 <_sk_lerp_u8_sse2_lowp+0xaa> + .byte 235,47 // jmp dece <_sk_lerp_u8_sse2_lowp+0xaa> .byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3 @@ -76147,8 +76825,8 @@ _sk_lerp_u8_sse2_lowp: .byte 102,15,110,36,51 // movd (%ebx,%esi,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 242,15,16,220 // movsd %xmm4,%xmm3 - .byte 102,15,219,159,170,35,0,0 // pand 0x23aa(%edi),%xmm3 - .byte 102,15,111,183,170,35,0,0 // movdqa 0x23aa(%edi),%xmm6 + .byte 102,15,219,159,174,35,0,0 // pand 0x23ae(%edi),%xmm3 + .byte 102,15,111,183,174,35,0,0 // movdqa 0x23ae(%edi),%xmm6 .byte 102,15,111,227 // movdqa %xmm3,%xmm4 .byte 102,15,239,230 // pxor %xmm6,%xmm4 .byte 102,15,111,252 // movdqa %xmm4,%xmm7 @@ -76237,10 +76915,10 @@ _sk_scale_565_sse2_lowp: .byte 128,225,7 // and $0x7,%cl .byte 254,201 // dec %cl .byte 128,249,6 // cmp $0x6,%cl - .byte 232,0,0,0,0 // call de0f <_sk_scale_565_sse2_lowp+0x43> + .byte 232,0,0,0,0 // call dffb <_sk_scale_565_sse2_lowp+0x43> .byte 95 // pop %edi .byte 139,117,16 // mov 0x10(%ebp),%esi - .byte 119,28 // ja de31 <_sk_scale_565_sse2_lowp+0x65> + .byte 119,28 // ja e01d <_sk_scale_565_sse2_lowp+0x65> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 15,182,201 // movzbl %cl,%ecx .byte 139,140,143,249,1,0,0 // mov 0x1f9(%edi,%ecx,4),%ecx @@ -76248,14 +76926,14 @@ _sk_scale_565_sse2_lowp: .byte 255,225 // jmp *%ecx .byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx .byte 102,15,110,217 // movd %ecx,%xmm3 - .byte 235,59 // jmp de6c <_sk_scale_565_sse2_lowp+0xa0> + .byte 235,59 // jmp e058 <_sk_scale_565_sse2_lowp+0xa0> .byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3 - .byte 235,52 // jmp de6c <_sk_scale_565_sse2_lowp+0xa0> + .byte 235,52 // jmp e058 <_sk_scale_565_sse2_lowp+0xa0> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3 .byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1 .byte 243,15,16,217 // movss %xmm1,%xmm3 - .byte 235,30 // jmp de6c <_sk_scale_565_sse2_lowp+0xa0> + .byte 235,30 // jmp e058 <_sk_scale_565_sse2_lowp+0xa0> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3 .byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3 @@ -76263,11 +76941,11 @@ _sk_scale_565_sse2_lowp: .byte 102,15,18,28,115 // movlpd (%ebx,%esi,2),%xmm3 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 - .byte 102,15,219,143,65,34,0,0 // pand 0x2241(%edi),%xmm1 + .byte 102,15,219,143,69,34,0,0 // pand 0x2245(%edi),%xmm1 .byte 102,15,111,211 // movdqa %xmm3,%xmm2 .byte 102,15,113,210,5 // psrlw $0x5,%xmm2 - .byte 102,15,219,151,81,34,0,0 // pand 0x2251(%edi),%xmm2 - .byte 102,15,111,135,97,34,0,0 // movdqa 0x2261(%edi),%xmm0 + .byte 102,15,219,151,85,34,0,0 // pand 0x2255(%edi),%xmm2 + .byte 102,15,111,135,101,34,0,0 // movdqa 0x2265(%edi),%xmm0 .byte 102,15,219,195 // pand %xmm3,%xmm0 .byte 102,15,113,211,13 // psrlw $0xd,%xmm3 .byte 102,15,235,217 // por %xmm1,%xmm3 @@ -76280,7 +76958,7 @@ _sk_scale_565_sse2_lowp: .byte 102,15,113,208,2 // psrlw $0x2,%xmm0 .byte 102,15,235,193 // por %xmm1,%xmm0 .byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp) - .byte 102,15,111,167,17,34,0,0 // movdqa 0x2211(%edi),%xmm4 + .byte 102,15,111,167,21,34,0,0 // movdqa 0x2215(%edi),%xmm4 .byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp) .byte 102,15,239,244 // pxor %xmm4,%xmm6 .byte 102,15,239,252 // pxor %xmm4,%xmm7 @@ -76323,7 +77001,7 @@ _sk_scale_565_sse2_lowp: .byte 102,15,111,229 // movdqa %xmm5,%xmm4 .byte 102,15,213,101,136 // pmullw -0x78(%ebp),%xmm4 .byte 102,15,213,125,184 // pmullw -0x48(%ebp),%xmm7 - .byte 102,15,111,135,1,34,0,0 // movdqa 0x2201(%edi),%xmm0 + .byte 102,15,111,135,5,34,0,0 // movdqa 0x2205(%edi),%xmm0 .byte 102,15,253,216 // paddw %xmm0,%xmm3 .byte 102,15,253,208 // paddw %xmm0,%xmm2 .byte 102,15,253,224 // paddw %xmm0,%xmm4 @@ -76400,10 +77078,10 @@ _sk_lerp_565_sse2_lowp: .byte 128,225,7 // and $0x7,%cl .byte 254,201 // dec %cl .byte 128,249,6 // cmp $0x6,%cl - .byte 232,0,0,0,0 // call e067 <_sk_lerp_565_sse2_lowp+0x43> + .byte 232,0,0,0,0 // call e253 <_sk_lerp_565_sse2_lowp+0x43> .byte 95 // pop %edi .byte 139,117,16 // mov 0x10(%ebp),%esi - .byte 119,28 // ja e089 <_sk_lerp_565_sse2_lowp+0x65> + .byte 119,28 // ja e275 <_sk_lerp_565_sse2_lowp+0x65> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 15,182,201 // movzbl %cl,%ecx .byte 139,140,143,73,2,0,0 // mov 0x249(%edi,%ecx,4),%ecx @@ -76411,14 +77089,14 @@ _sk_lerp_565_sse2_lowp: .byte 255,225 // jmp *%ecx .byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx .byte 102,15,110,217 // movd %ecx,%xmm3 - .byte 235,59 // jmp e0c4 <_sk_lerp_565_sse2_lowp+0xa0> + .byte 235,59 // jmp e2b0 <_sk_lerp_565_sse2_lowp+0xa0> .byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3 - .byte 235,52 // jmp e0c4 <_sk_lerp_565_sse2_lowp+0xa0> + .byte 235,52 // jmp e2b0 <_sk_lerp_565_sse2_lowp+0xa0> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3 .byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1 .byte 243,15,16,217 // movss %xmm1,%xmm3 - .byte 235,30 // jmp e0c4 <_sk_lerp_565_sse2_lowp+0xa0> + .byte 235,30 // jmp e2b0 <_sk_lerp_565_sse2_lowp+0xa0> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3 .byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3 @@ -76426,11 +77104,11 @@ _sk_lerp_565_sse2_lowp: .byte 102,15,18,28,115 // movlpd (%ebx,%esi,2),%xmm3 .byte 102,15,111,203 // movdqa %xmm3,%xmm1 .byte 102,15,113,209,8 // psrlw $0x8,%xmm1 - .byte 102,15,219,143,233,31,0,0 // pand 0x1fe9(%edi),%xmm1 + .byte 102,15,219,143,237,31,0,0 // pand 0x1fed(%edi),%xmm1 .byte 102,15,111,211 // movdqa %xmm3,%xmm2 .byte 102,15,113,210,5 // psrlw $0x5,%xmm2 - .byte 102,15,219,151,249,31,0,0 // pand 0x1ff9(%edi),%xmm2 - .byte 102,15,111,175,9,32,0,0 // movdqa 0x2009(%edi),%xmm5 + .byte 102,15,219,151,253,31,0,0 // pand 0x1ffd(%edi),%xmm2 + .byte 102,15,111,175,13,32,0,0 // movdqa 0x200d(%edi),%xmm5 .byte 102,15,219,235 // pand %xmm3,%xmm5 .byte 102,15,113,211,13 // psrlw $0xd,%xmm3 .byte 102,15,235,217 // por %xmm1,%xmm3 @@ -76443,7 +77121,7 @@ _sk_lerp_565_sse2_lowp: .byte 102,15,113,213,2 // psrlw $0x2,%xmm5 .byte 102,15,235,233 // por %xmm1,%xmm5 .byte 102,15,127,109,216 // movdqa %xmm5,-0x28(%ebp) - .byte 102,15,111,167,185,31,0,0 // movdqa 0x1fb9(%edi),%xmm4 + .byte 102,15,111,167,189,31,0,0 // movdqa 0x1fbd(%edi),%xmm4 .byte 102,15,111,198 // movdqa %xmm6,%xmm0 .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,239,204 // pxor %xmm4,%xmm1 @@ -76484,7 +77162,7 @@ _sk_lerp_565_sse2_lowp: .byte 102,15,235,249 // por %xmm1,%xmm7 .byte 102,15,111,195 // movdqa %xmm3,%xmm0 .byte 102,15,213,93,168 // pmullw -0x58(%ebp),%xmm3 - .byte 102,15,111,143,169,31,0,0 // movdqa 0x1fa9(%edi),%xmm1 + .byte 102,15,111,143,173,31,0,0 // movdqa 0x1fad(%edi),%xmm1 .byte 102,15,239,193 // pxor %xmm1,%xmm0 .byte 102,15,111,101,24 // movdqa 0x18(%ebp),%xmm4 .byte 102,15,213,196 // pmullw %xmm4,%xmm0 @@ -76564,7 +77242,7 @@ _sk_clamp_x_1_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp - .byte 232,0,0,0,0 // call e2d9 <_sk_clamp_x_1_sse2_lowp+0xd> + .byte 232,0,0,0,0 // call e4c5 <_sk_clamp_x_1_sse2_lowp+0xd> .byte 88 // pop %eax .byte 139,77,8 // mov 0x8(%ebp),%ecx .byte 139,85,16 // mov 0x10(%ebp),%edx @@ -76575,7 +77253,7 @@ _sk_clamp_x_1_sse2_lowp: .byte 15,87,255 // xorps %xmm7,%xmm7 .byte 15,95,207 // maxps %xmm7,%xmm1 .byte 15,95,199 // maxps %xmm7,%xmm0 - .byte 15,40,184,87,22,0,0 // movaps 0x1657(%eax),%xmm7 + .byte 15,40,184,91,22,0,0 // movaps 0x165b(%eax),%xmm7 .byte 15,93,199 // minps %xmm7,%xmm0 .byte 15,93,207 // minps %xmm7,%xmm1 .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7 @@ -76605,7 +77283,7 @@ _sk_repeat_x_1_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 131,236,80 // sub $0x50,%esp - .byte 232,0,0,0,0 // call e348 <_sk_repeat_x_1_sse2_lowp+0xd> + .byte 232,0,0,0,0 // call e534 <_sk_repeat_x_1_sse2_lowp+0xd> .byte 94 // pop %esi .byte 139,69,8 // mov 0x8(%ebp),%eax .byte 139,77,16 // mov 0x10(%ebp),%ecx @@ -76616,7 +77294,7 @@ _sk_repeat_x_1_sse2_lowp: .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4 .byte 15,40,241 // movaps %xmm1,%xmm6 .byte 15,194,244,1 // cmpltps %xmm4,%xmm6 - .byte 15,40,190,232,21,0,0 // movaps 0x15e8(%esi),%xmm7 + .byte 15,40,190,236,21,0,0 // movaps 0x15ec(%esi),%xmm7 .byte 15,84,247 // andps %xmm7,%xmm6 .byte 15,92,230 // subps %xmm6,%xmm4 .byte 15,40,240 // movaps %xmm0,%xmm6 @@ -76664,19 +77342,19 @@ _sk_mirror_x_1_sse2_lowp: .byte 15,40,218 // movaps %xmm2,%xmm3 .byte 15,40,209 // movaps %xmm1,%xmm2 .byte 15,40,200 // movaps %xmm0,%xmm1 - .byte 232,0,0,0,0 // call e3f2 <_sk_mirror_x_1_sse2_lowp+0x1a> + .byte 232,0,0,0,0 // call e5de <_sk_mirror_x_1_sse2_lowp+0x1a> .byte 88 // pop %eax - .byte 15,40,160,174,21,0,0 // movaps 0x15ae(%eax),%xmm4 + .byte 15,40,160,178,21,0,0 // movaps 0x15b2(%eax),%xmm4 .byte 15,88,204 // addps %xmm4,%xmm1 .byte 15,88,212 // addps %xmm4,%xmm2 - .byte 15,40,176,46,21,0,0 // movaps 0x152e(%eax),%xmm6 + .byte 15,40,176,50,21,0,0 // movaps 0x1532(%eax),%xmm6 .byte 15,40,250 // movaps %xmm2,%xmm7 .byte 15,89,254 // mulps %xmm6,%xmm7 .byte 15,89,241 // mulps %xmm1,%xmm6 .byte 243,15,91,238 // cvttps2dq %xmm6,%xmm5 .byte 15,91,197 // cvtdq2ps %xmm5,%xmm0 .byte 15,194,240,1 // cmpltps %xmm0,%xmm6 - .byte 15,40,168,62,21,0,0 // movaps 0x153e(%eax),%xmm5 + .byte 15,40,168,66,21,0,0 // movaps 0x1542(%eax),%xmm5 .byte 15,84,245 // andps %xmm5,%xmm6 .byte 15,92,198 // subps %xmm6,%xmm0 .byte 243,15,91,247 // cvttps2dq %xmm7,%xmm6 @@ -76695,7 +77373,7 @@ _sk_mirror_x_1_sse2_lowp: .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6 .byte 15,88,212 // addps %xmm4,%xmm2 .byte 15,88,204 // addps %xmm4,%xmm1 - .byte 15,40,160,62,26,0,0 // movaps 0x1a3e(%eax),%xmm4 + .byte 15,40,160,66,26,0,0 // movaps 0x1a42(%eax),%xmm4 .byte 15,84,204 // andps %xmm4,%xmm1 .byte 15,84,212 // andps %xmm4,%xmm2 .byte 15,87,228 // xorps %xmm4,%xmm4 @@ -76736,7 +77414,7 @@ _sk_gradient_sse2_lowp: .byte 87 // push %edi .byte 86 // push %esi .byte 129,236,108,1,0,0 // sub $0x16c,%esp - .byte 232,0,0,0,0 // call e4d0 <_sk_gradient_sse2_lowp+0x11> + .byte 232,0,0,0,0 // call e6bc <_sk_gradient_sse2_lowp+0x11> .byte 88 // pop %eax .byte 137,69,164 // mov %eax,-0x5c(%ebp) .byte 139,69,12 // mov 0xc(%ebp),%eax @@ -76746,7 +77424,7 @@ _sk_gradient_sse2_lowp: .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 131,248,2 // cmp $0x2,%eax .byte 102,15,239,237 // pxor %xmm5,%xmm5 - .byte 114,48 // jb e51a <_sk_gradient_sse2_lowp+0x5b> + .byte 114,48 // jb e706 <_sk_gradient_sse2_lowp+0x5b> .byte 139,78,36 // mov 0x24(%esi),%ecx .byte 72 // dec %eax .byte 131,193,4 // add $0x4,%ecx @@ -76761,7 +77439,7 @@ _sk_gradient_sse2_lowp: .byte 102,15,250,234 // psubd %xmm2,%xmm5 .byte 131,193,4 // add $0x4,%ecx .byte 72 // dec %eax - .byte 117,223 // jne e4f9 <_sk_gradient_sse2_lowp+0x3a> + .byte 117,223 // jne e6e5 <_sk_gradient_sse2_lowp+0x3a> .byte 102,15,112,215,229 // pshufd $0xe5,%xmm7,%xmm2 .byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3 .byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp) @@ -76968,10 +77646,10 @@ _sk_gradient_sse2_lowp: .byte 15,89,195 // mulps %xmm3,%xmm0 .byte 15,88,194 // addps %xmm2,%xmm0 .byte 139,69,164 // mov -0x5c(%ebp),%eax - .byte 15,40,136,48,21,0,0 // movaps 0x1530(%eax),%xmm1 + .byte 15,40,136,52,21,0,0 // movaps 0x1534(%eax),%xmm1 .byte 15,89,225 // mulps %xmm1,%xmm4 .byte 15,89,193 // mulps %xmm1,%xmm0 - .byte 15,40,144,80,20,0,0 // movaps 0x1450(%eax),%xmm2 + .byte 15,40,144,84,20,0,0 // movaps 0x1454(%eax),%xmm2 .byte 15,88,194 // addps %xmm2,%xmm0 .byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp) .byte 15,88,226 // addps %xmm2,%xmm4 @@ -77087,7 +77765,7 @@ _sk_evenly_spaced_gradient_sse2_lowp: .byte 129,236,92,1,0,0 // sub $0x15c,%esp .byte 15,41,141,232,254,255,255 // movaps %xmm1,-0x118(%ebp) .byte 15,41,69,136 // movaps %xmm0,-0x78(%ebp) - .byte 232,0,0,0,0 // call ea42 <_sk_evenly_spaced_gradient_sse2_lowp+0x1c> + .byte 232,0,0,0,0 // call ec2e <_sk_evenly_spaced_gradient_sse2_lowp+0x1c> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,48 // mov (%eax),%esi @@ -77098,12 +77776,12 @@ _sk_evenly_spaced_gradient_sse2_lowp: .byte 102,15,110,209 // movd %ecx,%xmm2 .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2 .byte 137,85,164 // mov %edx,-0x5c(%ebp) - .byte 102,15,111,154,94,20,0,0 // movdqa 0x145e(%edx),%xmm3 + .byte 102,15,111,154,98,20,0,0 // movdqa 0x1462(%edx),%xmm3 .byte 102,15,219,218 // pand %xmm2,%xmm3 - .byte 102,15,235,154,30,18,0,0 // por 0x121e(%edx),%xmm3 + .byte 102,15,235,154,34,18,0,0 // por 0x1222(%edx),%xmm3 .byte 102,15,114,210,16 // psrld $0x10,%xmm2 - .byte 102,15,235,146,110,20,0,0 // por 0x146e(%edx),%xmm2 - .byte 15,88,146,126,20,0,0 // addps 0x147e(%edx),%xmm2 + .byte 102,15,235,146,114,20,0,0 // por 0x1472(%edx),%xmm2 + .byte 15,88,146,130,20,0,0 // addps 0x1482(%edx),%xmm2 .byte 15,88,211 // addps %xmm3,%xmm2 .byte 15,40,216 // movaps %xmm0,%xmm3 .byte 15,89,218 // mulps %xmm2,%xmm3 @@ -77310,10 +77988,10 @@ _sk_evenly_spaced_gradient_sse2_lowp: .byte 15,89,69,136 // mulps -0x78(%ebp),%xmm0 .byte 15,88,197 // addps %xmm5,%xmm0 .byte 139,69,164 // mov -0x5c(%ebp),%eax - .byte 15,40,152,190,15,0,0 // movaps 0xfbe(%eax),%xmm3 + .byte 15,40,152,194,15,0,0 // movaps 0xfc2(%eax),%xmm3 .byte 15,89,227 // mulps %xmm3,%xmm4 .byte 15,89,195 // mulps %xmm3,%xmm0 - .byte 15,40,168,222,14,0,0 // movaps 0xede(%eax),%xmm5 + .byte 15,40,168,226,14,0,0 // movaps 0xee2(%eax),%xmm5 .byte 15,88,197 // addps %xmm5,%xmm0 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,88,229 // addps %xmm5,%xmm4 @@ -77423,7 +78101,7 @@ _sk_evenly_spaced_2_stop_gradient_sse2_lowp: .byte 86 // push %esi .byte 131,236,96 // sub $0x60,%esp .byte 15,40,241 // movaps %xmm1,%xmm6 - .byte 232,0,0,0,0 // call ef81 <_sk_evenly_spaced_2_stop_gradient_sse2_lowp+0x10> + .byte 232,0,0,0,0 // call f16d <_sk_evenly_spaced_2_stop_gradient_sse2_lowp+0x10> .byte 90 // pop %edx .byte 139,69,12 // mov 0xc(%ebp),%eax .byte 139,8 // mov (%eax),%ecx @@ -77438,10 +78116,10 @@ _sk_evenly_spaced_2_stop_gradient_sse2_lowp: .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,88,227 // addps %xmm3,%xmm4 .byte 15,88,235 // addps %xmm3,%xmm5 - .byte 15,40,154,127,10,0,0 // movaps 0xa7f(%edx),%xmm3 + .byte 15,40,154,131,10,0,0 // movaps 0xa83(%edx),%xmm3 .byte 15,89,235 // mulps %xmm3,%xmm5 .byte 15,89,227 // mulps %xmm3,%xmm4 - .byte 15,40,130,159,9,0,0 // movaps 0x99f(%edx),%xmm0 + .byte 15,40,130,163,9,0,0 // movaps 0x9a3(%edx),%xmm0 .byte 15,88,224 // addps %xmm0,%xmm4 .byte 15,88,232 // addps %xmm0,%xmm5 .byte 243,15,91,237 // cvttps2dq %xmm5,%xmm5 @@ -77558,9 +78236,9 @@ _sk_xy_to_unit_angle_sse2_lowp: .byte 15,41,77,184 // movaps %xmm1,-0x48(%ebp) .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp) - .byte 232,0,0,0,0 // call f16c <_sk_xy_to_unit_angle_sse2_lowp+0x23> + .byte 232,0,0,0,0 // call f358 <_sk_xy_to_unit_angle_sse2_lowp+0x23> .byte 88 // pop %eax - .byte 15,40,128,196,12,0,0 // movaps 0xcc4(%eax),%xmm0 + .byte 15,40,128,200,12,0,0 // movaps 0xcc8(%eax),%xmm0 .byte 15,40,225 // movaps %xmm1,%xmm4 .byte 15,84,224 // andps %xmm0,%xmm4 .byte 15,40,203 // movaps %xmm3,%xmm1 @@ -77595,24 +78273,24 @@ _sk_xy_to_unit_angle_sse2_lowp: .byte 15,89,219 // mulps %xmm3,%xmm3 .byte 15,40,247 // movaps %xmm7,%xmm6 .byte 15,89,246 // mulps %xmm6,%xmm6 - .byte 15,40,136,100,13,0,0 // movaps 0xd64(%eax),%xmm1 + .byte 15,40,136,104,13,0,0 // movaps 0xd68(%eax),%xmm1 .byte 15,40,198 // movaps %xmm6,%xmm0 .byte 15,89,193 // mulps %xmm1,%xmm0 .byte 15,89,203 // mulps %xmm3,%xmm1 - .byte 15,88,136,116,13,0,0 // addps 0xd74(%eax),%xmm1 - .byte 15,88,128,116,13,0,0 // addps 0xd74(%eax),%xmm0 + .byte 15,88,136,120,13,0,0 // addps 0xd78(%eax),%xmm1 + .byte 15,88,128,120,13,0,0 // addps 0xd78(%eax),%xmm0 .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 15,89,203 // mulps %xmm3,%xmm1 - .byte 15,88,136,132,13,0,0 // addps 0xd84(%eax),%xmm1 - .byte 15,88,128,132,13,0,0 // addps 0xd84(%eax),%xmm0 + .byte 15,88,136,136,13,0,0 // addps 0xd88(%eax),%xmm1 + .byte 15,88,128,136,13,0,0 // addps 0xd88(%eax),%xmm0 .byte 15,89,198 // mulps %xmm6,%xmm0 .byte 15,89,203 // mulps %xmm3,%xmm1 - .byte 15,40,152,148,13,0,0 // movaps 0xd94(%eax),%xmm3 + .byte 15,40,152,152,13,0,0 // movaps 0xd98(%eax),%xmm3 .byte 15,88,203 // addps %xmm3,%xmm1 .byte 15,88,195 // addps %xmm3,%xmm0 .byte 15,89,199 // mulps %xmm7,%xmm0 .byte 15,89,204 // mulps %xmm4,%xmm1 - .byte 15,40,152,164,13,0,0 // movaps 0xda4(%eax),%xmm3 + .byte 15,40,152,168,13,0,0 // movaps 0xda8(%eax),%xmm3 .byte 15,40,227 // movaps %xmm3,%xmm4 .byte 15,92,216 // subps %xmm0,%xmm3 .byte 15,84,218 // andps %xmm2,%xmm3 @@ -77625,7 +78303,7 @@ _sk_xy_to_unit_angle_sse2_lowp: .byte 15,87,228 // xorps %xmm4,%xmm4 .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3 .byte 15,194,220,1 // cmpltps %xmm4,%xmm3 - .byte 15,40,128,180,7,0,0 // movaps 0x7b4(%eax),%xmm0 + .byte 15,40,128,184,7,0,0 // movaps 0x7b8(%eax),%xmm0 .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,92,194 // subps %xmm2,%xmm0 .byte 15,84,195 // andps %xmm3,%xmm0 @@ -77644,7 +78322,7 @@ _sk_xy_to_unit_angle_sse2_lowp: .byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7 .byte 15,40,199 // movaps %xmm7,%xmm0 .byte 15,194,196,1 // cmpltps %xmm4,%xmm0 - .byte 15,40,136,196,7,0,0 // movaps 0x7c4(%eax),%xmm1 + .byte 15,40,136,200,7,0,0 // movaps 0x7c8(%eax),%xmm1 .byte 15,40,209 // movaps %xmm1,%xmm2 .byte 15,92,203 // subps %xmm3,%xmm1 .byte 15,84,200 // andps %xmm0,%xmm1 @@ -77754,11 +78432,11 @@ _sk_srcover_rgba_8888_sse2_lowp: .byte 128,227,7 // and $0x7,%bl .byte 254,203 // dec %bl .byte 128,251,6 // cmp $0x6,%bl - .byte 232,0,0,0,0 // call f3d4 <_sk_srcover_rgba_8888_sse2_lowp+0x3f> + .byte 232,0,0,0,0 // call f5c0 <_sk_srcover_rgba_8888_sse2_lowp+0x3f> .byte 89 // pop %ecx .byte 139,117,16 // mov 0x10(%ebp),%esi .byte 15,182,211 // movzbl %bl,%edx - .byte 119,29 // ja f3fa <_sk_srcover_rgba_8888_sse2_lowp+0x65> + .byte 119,29 // ja f5e6 <_sk_srcover_rgba_8888_sse2_lowp+0x65> .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 139,132,145,76,2,0,0 // mov 0x24c(%ecx,%edx,4),%eax .byte 1,200 // add %ecx,%eax @@ -77766,14 +78444,14 @@ _sk_srcover_rgba_8888_sse2_lowp: .byte 255,224 // jmp *%eax .byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6 .byte 15,87,219 // xorps %xmm3,%xmm3 - .byte 235,73 // jmp f443 <_sk_srcover_rgba_8888_sse2_lowp+0xae> + .byte 235,73 // jmp f62f <_sk_srcover_rgba_8888_sse2_lowp+0xae> .byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6 .byte 15,16,92,183,16 // movups 0x10(%edi,%esi,4),%xmm3 - .byte 235,61 // jmp f443 <_sk_srcover_rgba_8888_sse2_lowp+0xae> + .byte 235,61 // jmp f62f <_sk_srcover_rgba_8888_sse2_lowp+0xae> .byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0 .byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6 .byte 102,15,18,52,183 // movlpd (%edi,%esi,4),%xmm6 - .byte 235,43 // jmp f443 <_sk_srcover_rgba_8888_sse2_lowp+0xae> + .byte 235,43 // jmp f62f <_sk_srcover_rgba_8888_sse2_lowp+0xae> .byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0 @@ -77799,7 +78477,7 @@ _sk_srcover_rgba_8888_sse2_lowp: .byte 102,15,114,243,16 // pslld $0x10,%xmm3 .byte 102,15,114,227,16 // psrad $0x10,%xmm3 .byte 102,15,107,243 // packssdw %xmm3,%xmm6 - .byte 102,15,111,153,60,12,0,0 // movdqa 0xc3c(%ecx),%xmm3 + .byte 102,15,111,153,64,12,0,0 // movdqa 0xc40(%ecx),%xmm3 .byte 102,15,114,208,16 // psrld $0x10,%xmm0 .byte 102,15,114,210,16 // psrld $0x10,%xmm2 .byte 102,15,114,242,16 // pslld $0x10,%xmm2 @@ -77851,18 +78529,18 @@ _sk_srcover_rgba_8888_sse2_lowp: .byte 102,15,105,220 // punpckhwd %xmm4,%xmm3 .byte 102,15,235,222 // por %xmm6,%xmm3 .byte 128,251,6 // cmp $0x6,%bl - .byte 119,16 // ja f584 <_sk_srcover_rgba_8888_sse2_lowp+0x1ef> + .byte 119,16 // ja f770 <_sk_srcover_rgba_8888_sse2_lowp+0x1ef> .byte 3,140,145,104,2,0,0 // add 0x268(%ecx,%edx,4),%ecx .byte 255,225 // jmp *%ecx .byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4) - .byte 235,64 // jmp f5c4 <_sk_srcover_rgba_8888_sse2_lowp+0x22f> + .byte 235,64 // jmp f7b0 <_sk_srcover_rgba_8888_sse2_lowp+0x22f> .byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4) .byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4) - .byte 235,51 // jmp f5c4 <_sk_srcover_rgba_8888_sse2_lowp+0x22f> + .byte 235,51 // jmp f7b0 <_sk_srcover_rgba_8888_sse2_lowp+0x22f> .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2 .byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4) .byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4) - .byte 235,33 // jmp f5c4 <_sk_srcover_rgba_8888_sse2_lowp+0x22f> + .byte 235,33 // jmp f7b0 <_sk_srcover_rgba_8888_sse2_lowp+0x22f> .byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2 .byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4) .byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2 @@ -77946,11 +78624,11 @@ _sk_srcover_bgra_8888_sse2_lowp: .byte 128,227,7 // and $0x7,%bl .byte 254,203 // dec %bl .byte 128,251,6 // cmp $0x6,%bl - .byte 232,0,0,0,0 // call f698 <_sk_srcover_bgra_8888_sse2_lowp+0x40> + .byte 232,0,0,0,0 // call f884 <_sk_srcover_bgra_8888_sse2_lowp+0x40> .byte 89 // pop %ecx .byte 139,117,16 // mov 0x10(%ebp),%esi .byte 15,182,211 // movzbl %bl,%edx - .byte 119,29 // ja f6be <_sk_srcover_bgra_8888_sse2_lowp+0x66> + .byte 119,29 // ja f8aa <_sk_srcover_bgra_8888_sse2_lowp+0x66> .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 139,132,145,80,2,0,0 // mov 0x250(%ecx,%edx,4),%eax .byte 1,200 // add %ecx,%eax @@ -77958,14 +78636,14 @@ _sk_srcover_bgra_8888_sse2_lowp: .byte 255,224 // jmp *%eax .byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6 .byte 15,87,228 // xorps %xmm4,%xmm4 - .byte 235,73 // jmp f707 <_sk_srcover_bgra_8888_sse2_lowp+0xaf> + .byte 235,73 // jmp f8f3 <_sk_srcover_bgra_8888_sse2_lowp+0xaf> .byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6 .byte 15,16,100,183,16 // movups 0x10(%edi,%esi,4),%xmm4 - .byte 235,61 // jmp f707 <_sk_srcover_bgra_8888_sse2_lowp+0xaf> + .byte 235,61 // jmp f8f3 <_sk_srcover_bgra_8888_sse2_lowp+0xaf> .byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0 .byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6 .byte 102,15,18,52,183 // movlpd (%edi,%esi,4),%xmm6 - .byte 235,43 // jmp f707 <_sk_srcover_bgra_8888_sse2_lowp+0xaf> + .byte 235,43 // jmp f8f3 <_sk_srcover_bgra_8888_sse2_lowp+0xaf> .byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0 .byte 102,15,112,224,69 // pshufd $0x45,%xmm0,%xmm4 .byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0 @@ -77991,7 +78669,7 @@ _sk_srcover_bgra_8888_sse2_lowp: .byte 102,15,114,244,16 // pslld $0x10,%xmm4 .byte 102,15,114,228,16 // psrad $0x10,%xmm4 .byte 102,15,107,244 // packssdw %xmm4,%xmm6 - .byte 102,15,111,153,120,9,0,0 // movdqa 0x978(%ecx),%xmm3 + .byte 102,15,111,153,124,9,0,0 // movdqa 0x97c(%ecx),%xmm3 .byte 102,15,114,208,16 // psrld $0x10,%xmm0 .byte 102,15,114,210,16 // psrld $0x10,%xmm2 .byte 102,15,114,242,16 // pslld $0x10,%xmm2 @@ -78043,18 +78721,18 @@ _sk_srcover_bgra_8888_sse2_lowp: .byte 102,15,105,220 // punpckhwd %xmm4,%xmm3 .byte 102,15,235,222 // por %xmm6,%xmm3 .byte 128,251,6 // cmp $0x6,%bl - .byte 119,16 // ja f84a <_sk_srcover_bgra_8888_sse2_lowp+0x1f2> + .byte 119,16 // ja fa36 <_sk_srcover_bgra_8888_sse2_lowp+0x1f2> .byte 3,140,145,108,2,0,0 // add 0x26c(%ecx,%edx,4),%ecx .byte 255,225 // jmp *%ecx .byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4) - .byte 235,64 // jmp f88a <_sk_srcover_bgra_8888_sse2_lowp+0x232> + .byte 235,64 // jmp fa76 <_sk_srcover_bgra_8888_sse2_lowp+0x232> .byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4) .byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4) - .byte 235,51 // jmp f88a <_sk_srcover_bgra_8888_sse2_lowp+0x232> + .byte 235,51 // jmp fa76 <_sk_srcover_bgra_8888_sse2_lowp+0x232> .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2 .byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4) .byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4) - .byte 235,33 // jmp f88a <_sk_srcover_bgra_8888_sse2_lowp+0x232> + .byte 235,33 // jmp fa76 <_sk_srcover_bgra_8888_sse2_lowp+0x232> .byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2 .byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4) .byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2 @@ -78174,11 +78852,11 @@ BALIGN16 .byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%eax) .byte 191,0,0,224,64 // mov $0x40e00000,%edi .byte 0,0 // add %al,(%eax) - .byte 224,64 // loopne f9f8 <.literal16+0xd8> + .byte 224,64 // loopne fbe8 <.literal16+0xd8> .byte 0,0 // add %al,(%eax) - .byte 224,64 // loopne f9fc <.literal16+0xdc> + .byte 224,64 // loopne fbec <.literal16+0xdc> .byte 0,0 // add %al,(%eax) - .byte 224,64 // loopne fa00 <.literal16+0xe0> + .byte 224,64 // loopne fbf0 <.literal16+0xe0> .byte 154,153,153,62,154,153,153 // lcall $0x9999,$0x9a3e9999 .byte 62,154,153,153,62,154,153,153 // ds lcall $0x9999,$0x9a3e9999 .byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax @@ -78189,16 +78867,16 @@ BALIGN16 .byte 63 // aas .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi - .byte 225,61 // loope fa21 <.literal16+0x101> + .byte 225,61 // loope fc11 <.literal16+0x101> .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi - .byte 225,61 // loope fa25 <.literal16+0x105> + .byte 225,61 // loope fc15 <.literal16+0x105> .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi - .byte 225,61 // loope fa29 <.literal16+0x109> + .byte 225,61 // loope fc19 <.literal16+0x109> .byte 174 // scas %es:(%edi),%al .byte 71 // inc %edi - .byte 225,61 // loope fa2d <.literal16+0x10d> + .byte 225,61 // loope fc1d <.literal16+0x10d> .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 255,0 // incl (%eax) @@ -78208,13 +78886,13 @@ BALIGN16 .byte 255,0 // incl (%eax) .byte 0,0 // add %al,(%eax) .byte 0,0 // add %al,(%eax) - .byte 127,67 // jg fa47 <.literal16+0x127> + .byte 127,67 // jg fc37 <.literal16+0x127> .byte 0,0 // add %al,(%eax) - .byte 127,67 // jg fa4b <.literal16+0x12b> + .byte 127,67 // jg fc3b <.literal16+0x12b> .byte 0,0 // add %al,(%eax) - .byte 127,67 // jg fa4f <.literal16+0x12f> + .byte 127,67 // jg fc3f <.literal16+0x12f> .byte 0,0 // add %al,(%eax) - .byte 127,67 // jg fa53 <.literal16+0x133> + .byte 127,67 // jg fc43 <.literal16+0x133> .byte 0,0 // add %al,(%eax) .byte 128,127,0,0 // cmpb $0x0,0x0(%edi) .byte 128,127,0,0 // cmpb $0x0,0x0(%edi) @@ -78370,13 +79048,13 @@ BALIGN16 .byte 132,55 // test %dh,(%edi) .byte 8,33 // or %ah,(%ecx) .byte 132,55 // test %dh,(%edi) - .byte 224,7 // loopne fb69 <.literal16+0x249> + .byte 224,7 // loopne fd59 <.literal16+0x249> .byte 0,0 // add %al,(%eax) - .byte 224,7 // loopne fb6d <.literal16+0x24d> + .byte 224,7 // loopne fd5d <.literal16+0x24d> .byte 0,0 // add %al,(%eax) - .byte 224,7 // loopne fb71 <.literal16+0x251> + .byte 224,7 // loopne fd61 <.literal16+0x251> .byte 0,0 // add %al,(%eax) - .byte 224,7 // loopne fb75 <.literal16+0x255> + .byte 224,7 // loopne fd65 <.literal16+0x255> .byte 0,0 // add %al,(%eax) .byte 33,8 // and %ecx,(%eax) .byte 2,58 // add (%edx),%bh @@ -78425,17 +79103,17 @@ BALIGN16 .byte 0,0 // add %al,(%eax) .byte 52,255 // xor $0xff,%al .byte 255 // (bad) - .byte 127,0 // jg fbd4 <.literal16+0x2b4> + .byte 127,0 // jg fdc4 <.literal16+0x2b4> .byte 255 // (bad) .byte 255 // (bad) - .byte 127,0 // jg fbd8 <.literal16+0x2b8> + .byte 127,0 // jg fdc8 <.literal16+0x2b8> .byte 255 // (bad) .byte 255 // (bad) - .byte 127,0 // jg fbdc <.literal16+0x2bc> + .byte 127,0 // jg fdcc <.literal16+0x2bc> .byte 255 // (bad) .byte 255 // (bad) - .byte 127,0 // jg fbe0 <.literal16+0x2c0> - .byte 119,115 // ja fc55 <.literal16+0x335> + .byte 127,0 // jg fdd0 <.literal16+0x2c0> + .byte 119,115 // ja fe45 <.literal16+0x335> .byte 248 // clc .byte 194,119,115 // ret $0x7377 .byte 248 // clc @@ -78446,7 +79124,7 @@ BALIGN16 .byte 194,117,191 // ret $0xbf75 .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // aas - .byte 117,191 // jne fbb9 <.literal16+0x299> + .byte 117,191 // jne fda9 <.literal16+0x299> .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi .byte 63 // aas .byte 249 // stc @@ -78462,7 +79140,7 @@ BALIGN16 .byte 68 // inc %esp .byte 180,62 // mov $0x3e,%ah .byte 163,233,220,63,163 // mov %eax,0xa33fdce9 - .byte 233,220,63,163,233 // jmp e9a43bf6 <_sk_srcover_bgra_8888_sse2_lowp+0xe9a3459e> + .byte 233,220,63,163,233 // jmp e9a43de6 <_sk_srcover_bgra_8888_sse2_lowp+0xe9a345a2> .byte 220,63 // fdivrl (%edi) .byte 163,233,220,63,81 // mov %eax,0x513fdce9 .byte 140,242 // mov %?,%edx @@ -78558,16 +79236,16 @@ BALIGN16 .byte 128,3,62 // addb $0x3e,(%ebx) .byte 31 // pop %ds .byte 215 // xlat %ds:(%ebx) - .byte 118,63 // jbe fd43 <.literal16+0x423> + .byte 118,63 // jbe ff33 <.literal16+0x423> .byte 31 // pop %ds .byte 215 // xlat %ds:(%ebx) - .byte 118,63 // jbe fd47 <.literal16+0x427> + .byte 118,63 // jbe ff37 <.literal16+0x427> .byte 31 // pop %ds .byte 215 // xlat %ds:(%ebx) - .byte 118,63 // jbe fd4b <.literal16+0x42b> + .byte 118,63 // jbe ff3b <.literal16+0x42b> .byte 31 // pop %ds .byte 215 // xlat %ds:(%ebx) - .byte 118,63 // jbe fd4f <.literal16+0x42f> + .byte 118,63 // jbe ff3f <.literal16+0x42f> .byte 246,64,83,63 // testb $0x3f,0x53(%eax) .byte 246,64,83,63 // testb $0x3f,0x53(%eax) .byte 246,64,83,63 // testb $0x3f,0x53(%eax) @@ -78593,13 +79271,13 @@ BALIGN16 .byte 248 // clc .byte 65 // inc %ecx .byte 0,0 // add %al,(%eax) - .byte 124,66 // jl fd86 <.literal16+0x466> + .byte 124,66 // jl ff76 <.literal16+0x466> .byte 0,0 // add %al,(%eax) - .byte 124,66 // jl fd8a <.literal16+0x46a> + .byte 124,66 // jl ff7a <.literal16+0x46a> .byte 0,0 // add %al,(%eax) - .byte 124,66 // jl fd8e <.literal16+0x46e> + .byte 124,66 // jl ff7e <.literal16+0x46e> .byte 0,0 // add %al,(%eax) - .byte 124,66 // jl fd92 <.literal16+0x472> + .byte 124,66 // jl ff82 <.literal16+0x472> .byte 0,240 // add %dh,%al .byte 0,0 // add %al,(%eax) .byte 0,240 // add %dh,%al @@ -78645,25 +79323,25 @@ BALIGN16 .byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%eax) .byte 61,137,136,136,61 // cmp $0x3d888889,%eax .byte 0,0 // add %al,(%eax) - .byte 112,65 // jo fe15 <.literal16+0x4f5> + .byte 112,65 // jo 10005 <.literal16+0x4f5> .byte 0,0 // add %al,(%eax) - .byte 112,65 // jo fe19 <.literal16+0x4f9> + .byte 112,65 // jo 10009 <.literal16+0x4f9> .byte 0,0 // add %al,(%eax) - .byte 112,65 // jo fe1d <.literal16+0x4fd> + .byte 112,65 // jo 1000d <.literal16+0x4fd> .byte 0,0 // add %al,(%eax) - .byte 112,65 // jo fe21 <.literal16+0x501> + .byte 112,65 // jo 10011 <.literal16+0x501> .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax) .byte 0,0 // add %al,(%eax) .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax) .byte 0,0 // add %al,(%eax) .byte 255 // (bad) - .byte 127,0 // jg fdf3 <.literal16+0x4d3> + .byte 127,0 // jg ffe3 <.literal16+0x4d3> .byte 0,255 // add %bh,%bh - .byte 127,0 // jg fdf7 <.literal16+0x4d7> + .byte 127,0 // jg ffe7 <.literal16+0x4d7> .byte 0,255 // add %bh,%bh - .byte 127,0 // jg fdfb <.literal16+0x4db> + .byte 127,0 // jg ffeb <.literal16+0x4db> .byte 0,255 // add %bh,%bh - .byte 127,0 // jg fdff <.literal16+0x4df> + .byte 127,0 // jg ffef <.literal16+0x4df> .byte 0,0 // add %al,(%eax) .byte 4,0 // add $0x0,%al .byte 0,0 // add %al,(%eax) @@ -78689,13 +79367,13 @@ BALIGN16 .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 127,255 // jg fe38 <.literal16+0x518> + .byte 127,255 // jg 10028 <.literal16+0x518> .byte 255 // (bad) .byte 255 // (bad) - .byte 127,255 // jg fe3c <.literal16+0x51c> + .byte 127,255 // jg 1002c <.literal16+0x51c> .byte 255 // (bad) .byte 255 // (bad) - .byte 127,0 // jg fe41 <.literal16+0x521> + .byte 127,0 // jg 10031 <.literal16+0x521> .byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax) .byte 56,0 // cmp %al,(%eax) .byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax) @@ -78709,13 +79387,13 @@ BALIGN16 .byte 0,255 // add %bh,%bh .byte 255,0 // incl (%eax) .byte 255 // (bad) - .byte 127,71 // jg feab <.literal16+0x58b> + .byte 127,71 // jg 1009b <.literal16+0x58b> .byte 0,255 // add %bh,%bh - .byte 127,71 // jg feaf <.literal16+0x58f> + .byte 127,71 // jg 1009f <.literal16+0x58f> .byte 0,255 // add %bh,%bh - .byte 127,71 // jg feb3 <.literal16+0x593> + .byte 127,71 // jg 100a3 <.literal16+0x593> .byte 0,255 // add %bh,%bh - .byte 127,71 // jg feb7 <.literal16+0x597> + .byte 127,71 // jg 100a7 <.literal16+0x597> .byte 208 // (bad) .byte 179,89 // mov $0x59,%bl .byte 62,208 // ds (bad) @@ -78812,13 +79490,13 @@ BALIGN16 .byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%edi) .byte 0,192 // add %al,%al .byte 191,0,0,192,191 // mov $0xbfc00000,%edi - .byte 114,28 // jb ff7e <.literal16+0x65e> + .byte 114,28 // jb 1016e <.literal16+0x65e> .byte 199 // (bad) - .byte 62,114,28 // jb,pt ff82 <.literal16+0x662> + .byte 62,114,28 // jb,pt 10172 <.literal16+0x662> .byte 199 // (bad) - .byte 62,114,28 // jb,pt ff86 <.literal16+0x666> + .byte 62,114,28 // jb,pt 10176 <.literal16+0x666> .byte 199 // (bad) - .byte 62,114,28 // jb,pt ff8a <.literal16+0x66a> + .byte 62,114,28 // jb,pt 1017a <.literal16+0x66a> .byte 199 // (bad) .byte 62,85 // ds push %ebp .byte 85 // push %ebp @@ -78839,13 +79517,13 @@ BALIGN16 .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%esi) .byte 99,61,57,142,99,61 // arpl %di,0x3d638e39 .byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%esi) - .byte 127,63 // jg ffe3 <.literal16+0x6c3> - .byte 114,249 // jb ff9f <.literal16+0x67f> - .byte 127,63 // jg ffe7 <.literal16+0x6c7> - .byte 114,249 // jb ffa3 <.literal16+0x683> - .byte 127,63 // jg ffeb <.literal16+0x6cb> - .byte 114,249 // jb ffa7 <.literal16+0x687> - .byte 127,63 // jg ffef <.literal16+0x6cf> + .byte 127,63 // jg 101d3 <.literal16+0x6c3> + .byte 114,249 // jb 1018f <.literal16+0x67f> + .byte 127,63 // jg 101d7 <.literal16+0x6c7> + .byte 114,249 // jb 10193 <.literal16+0x683> + .byte 127,63 // jg 101db <.literal16+0x6cb> + .byte 114,249 // jb 10197 <.literal16+0x687> + .byte 127,63 // jg 101df <.literal16+0x6cf> .byte 3,0 // add (%eax),%eax .byte 0,0 // add %al,(%eax) .byte 3,0 // add (%eax),%eax @@ -78941,14 +79619,14 @@ BALIGN16 .byte 0,248 // add %bh,%al .byte 0,248 // add %bh,%al .byte 0,248 // add %bh,%al - .byte 224,255 // loopne 10091 <.literal16+0x771> - .byte 224,255 // loopne 10093 <.literal16+0x773> - .byte 224,255 // loopne 10095 <.literal16+0x775> - .byte 224,255 // loopne 10097 <.literal16+0x777> - .byte 224,255 // loopne 10099 <.literal16+0x779> - .byte 224,255 // loopne 1009b <.literal16+0x77b> - .byte 224,255 // loopne 1009d <.literal16+0x77d> - .byte 224,255 // loopne 1009f <.literal16+0x77f> + .byte 224,255 // loopne 10281 <.literal16+0x771> + .byte 224,255 // loopne 10283 <.literal16+0x773> + .byte 224,255 // loopne 10285 <.literal16+0x775> + .byte 224,255 // loopne 10287 <.literal16+0x777> + .byte 224,255 // loopne 10289 <.literal16+0x779> + .byte 224,255 // loopne 1028b <.literal16+0x77b> + .byte 224,255 // loopne 1028d <.literal16+0x77d> + .byte 224,255 // loopne 1028f <.literal16+0x77f> .byte 15,0,15 // str (%edi) .byte 0,15 // add %cl,(%edi) .byte 0,15 // add %cl,(%edi) @@ -79003,5 +79681,5 @@ BALIGN4 .byte 0,0 // add %al,(%eax) .byte 0,63 // add %bh,(%edi) .byte 0,0 // add %al,(%eax) - .byte 127,67 // jg 1015b <_sk_srcover_bgra_8888_sse2_lowp+0xb03> + .byte 127,67 // jg 1034b <_sk_srcover_bgra_8888_sse2_lowp+0xb07> #endif |